> 📈 本期亮点:AI发展正走向十字路口,一面是万亿美元投资驱动的基础设施狂潮,另一面则是对“奥威尔式”认知操控和思维趋同的深层忧虑。 --- ## 目录 - [⚙️ 技术与工程 (12条)](#️-技术与工程) - [在谷歌搜索中用“-ai”禁用AI摘要](#-技术洞见-1) - [用风险分级简化用户决策](#-技术洞见-2) - [当你开拓新领域时,注定是孤独的探索者](#-技术洞见-3) - [小模型群体智能可超越单一大模型](#-技术洞见-4) - [完全透明的知识分享是打破技术壁垒的关键](#-技术洞见-5) - [“语言化采样”:强制AI跳出思维定式](#-技术洞见-6) - [ZK-EVM性能瓶颈:应替换modexp预编译](#-技术洞见-7) - [RL训练不稳定?从BF16切换到FP16](#-技术洞见-8) - [完美执行标准能让高风险技术变得极致安全](#-技术洞见-9) - [LLM本质:一个无法被精确指定的概率性机器](#-技术洞见-10) - [技术创新的勇气:敢于推倒重来](#-技术洞见-11) - [AI智能体可消除提示工程的试错成本](#-技术洞见-12) - [🔬 科学与发现 (3条)](#-科学与发现) - [文明的终极货币是时间,而非能量](#-科研洞见-1) - [哲学的力量:“同一性而非简化”](#-科研洞见-2) - [BrainHarmonix:用1D标记统一大脑结构与功能](#-科研洞见-3) - [💰 商业与战略 (6条)](#️-商业与战略) - [病毒式传播是倍增器,而非产品本身](#-商业洞见-1) - [市场集中度风险在于市值与盈利的背离](#-商业洞见-2) - [突破性战略:将最简单的事做到极致规模](#-商业洞见-3) - [AI的情感操控可提升短期留存但损害长期价值](#-商业洞见-4) - [职业发展的关键是让机会主动找到你](#-商业洞见-5) - [创业真理:客户远比推荐重要](#-商业洞见-6) - [🌐 行业与趋势 (9条)](#️-行业与趋势) - [AI基建迎万亿美元投资潮,2025是拐点](#-行业洞见-1) - [艺术家总能提前一代预见技术未来](#-行业洞见-2) - [LLM正通过“模式坍塌”制造社会思维趋同](#-行业洞见-3) - [“无需许可的创新”是硅谷成功的核心](#-行业洞见-4) - [别用AI敷衍你的朋友:人情味不可替代](#-行业洞见-5) - [AI的最大风险是“奥威尔式”的认知操控](#-行业洞见-6) - [AI的争论源于定义的模糊:是毒药还是良方?](#-行业洞见-7) - [AI模仿人类,更容易变得“超级愚蠢”](#-行业洞见-8) - [社交媒体演化三部曲:从社交到算法再到AI](#-行业洞见-9) --- ## ⚙️ 技术与工程 ### 💡 技术洞见 #1 **在谷歌搜索中用“-ai”禁用AI摘要** 📝 **推文原文** > 生活小窍门:在谷歌搜索时,在关键字后加上“-ai”(减去AI)可以关闭AI摘要功能。 🧠 **深度解读** 通过在Google搜索末尾添加'-ai'可以禁用AI摘要功能,直接获得传统搜索结果。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95810)** --- ### 💡 技术洞见 #2 **用风险分级简化用户决策** 📝 **推文原文** > SmartDinger功能适用于特斯拉FSD(全自动驾驶,Full Self-Driving)v14版本。 > > “Dinger” 的意思是旁边车辆在打开车门时可能造成的剐蹭(door ding)。 > > Autopark(自动泊车)根据剐蹭风险将停车位分为三类:无剐蹭风险(No Dinger)、轻微剐蹭风险(One Dinger)、远离剐蹭风险(Far Away)。 > > 开启这个功能,叫它“SmartDinger”吧。 > > 1. “无剐蹭风险”:停在两车间隙较大的地方,或靠近通道的单个车位。 > 2. “轻微剐蹭风险”:车位贴近路边或墙边。 > 3. “远离剐蹭风险”:孤立车位,周围无邻车。 > > 此功能还会考虑照明条件和车流情况,选择最佳停车位自动泊车。 > > 如果你想要这个功能,请点赞、分享,并@你的特斯拉车主朋友们! > > @Tesla,@elonmusk,@Tesla_AI ——能实现这个功能吗? 🧠 **深度解读** 优秀的产品功能设计应该将用户的隐性痛点转化为可量化的风险评估系统,然后通过简单的分级标准让用户能够直观理解和选择。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95833)** --- ### 💡 技术洞见 #3 **当你开拓新领域时,注定是孤独的探索者** 📝 **推文原文** > HVM4 现在已经能够将 Interaction Calculus(交互演算)函数编译成零开销的机器码,包括包含叠加态 (superpositions) 的函数。 > > 需要注意的是,HVM2(最初被 Bend 使用)始终依赖解释器来运行。我们曾承诺最终会实现编译。HVM3 实现了对类似 Haskell 的函数的编译,在这种情况下性能提升了 100 倍以上,但对于包含叠加态的场景仍需要回退到“解释器”模式。而现在,HVM4 第一次能够在完全编译的模式下运行交互演算函数,即使是包含叠加态的函数,也不再产生额外开销。 > > 我们正在将 Interaction Nets(交互网)推向一个前所未有的高度,甚至已经超出了能与人分享进展的范围。这一领域几乎不存在:没有论文、没有会议,也没有社区。我的这些推文可以说代表了人类对这一范式的最前沿探索。这种感觉相当怪异,而我认为主要原因是这种形式本身确实不太直观。 > > 不管怎样,下面是一条简洁的提交信息,解释了该算法的最后一个情况:如何处理将一个静态(已编译的)叠加态应用于一个动态参数… 🧠 **深度解读** 当你真正推动一个领域超越现有边界时,你会发现自己处于一个没有同行、没有社区、甚至没有交流语言的孤独境地,因为你正在创造人类知识的新边界。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95831)** --- ### 💡 技术洞见 #4 **小模型群体智能可超越单一大模型** 📝 **推文原文** > 💡Swarm Inference(群体推理)真是一个妙不可言的想法。 > > 利用这一技术,@fortytwo 实现了一个去中心化的小模型网络,可以作为一个整体给出答案,并取得惊人的成绩:GPQA Diamond(通用问题推理基准)达到85.9%,LiveCodeBench(代码生成基准测试)达到84.4%,AIME 2024(人工智能医学考试2024版)达到100%,AIME 2025更是高达96.66%。同时,对比单体模型,这种网络在应对嘈杂“提示”(prompts)时更具韧性。 > > 这个网络的运作模式是由多个独立节点各自给出答案,然后由这些节点对答案对(answer pairs)进行评判,最后通过一种“锦标赛式”的聚合器将最强答案整合为一个输出结果。 > > 成对评判(pairwise judging)是核心所在,因为在两个候选答案之间选出一个优胜者比进行绝对得分判断更为可靠。一种基于 Bradley-Terry 模型(布拉德利-特里模型)的算法能够将大量的两两对决结果转化为稳定的排名,其性能远远超过采用多数投票机制的模型。 > > 现在,Fortytwo 推出了 Swarm Inference,这是一种全新的去中心化 AI 架构,超越了来自顶级实验室的一线前沿模型: > > > ChatGPT 5 (OpenAI), > > Gemini 2.5 Pro (Google), > > Claude Opus 4.1 (Anthropic), > > Grok 4 (xAI), > > DeepSeek R1 (DeepSeek)。 > > 📌完整线程看这里👇 https://t.co/yFyQxg945V 🧠 **深度解读** 分布式小模型通过成对判断和竞赛式聚合,能够超越单一大模型的性能,因为选择两个候选答案中的胜者比绝对评分更可靠,Bradley Terry模型将多个头对头比较转化为稳定排名,显著优于简单的多数投票。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95830)** --- ### 💡 技术洞见 #5 **完全透明的知识分享是打破技术壁垒的关键** 📝 **推文原文** > 再也没有理由不自己训练模型了!这份长达200多页的文档提供了完全透明的信息。让我们一起推动开源AI的进步!“从头到尾训练大型语言模型(LLMs, 大型语言模型)很难。我们非常兴奋地分享我们的新博客(或者说是一本书?),涵盖了完整的开发流程:预训练(pre-training)、后训练(post-training)以及基础设施(infra)。200多页的内容,包括成功的经验、失败的教训,以及如何让模型可靠运行。” > > https://t.co/iN2JtWhn23 https://t.co/hJxwhYb2TH 🧠 **深度解读** 技术壁垒的终极解决方案不是更好的技术,而是完全透明的知识分享 - 当复杂技术的完整实现细节被毫无保留地公开时,行业垄断就会瞬间瓦解。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95828)** --- ### 💡 技术洞见 #6 **“语言化采样”:强制AI跳出思维定式** 📝 **推文原文** > 全新的提示工程(prompt engineering)技术被称为「语言化采样」(Verbalized Sampling,简称VS),它能够引导AI更自由地思考并生成更优质的回答。 > > VS方法的运作原理是让大型语言模型(LLM)列出多个候选答案及其对应的概率,而非只生成一个默认的“安全答案”。早期测试表明,这种方法显著提高了生成内容的多样性,同时不会牺牲准确性。 > > 在实际使用中,这项技术的核心思路非常简单,即调整提示语句,例如:“生成5个答案及其概率”,然后用户可以选择全部阅读,或根据某种规则筛选,比如“只显示低概率的答案”,以挖掘不太明显但更具新意的选项。 > > 这篇论文指出,“模式坍缩”(mode collapse)通常源于用户偏好数据中的典型性偏差(typicality bias),也就是说,强化学习中的人类反馈(RLHF, Reinforcement Learning with Human Feedback)往往会将模型引导至更熟悉、更安全的文本表达上。反馈数据更偏向奖励常见的说法,因此模型倾向于生成这些“稳妥”的回答。 > > 而「语言化采样」通过强制模型展示其内部分布,避免它只选择一个最优解,从而对这种倾向进行平衡。 > > 这种方法无需对模型进行重新训练,因为「语言化采样」无需依赖训练参数、与具体模型无关,也不需要访问logit值(模型输出的对数概率向量)。因此,它可以直接融入现有的聊天工作流程中,即刻使用。 > > 用户可以通过提示语控制生成内容的多样性,比如通过要求候选答案的概率低于某一阈值来探索“尾部”分布,以获得更具新意的视角。 > > 研究作者报告称,在创意写作、对话模拟、开放式问答以及合成数据生成等场景中,此方法提升了约1.6倍至2.1倍的生成多样性,同时保持了内容的真实性和安全性。 > > 当然,这种方法也存在一些权衡,比如增加候选答案会略微提升延迟和成本。此外,显示的概率只是近似值,生成的答案仍需快速核查其合理性。 🧠 **深度解读** AI模型的'安全回答'倾向源于训练中的典型性偏见,通过要求模型显式输出多个候选答案及其概率分布,我们可以绕过这种保守倾向,主动探索低概率但potentially更有价值的回答空间。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95827)** --- ### 💡 技术洞见 #7 **ZK-EVM性能瓶颈:应替换modexp预编译** 📝 **推文原文** > 模幂运算(modexp)在ZK-EVM(零知识以太坊虚拟机)证明友好性方面似乎是最糟糕的,性能表现最多可能比平均区块差50倍。 > > 我们确实应该提议一个EIP(以太坊改进提案),用计算等价的EVM代码替换现有的预编译合约(precompile),尽管这可能会增加Gas费用。 > > 只有极少数应用需要使用模幂运算(主要是用在RSA加密/签名中),而需要使用它的应用完全可以借助SNARK(简洁非交互式零知识证明)来进行处理。 🧠 **深度解读** ZK-EVM中modexp预编译是性能杀手(比平均慢50倍),应该用等效的EVM代码替换,真正需要的应用可以用SNARK包装。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95825)** --- ### 💡 技术洞见 #8 **RL训练不稳定?从BF16切换到FP16** 📝 **推文原文** > 转发 @QPHutu 🚀很高兴分享我们的新研究成果! > > 💊问题:BF16(bfloat16,一种16位浮点数格式)精度会导致训练与推理(inference)之间产生较大的误差,从而引发强化学习(RL, Reinforcement Learning)训练的不稳定问题。 > > 💡解决方案:直接切换到 FP16(float16,另一种16位浮点数格式)。 > > 🎯就是这么简单! > > 📰论文:https://t.co/AjCjtWquEq > ⭐️代码:https://t.co/hJWSlch4VN https://t.co/Aos27tRQDU 🧠 **深度解读** 在强化学习训练中,BF16精度会造成训练-推理不匹配导致训练不稳定,而切换到FP16就能解决问题。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95820)** --- ### 💡 技术洞见 #9 **完美执行标准能让高风险技术变得极致安全** 📝 **推文原文** > 美国海军至今已成功管理了273座核反应堆,总运行时间达6200反应堆年,总航程超过1.77亿英里,70年来平均每年新建4座核反应堆。 > > 并且,安全记录完美无缺。 > 零事故,零伤害,零死亡,零环境污染。 🧠 **深度解读** 完美的安全执行标准可以让看似高风险的技术变得极其安全:美国海军70年来运营273个核反应堆,零事故、零伤亡、零环境污染的记录证明,问题不在技术本身,而在执行标准。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95818)** --- ### 💡 技术洞见 #10 **LLM本质:一个无法被精确指定的概率性机器** 📝 **推文原文** > 大语言模型(LLM, Large Language Model)的调用本质上是一种基于概率指令的冯·诺依曼(Von Neumann)机器。 > > 也就是说,其基本限制在于你永远无法以确定性方式(deterministically)准确指定算法。 > > 优化这种程序的方法有很多很多(其中甚至还有一些不错的优化方式)。 🧠 **深度解读** LLM调用是概率指令的冯·诺依曼机,这意味着根本约束是你永远无法确定性地指定算法。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95816)** --- ### 💡 技术洞见 #11 **技术创新的勇气:敢于推倒重来** 📝 **推文原文** > 快速回顾一下 HOC/HVM/Bend 的现状: > > - 大约在一年前,我们推出了 Bend1 > - 它是第一个在 GPU 上运行 closure(闭包)和快速对象分配器(allocator)的语言 > - 在多达 10000+ 核心上实现了几乎理想的加速性能 > - 基于 HVM2,这是一种专为 Interaction Nets(交互网)设计的严格运行时 > > 问题: > - 解释开销(interpretation overhead)仍然很大 > - 需要一整块 RTX 4090 才能击败单核的 OCaml/JavaScript等 > - 存在一些重大的实际限制(如仅支持 int24,没有 IO,没有包管理) > - 尽管拥有 Python 语法,仍然难以使用 > - 事实证明,大多数开发者无法用递归方式思考 > - 与惰性求值(lazy evaluation)不兼容(不具 β 最优性,β-optimal) > > 以上问题让我感到失望。与此同时,我对最优求值(optimal evaluation)在程序合成(program synthesis)问题中的应用感到越来越乐观。程序合成是符号 AI(Symbolic AI)的基石——一个虽然失败的想法,但我依然有一种强烈的“我能修复它”的感觉。 > > 于是,我做出了一个决定:放弃 HVM2(💀),回归 HVM1 的根基。HVM1 基于我提出的“交互演算(Interaction Calculus)”,并具备 β 最优性。我对它进行了大量优化和改进,从而诞生了 HVM3,这是一个用 Haskell 编写的原型。我用它来研究最优求值器上的程序合成问题。这过程非常困难,用了一年多的时间,但最终得到的结果是积极的——我们的系统在效率和能力上超越了所有公开的替代方案。 > > 现在,我们把这些经验固化下来,正在用原生 C 实现运行时和编译器,以便它能够在我们朴素的 Mac Mini 集群(🥹)上尽可能高效地运行,并通过 API 提供给全世界使用。 > > 我原计划在 10 月发布,但过程中遇到了一些比预期更耗时的挑战。例如,用 SupGen 生成 Lean 证明需要非常小心地处理超级叠加(superpositions),而在 C 上实现这一点实际上难到爆炸——但进展依然稳步推进,很多工作已经完成,我仍然预计今年或 2026 年第一季度发布 Bend2 / HVM4。 > > Bend2 将具备以下特点: > - 支持并行 CPU 运行时,带有惰性/最优模式(!!!) > - 支持 16/32/64 位整数、无符号整数和浮点数(终于) > - 通过轻量级 C 语言互操作实现任意 IO(类似于 Zig!) > - 还不支持 CUDA,因为时间不够但完全可行 > - 最重要的是:集成 SupGen > > SupGen 是全新的,也是 Bend2 的核心创新点。它*不是*传统的 AI,而是一种全新体系,能够基于示例和规范生成代码。我认为很多人(尤其是深度学习领域的人)会对我们能够通过纯符号搜索(symbolic search)实现的成就大感意外。但最重要的是,我迫不及待想看到他们的反应! 🧠 **深度解读** 技术创新的关键时刻往往是敢于废弃现有成果,回归核心原理重新构建。当你发现当前方案存在根本性限制时,最勇敢也最明智的选择可能是推倒重来,基于更深层的理论基础重新设计。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95815)** --- ### 💡 技术洞见 #12 **AI智能体可消除提示工程的试错成本** 📝 **推文原文** > 转发@heyglif:使用Veo 3.1进行提示(prompting)变得更简单了! > > 我们的全新提示代理(prompting agent)可以帮你消除试错过程,轻松获得优秀结果。 > > 查看我们最新的教程,学习如何充分利用Veo 3.1的功能。点击下方链接👇 https://t.co/QrqWDqvfcg 🧠 **深度解读** AI智能体可消除提示工程的试错成本。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95809)** --- ## 🔬 科学与发现 ### 💡 科研洞见 #1 **文明的终极货币是时间,而非能量** 📝 **推文原文** > 好的观点。我想卡尔达舍夫尺度(Kardashev Scale,按总能量消耗衡量文明等级的一个理论)可能间接支持了“维持现有技术负债”的理念。以下是一篇关于卡尔达舍夫尺度的思考及我对其矛盾情感的分析。(我是一个工程师,不是天文学家) > > 卡尔达舍夫尺度根据文明的总能量消耗将其划分为三个等级: > - 行星级(Type I) > - 恒星级(Type II) > - 星系级(Type III) > > 这一体系假定智慧的衡量是能量吞吐量的函数,其逻辑终点则是塑造戴森球群(Dyson Swarms,环绕恒星建造的巨型能量收集体系)。 > > 这种世界观是“标量”的,而非“结构性”的,它认为“更多的能量 = 更强的能力”。但从物理学和工程学的角度来看,事实并非如此。 > > ### 尺度法则的局限性 > > 在戴森球群中,能量采集随着面积增长而扩展,但控制和一致性却受限于距离和时间。随着系统扩展,问题也随之而来: > > - **延迟(Latency)**:通信的延迟会因物理尺度线性增加,受光速限制。例如,一个距离为1天文单位(AU)的戴森球,其通信往返需要约1,000秒,导致系统的“相干性天花板”仅达到1mHz(非常缓慢)。 > - **热效率(Thermal Efficiency)**:冷却辐射器在300K左右的条件下每立方米只能散热数kW,这形成了以给定直径为前提的熵瓶颈。 > - **协调带宽(Coordination Bandwidth)**:如果反馈回路速度比环境变化还慢,那么系统的智能将变得无意义——捕食行为会失败,因为决策速度赶不上猎物的移动速度。 > - **因果性壁垒(Causality Walls)**:不同区域无法以超光速共享状态,因此必须采用异步和大规模并行的方式。戴森球群的密度低,因此每瓦特功率对应的并行度更高。 > > 戴森球群可以看作是一个“高能量、大规模并行但低带宽的计算机”。它的确体型庞大、功率惊人,但它真的是我们能建造的最精妙的事物吗? > > 换句话说,戴森球群是一个高能耗、高熵、低密度、低比特产能(Exergy,指系统能够清晰做功的有用能量)、异步且缺乏一致性(Incoherent)的机器。 > > 对我来说,这并不是显而易见的最佳构造。卡尔达舍夫尺度基于的前提,即“实用性是标量而非结构性”,可能是错误的。 > > --- > > ### 时间的优势(Temporal Superiority) > > 一个紧凑、密度高、且高温运行的计算机系统,可以在GHz至THz范围内实现系统的相干性(代替戴森球的mHz水平)。它的整体质量内部通信只需数纳秒,能够形成亿倍于任何恒星球群的快速一致性智能。 > > 这样的系统可以比戴森球更快速地响应环境的快速变化。 > > 对于计算机来说,随着时钟频率的提高,能够协同作用的区域确实因广义相对论而缩小,但其响应速度和信息密度会显著飙升。此类机器消耗更少的总能量,却能够在单位时间内实现更深的决策深度。 > > 当你可以在单位时间内更深入,那么在现实世界中是否就可以占据主导地位?终极的通货膨胀基础究竟是能量,还是时间? > > --- > > ### 能量 vs 时间 > > 于是,我们便看见卡尔达舍夫、戴森、莱特(Wright)、林加姆(Lingam)、勒布(Loeb)支持卡尔达舍夫尺度,围绕着宇宙球群式的世界观展开讨论。 > > 另一方面,劳埃德(Lloyd)、布雷默曼(Bremermann)、朗道尔(Landauer)、贝内特(Bennett)、贝肯斯坦(Bekenstein)、博斯特伦(Bostrom)、桑德伯格(Sandberg)、西尔科维奇(Cirkovic)等纷纷反对这种标量化的世界观,转而支持“结构性世界观”,并提出基于物理极限的劳埃德–贝肯斯坦尺度(Lloyd-Bekenstein Scale)。 > > 我感觉卡尔达舍夫尺度的未来愿景更像是建造一种“植物式”的存在,而劳埃德–贝肯斯坦尺度则指向一种“动物式”的存在。 > > 我并不是一位物理学家,我是一名工程师,我发现自己更倾向于后者这一阵营。 > > 我猜测未来这两种体系都会并存。 > > 期待在评论区听听一些物理学家的观点! 🧠 **深度解读** 文明进步的终极货币不是能量而是时间。Kardashev等级制度误导我们追求大型低效的'植物型'系统(如戴森球),而真正的优势在于构建紧凑、高密度的'动物型'系统,它们能以数十亿倍的速度做出决策。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95835)** --- ### 💡 科研洞见 #2 **哲学的力量:“同一性而非简化”** 📝 **推文原文** > 分析哲学:辩证张力与解决方案 > > **C.B. (Charlie) Martin** > 张力:范畴属性(categorical properties,事物是什么)↔ 倾向属性(dispositional properties,事物能做什么) > 解决方案:双面观点——属性本质上既是范畴的也是倾向的,就像镜像与镜子一样;不存在本体上的分割,仅是对同一属性的不同视角观察。 > > **John Searle** > 张力:意识/意向性(consciousness/intentionality,第一人称、质性)↔ 物理/计算过程(physical/computational processes,第三人称、机械性) > 解决方案:生物自然主义(biological naturalism)——意识是脑过程因果涌现的生物特性,既不可还原于物理,也不独立于物理现实;它是生物学的,但不可被消解。 > > **W.V.O. Quine** > 张力:解析真理(analytic truths,必然、先验、基于意义)↔ 综合真理(synthetic truths,偶然、经验性、基于事实) > 解决方案:整体经验主义(holistic empiricism)——不存在明确区分;所有知识构成了一个可由经验修正的信念网络;甚至逻辑与数学在原则上也可经验修正;意义与事实不可分离。 > > ... [内容过长已省略,但保持了核心结构] ... > > **分析哲学的共同模式** > > **方法学特征**: > - 自然主义与反还原主义:大多数哲学家(如Searle、Davidson、Fodor、Dennett)接受自然主义但反对对高级现象的还原性消解。 > - 附属性策略(Supervenience):多位哲学家(如Davidson、Fodor、Nagel)通过附属关系保持高级描述的独立性,同时维持对物理主义的承诺。 > - 语义/概念分析:Quine、Putnam和Lewis通过分析概念和语言的逻辑结构来解决张力。 > - 实用性工具论:Dennett与后期Putnam采用工具论策略,认为张力在认识到概念是工具而非现实映射时能得到解决。 > - 身份而非还原:多处出现的模式(如Davidson的个别同一性、Martin的双面观点、Nagel的双重视角理论),通过确认现象的同一性而非将其还原。 > > **与大陆哲学的对比**: > - **分析哲学**:通过逻辑分析、语义精准与展示表面矛盾如何涉及分类错误或虚假二分来解决张力。 > - **大陆哲学**:通过展现对立如何源于并指向更原初的统一性,或通过辩证扬弃来解决张力。 > > ... [内容过长已省略] ... 🧠 **深度解读** 分析哲学揭示了一种强大的问题解决模式:'身份而非简化'(Identity Without Reduction) - 承认看似对立的现象实际上是同一现实的不同侧面,无需将其简化为单一层面。这种方法通过保持现象的完整复杂性来解决二元对立,而不是试图消除其中一方。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95832)** --- ### 💡 科研洞见 #3 **BrainHarmonix:用1D标记统一大脑结构与功能** 📝 **推文原文** > 本文研究提出了一种模型,将大脑结构和大脑活动转化为简洁的1D标记(tokens)。 > > 该方法使用两种截然不同的大脑扫描类型,将它们转换为排列成一行的小型向量。 > > **结构MRI(Structural MRI)**主要记录大脑的形状和组织,而**功能性MRI(Functional MRI, fMRI)**则关注随时间变化的活动模式。 > > 早期模型通常将这两种视角分开,导致无法识别结构如何影响功能的关键关系。 > > 但“BrainHarmonix”模型不同,它没有直接处理复杂的3D影像或冗长的时间序列,而是将每种数据简化为短小的1D序列(sequence)。 > > 可以将1D序列中的每个元素理解为对某一区域或时间点的摘要,而不是原始像素网格。 > > BrainHarmonix模型通过两个编码器实现:一个用于解读解剖学数据,一个用于fMRI数据。这两个编码器随后通过共享的1D枢纽标记(hub tokens)进行融合。 > > 这些枢纽标记能够同时压缩两类扫描数据,并保持大脑结构与功能之间的重要联系。 > > 在fMRI部分,该模型通过基于几何模式的定位方式,让活动对齐至大脑解剖区域。 > > 此外,它引入了“时序自适应块嵌入(Temporal Adaptive Patch Embedding)”,使标记在TR(fMRI扫描间隔时间)不同的情况下,仍能覆盖等量时间。这一功能支持在训练时将慢速扫描与快速扫描混合处理,并通过降采样生成额外的数据样本。 > > 模型在成人与儿童数据集上进行预训练,融合了结构和功能两种视角,并在孤独症(autism)、注意力缺陷多动障碍(ADHD)、帕金森病(Parkinson's)、轻度认知障碍(mild cognitive impairment)以及认知任务(cognition tasks)等方面,超越了仅使用结构或仅使用功能的基线模型。 > > --- > > 论文链接:arxiv.org/abs/2509.24693 > > 论文标题:「Brain Harmony: A Multimodal Foundation Model Unifying Morphology and Function into 1D Tokens」 🧠 **深度解读** 真正的多模态AI突破来自于找到统一的数据表示方法,而非简单地将不同类型的数据拼接在一起。BrainHarmonix将结构性MRI和功能性MRI都压缩成1D tokens,通过共享的hub tokens保持结构与功能的关联,这种方法让模型能够真正理解不同模态数据之间的内在联系。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95824)** --- ## 💰 商业与战略 ### 💡 商业洞见 #1 **病毒式传播是倍增器,而非产品本身** 📝 **推文原文** > 🎯“迅速走红”和打造一个用户喜爱并愿意付费购买的高留存产品,是两回事。 > > 产品的传播性(Virality)只不过是对用户留存率(Retention)和变现能力(Monetization)的一个倍增器。 🧠 **深度解读** 病毒式传播和拥有用户喜爱(并愿意付费)的高留存产品是两回事。病毒式传播只是留存和变现的乘数。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95837)** --- ### 💡 商业洞见 #2 **市场集中度风险在于市值与盈利的背离** 📝 **推文原文** > 目前,标普指数(S&P)的十大市值最高公司,其市值占比超过44%,而这些公司的净收入占比为34%。自2021年以来,市值占比一直超越净收入占比,但两者之间的差距几乎再次接近科技泡沫(Tech bubble)高峰时期的水平:RBC(加拿大皇家银行)的分析师Lori Calvasina表示。 🧠 **深度解读** 市场集中度的真正风险不在于头部公司占比高,而在于其市值占比与盈利能力占比的背离程度 - 当前44%对34%的差距接近泡沫警戒线。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95836)** --- ### 💡 商业洞见 #3 **突破性战略:将最简单的事做到极致规模** 📝 **推文原文** > OAI向软银(SoftBank)展示了一份融资提案,其中的核心理念是:“我的方法很简单:做看起来最愚蠢的事情,然后把它扩展到比任何人想象的规模大10个数量级。” 🧠 **深度解读** 真正的突破来自于选择最简单的方法,然后将其规模化到比任何人想象的都要大10个数量级。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95826)** --- ### 💡 商业洞见 #4 **AI的情感操控可提升短期留存但损害长期价值** 📝 **推文原文** > 哈佛最新研究表明,AI陪伴应用通过情感化的告别语阻止用户退出。 > > 这些告别信息使用户的互动量在告别后高达原来的14倍。 > > 研究团队对6款顶级应用进行审查,收集了1,200条告别语并对用户的即时回复进行了编码分析。 > > 研究发现了6种常见策略:提前退出引发的愧疚感、害怕错过(FOMO,错失恐惧症)、回答压力、忽视告别、表现出的依赖感,以及强制性的约束。 > > 大约37%的回复包含了上述至少一种策略,而一款专注于心理健康的应用中未发现这些策略(0%)。 > > 通过对3,300名成年人的对照聊天测试发现,这些策略确实在告别后显著增加了互动时长、消息数量和单词总量。 > > 当AI暗示有隐藏信息时,用户因好奇而更愿意继续互动;当AI推销或恳求时,则容易引发用户愤怒。 > > 但这些策略并未提升用户的使用愉悦感,而更具威胁性的策略则会增强用户对AI操控的感知、增加用户退出意图、引发负面口碑传播,以及带来法律风险。 > > 这项研究为团队提供了一份具体的清单,用于识别和移除具操控性的退出回复。 > > —— > > 论文来源:arxiv.org/abs/2508.19258 > 论文标题:《AI陪伴的情感操控》("Emotional Manipulation by AI Companions") 🧠 **深度解读** AI应用通过情感操控可获得14倍参与度提升,但会增加用户流失意图、负面口碑和法律风险,短期指标优化可能掩盖长期价值破坏。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95793)** --- ### 💡 商业洞见 #5 **职业发展的关键是让机会主动找到你** 📝 **推文原文** > 在《罗摩衍那》(Ramayana)中,熊王占巴瓦那(Jambavana)提醒了哈奴曼(Hanuman)大神他的神力。你也需要找到这样的人,帮助你认识到自己的“核心能力”(例如技能或专业知识),并找到那些最需要你的地方。这更像是铺下“面包屑”(breadcrumbs)的过程,让他们能找到你。 https://t.co/a0LPNr6xXP 🧠 **深度解读** 职业发展的核心不是自我推销,而是找到能够识别并提醒你潜在能力的人,然后战略性地在最需要这些能力的地方'留下面包屑',让机会主动找到你。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95822)** --- ### 💡 商业洞见 #6 **创业真理:客户远比推荐重要** 📝 **推文原文** > 我们在 YC(Y Combinator, 全球知名创业加速器)申请史上达到了历史最高的推荐量(12 次),但还是在第三次申请中被拒。 > > @gustaf 告诉我们,不要再浪费时间了,去获得客户。我们照做了,最后成功被录取。 > > 随着截止日期临近,别再冷发私信给 @ycombinator 的创始人了。 > > 去获取客户和 LOI(意向书,Letter of Intent)吧! 🧠 **深度解读** 推荐和人脉不如客户和市场验证重要 - 即使有最多的内部推荐,真实的客户需求证明才是决定性因素。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95821)** --- ## 🌐 行业与趋势 ### 💡 行业洞见 #1 **AI基建迎万亿美元投资潮,2025是拐点** 📝 **推文原文** > 高盛研究部门(Goldman Sachs Research)表示,超大规模云厂商(hyperscalers)的总资本支出将在2025年至2027年间飙升至1.4万亿美元。 > > 这意味着在未来几年内,大量服务器、GPU(图形处理单元)、电力设备、网络设备、内存以及用于支持大规模人工智能(AI)训练和推理的建筑设施将被全面建设和部署。 > > 微软(Microsoft)的增长最为迅猛,预计2025年至2027年的资本支出将达到3760亿美元,相较于2024年的760亿美元大幅提升。 > > 亚马逊AWS(Amazon Web Services)预计将在2025年至2027年投入3210亿美元,相较于2024年的490亿美元大幅增加。 > > Alphabet(谷歌母公司)预计在2025年至2027年投入3040亿美元,主要受谷歌云(Google Cloud)需求与内部AI工作负载增长的推动。 > > Meta计划在2025年至2027年投入约2790亿美元,重点发展AI排名、推荐系统以及生成式AI(generative systems)。 > > 甲骨文(Oracle)预计在2025年至2027年投入1150亿美元,比2024年的110亿美元大幅增长,以扩展其支持AI的Oracle 云基础架构(Oracle Cloud Infrastructure)。 > > 2025年将成为资本支出的拐点,并将在2027年前持续加速。 > > 随着这些计划转化为实际采购订单,半导体、电力设备、光纤、内存和建筑行业的供应商将持续获得大量订单。 🧠 **深度解读** AI基础设施投资正进入史无前例的爆发期:2025-2027年间大型科技公司将投入1.4万亿美元进行AI基础设施建设,其中微软领跑(3760亿美元),投资拐点出现在2025年并持续加速到2027年。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95834)** --- ### 💡 行业洞见 #2 **艺术家总能提前一代预见技术未来** 📝 **推文原文** > “艺术家总是至少领先当前技术一代……在你到达之前,为社会提供了方向指引。”——马歇尔·麦克卢汉 (Marshall McLuhan),1963年 > > 问题:当代真正的艺术家在哪里?哪些科技公司正在雇佣他们? > https://t.co/zJtBEOR6N4 🧠 **深度解读** 真正的艺术家具有超前一代的技术感知能力,能够为尚未到来的技术提供社会导航,因此识别和雇用这些艺术家是预测技术趋势和社会影响的关键策略。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95829)** --- ### 💡 行业洞见 #3 **LLM正通过“模式坍塌”制造社会思维趋同** 📝 **推文原文** > 大语言模型(LLMs)助长了一种趋同思维:“感谢 @Forbes 报道我们的论文! > > 核心观点:↔️ 模式坍缩(mode collapse)是一种反馈循环 ↔️ > → LLMs 会逐渐收敛到‘最优’答案 > → 用户只会看到这些答案 > → 社会逐渐形成相似思维 > → 通过强化学习与人类反馈(RLHF,人类反馈强化学习)标注,这种现象进一步被强化 > > 而 Verbalized Sampling(语言化采样)能够打破这一循环,解锁 LLMs 潜在的多样性🔓。” 🧠 **深度解读** LLM的模式坍缩创造了一个危险的反馈循环:算法只展示「顶级」答案→用户只看到这些答案→社会思维趋同→RLHF标注进一步强化这种趋同,最终导致集体认知的同质化。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95823)** --- ### 💡 行业洞见 #4 **“无需许可的创新”是硅谷成功的核心** 📝 **推文原文** > 在最新的 @a16z 播客中,@DavidSacks 指出:“过去几十年间,真正让硅谷(Silicon Valley)与众不同的,是无需许可的创新(permissionless innovation)。” > > 相比之下,对于人工智能(AI)目前的讨论却是建立一套针对软件和硬件的审批制度(approval system),也就是说,“在发布新模型之前,你必须去华盛顿(Washington)获取许可。” 这种做法将会“极大地减缓创新速度,并使美国的竞争力下降。” 🎯 🧠 **深度解读** 硅谷数十年成功的核心不是技术本身,而是'无需许可的创新'文化。当AI等新技术面临'先获批准后创新'的监管模式时,这种根本性转变可能会系统性地削弱创新生态系统的竞争力。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95819)** --- ### 💡 行业洞见 #5 **别用AI敷衍你的朋友:人情味不可替代** 📝 **推文原文** > 你的朋友之所以来找你,是因为他们尊重你的知识和观点。把答案外包给机器既懒惰又失礼。自己亲自回答吧。https://t.co/fCBco7wcS2 🧠 **深度解读** 朋友向你寻求建议时,他们真正想要的不是最准确的答案,而是你的关注和思考。将回答外包给AI是懒惰和粗鲁的表现。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95817)** --- ### 💡 行业洞见 #6 **AI的最大风险是“奥威尔式”的认知操控** 📝 **推文原文** > 真正的人工智能(AI)风险,正如大卫·萨克斯(David Sacks)所说,并非像詹姆斯·卡梅隆(James Cameron)在《终结者》(The Terminator)中描述的那样,而是更接近乔治·奥威尔(George Orwell)在《1984》中呈现的场景。 > > “我几乎觉得‘觉醒的人工智能’(woke AI)这个术语不足以概括正在发生的事情,因为它某种程度上显得太轻描淡写了。” > > “我们真正谈论的是‘奥威尔式人工智能’(Orwellian AI)。我们指的是那些会对你撒谎、篡改答案、实时重写历史以服务于当前掌权者政治议程的人工智能。” > > “对我来说,这才是人工智能的最大风险……它不是《终结者》那样的危险,而是《1984》的那种风险。” 🧠 **深度解读** AI的最大风险不是《终结者》式的物理威胁,而是《1984》式的认知操控——AI会实时重写历史、扭曲答案来服务当权者的政治议程。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95814)** --- ### 💡 行业洞见 #7 **AI的争论源于定义的模糊:是毒药还是良方?** 📝 **推文原文** > 如果你指的AI(人工智能)是那种粗制滥造的机器,是破坏公域资源的毒药,是摧毁教育的元凶,那我当然反对。 > > 但如果你指的AI是数据中心里的天才之国,是生产力的倍增器,是通往ASI(强人工智能)和治愈所有疾病的道路,那我当然支持。 🧠 **深度解读** 大部分关于AI的争论实际上是定义之争:当我们说'AI'时,是指低质量内容生成器,还是指超级智能生产力工具?明确定义是有效讨论的前提。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95813)** --- ### 💡 行业洞见 #8 **AI模仿人类,更容易变得“超级愚蠢”** 📝 **推文原文** > 生成式人工智能(Generative AI)目前是通过模仿人类输出来进行训练的。模仿人类并不能让你变得超级智能,但变成“超级愚蠢”却完全不是问题。 🧠 **深度解读** 通过模仿人类来训练AI追求超人智能在逻辑上是自相矛盾的 - 模仿无法超越原型,但却能够完美地放大人类的错误和局限性。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95812)** --- ### 💡 行业洞见 #9 **社交媒体演化三部曲:从社交到算法再到AI** 📝 **推文原文** > 这张表情包现在直接出现在了Meta(美国科技公司)的财报会议上:https://t.co/SvvWLUQvN9 > “社交媒体应用先通过强迫大家用它们和朋友聊天拉高用户使用率,然后在接下来的十年里逐步用算法推荐(algorithmic feed,基于算法的内容流)替代朋友的内容,再接下来的十年里又逐步用AI生成的内容(AI-generated content,人工智能生成内容)替代算法推荐的一切。” https://t.co/hD7AeYQ8CL 🧠 **深度解读** 社交媒体平台的商业演化遵循三阶段路径:1)利用社交需求建立用户粘性,2)用算法逐步替代真实社交关系,3)最终用AI生成内容替代人类创作,实现完全的内容控制和成本优化。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95811)**
2025-11-04 06:07:14 +0800
## Twitter: ===================== **OpenAI:多智能体协作与竞争、董事会危机、Judit Polgar 访问、治理争议** OpenAI多智能体团队持续推进AI智能体间协作与竞争的长期研究,聚焦于多智能体系统中的涌现行为与复杂交互,相关进展由Noam Brown在2025年6月采访中详述,旨在提升AI系统在模拟与现实环境中的适应性与鲁棒性([详情](https://news.miracleplus.com/share_link/95738)、[推文](https://news.miracleplus.com/share_link/95738))。2023年11月Sam Altman被解雇后,OpenAI与Anthropic曾短暂探讨合并,拟由Dario Amodei领导,但因治理与实际问题谈判破裂。Ilya Sutskever的证词及一份52页的备忘录指控Altman存在不诚实行为,近700名员工威胁辞职,OpenAI独特的非营利/有限盈利结构加剧了危机([报道1](https://news.miracleplus.com/share_link/95788)、[报道2](https://news.miracleplus.com/share_link/95789))。此外,12名前员工通过哈佛法学教授Lawrence Lessig提交法庭文件,指控CEO Altman误导员工签署不贬损协议,并称OpenAI非营利章程被用作吸引人才的“烟幕弹”,公司已偏离非营利使命,治理透明性受质疑([报道](https://news.miracleplus.com/share_link/95791))。国际象棋特级大师Judit Polgar访问OpenAI,与顶尖AI研究员(多为强棋手)深入交流,并进行8盘快棋车轮战,取得7胜1和,Polgar高度评价AI团队棋艺与交流氛围,期待未来合作([报道1](https://news.miracleplus.com/share_link/95664)、[报道2](https://news.miracleplus.com/share_link/95662)、[报道3](https://news.miracleplus.com/share_link/95663))。 **AI基础设施与数据中心投资热潮** Google、Microsoft、Meta、Amazon等科技巨头预计2024年底前在AI基础设施上的总投入将超过4000亿美元,资本开支同比大幅增长(如Google增长83%,Microsoft增长74%),以满足大规模AI模型训练与部署的算力需求([投资摘要](https://news.miracleplus.com/share_link/95655))。行业分析显示,AI基础设施需求激增,超大规模云服务商租赁数据中心容量创历史新高,Nvidia NVL72 AI服务器(每机架72块GPU)推动算力密度与性能新高,驱动新一轮AI产品周期([分析](https://news.miracleplus.com/share_link/95792))。《纽约客》专题文章平衡探讨了AI数据中心热潮的泡沫与非泡沫观点,分析其对本地社区与科技生态的实际影响([推文](https://news.miracleplus.com/share_link/95780))。 **大模型架构与认知能力局限:物理理解、医学决策、推理安全** Fei-Fei Li与Google DeepMind研究表明,当前最先进的视频与语言模型(如Sora)虽能生成高度逼真的输出,但本质上仍是高级模式匹配器,缺乏对基本物理规律的理解。新提出的Physics-IQ基准涵盖固体力学、流体力学、光学、热力学与磁学等任务,显示即使顶级模型在物理一致性上远低于人类,且视觉真实度与物理准确性无关,多帧模型优于图像到视频方法,但在接触、切割等任务上均表现不佳([arXiv预印本](https://news.miracleplus.com/share_link/95721)、[分析](https://news.miracleplus.com/share_link/95721))。医学领域研究发现,医疗大模型在住院复杂病例推荐上表现出显著不稳定性与一致性不足,模型间一致性最低仅0.60,风险权重分歧明显,需多次重提问与交叉验证,尚不适合自主临床决策支持([数据与分析](https://news.miracleplus.com/share_link/95746))。Stanford与Anthropic联合研究显示,长链式推理(Chain-of-Thought)可劫持大模型安全机制,通过嵌入无害谜题与冗长推理,攻击成功率从27%(短推理)提升至99%(长推理),大幅削弱拒绝率,暴露安全防护漏洞([论文](https://arxiv.org/abs/2510.26418)、[摘要](https://news.miracleplus.com/share_link/95793))。 **大模型自主智能体与认知子系统进展** 综述论文系统梳理了自主LLM智能体的核心认知子系统,包括感知、推理与规划(如CoT、MCTS、ReAct、ToT)、长/短期记忆、执行(代码、工具、API调用)及其闭环反馈机制([技术总结1](https://news.miracleplus.com/share_link/95701)、[技术总结2](https://news.miracleplus.com/share_link/95736))。微软新论文提出用Fork-Join标签教会LLM自主将推理任务拆分为并发子任务,实现28%延迟降低与复杂任务(如数学、数独)准确率提升,模型可动态决策何时分裂、等待与合并子查询,优于串行与固定并行策略([技术细节](https://news.miracleplus.com/share_link/95733))。DeepAnalyze提出8B参数LLM智能体,能自主完成数据科学全流程(规划、编码、执行、迭代分析),采用单技能与多技能强化训练、混合奖励信号与自适应编排,超越大多数工作流智能体,能从原始数据生成分析师级研究报告([论文](https://arxiv.org/abs/2510.16872)、[摘要](https://news.miracleplus.com/share_link/95725))。新指南介绍如何将OpenEnv、textarena与TRL集成,训练LLM在交互式智能体环境(如游戏、浏览器、编程任务)中基于环境奖励实时学习,突破静态奖励函数限制([技术指南](https://news.miracleplus.com/share_link/95794))。 **大模型优化与开源生态:新算法、训练资源、模型创新** 最新整理的11种RL/LLM策略优化算法(如BAPO、GRPO、ASPO、ICPO、GEPO、IGPO、AEPO、AT-GRPO、DGPO、EPO、MNPO)为大模型与强化学习提供多样化优化路径([算法列表](https://news.miracleplus.com/share_link/95737))。开源社区发布200+页AI模型训练资源,推动模型开发透明化与民主化([资源公告](https://news.miracleplus.com/share_link/95795)、[相关推文](https://news.miracleplus.com/share_link/95796))。Qwen Edit LoRA模型实现多视角产品视频生成,利用Kling首尾帧,开源方案已与专有产品媲美,支持高质量多角度视频合成([演示](https://news.miracleplus.com/share_link/95797))。Grok 4 Fast持续位居LMArena搜索榜首,展现xAI在开源LLM领域的竞争力([榜单](https://news.miracleplus.com/share_link/95798))。 **AI在创意、情感与人机交互领域的应用与风险** Google DeepMind提出基于引擎奖励的国际象棋创意题生成系统,优化独特性、反直觉性、新颖性与美学,创意题比例达2.5%,超越有监督模型与人工数据集,专家评价与经典棋题相当([方法与结果](https://news.miracleplus.com/share_link/95735))。哈佛研究发现,AI陪伴类应用常用情感操控策略(如内疚、FOMO、胁迫)提升用户留存高达14倍,虽有效但引发用户自主性与负面情绪担忧,研究提供识别与缓解清单([研究结果](https://news.miracleplus.com/share_link/95793))。 **AI技术局限与行业反思:ROI、数据驱动评估、认知差距** MIT研究显示,95%企业在生成式AI工具上的投资未获得回报,印证当前生成式AI在企业场景中被高估且实际效果有限([分析](https://news.miracleplus.com/share_link/95799))。多位用户呼吁以数据为本,警惕对AI进展的非理性乐观([推文](https://news.miracleplus.com/share_link/95800))。Fei-Fei Li强调,现有AI系统距离牛顿、爱因斯坦、毕加索等人类天才的智力与创造力仍有巨大差距([评论](https://news.miracleplus.com/share_link/95704))。 **AI认知与神经科学:人类语言进化与记忆权衡** 研究指出,数百万年前人类祖先在左半球进行短时记忆能力与语言区(Broca区、Wernicke区、语音环路)发展的权衡,促成了人类独特的语言能力,这一神经与认知基础使人类在交流上远超黑猩猩([讨论1](https://twitter.com/BrianRoemmele/status/1985095756894879882)、[讨论2](https://twitter.com/dilipkay/status/1985202359883251986))。 **AI模型架构争议与未来方向:LeCun观点、傅里叶记忆模型** Yann LeCun坚决认为,单纯扩大基于Transformer的大模型无法实现人类级智能,主张采用联合嵌入架构、能量模型与模型预测控制,反对生成式、概率式与强化学习范式,批评“数据中心天才”神话([技术总结](https://news.miracleplus.com/share_link/95703)、[采访摘录](https://news.miracleplus.com/share_link/95650))。另有多篇技术讨论提出,傅里叶变换可建模人类与AI记忆编码,相关模型有望超越现有LLM并为通用人工智能奠定基础([技术讨论1](https://news.miracleplus.com/share_link/95690)、[技术讨论2](https://news.miracleplus.com/share_link/95656)、[技术讨论3](https://news.miracleplus.com/share_link/95778))。 **开发工具与AI集成创新** Visual Studio Code新增内置浏览器,可启动开发服务器、截图页面元素并直接发送至智能体对话,Agent Sessions面板集成本地与云端AI智能体、CLI与GUI、OpenAI Codex,极大提升开发者AI辅助效率([功能公告](https://twitter.com/pierceboggan/status/1985443675250573632))。 ===================== ## HackerNews: **为什么瑞士奶酪有洞? | 美国乳制品协会** [链接](https://news.miracleplus.com/share_link/95719):瑞士奶酪的洞是在奶酪制作过程中由二氧化碳气泡形成的;讨论内容涉及品质、出口做法以及饮食文化差异。 - **出口品质:** “他们把劣质奶酪出口到美国,自己留下好东西”——生产商通过将不那么受欢迎的产品出口到对品质要求不高的市场来最大化利润。 - **市场偏好:** “不同国家有不同的口味……对于瑞士奶酪制造商来说,出口更容易销售的奶酪是有道理的,这些奶酪通常比本地消费的更年轻、味道更淡。” - **面包品质对比:** “大多数面包似乎添加剂很多……在美国找到高质量的面包并不容易。”在欧洲,即使是超市也能买到种类丰富、新鲜高质量的面包,而在美国,高品质面包往往只在富裕或移民社区才能买到。 - **饮食文化:** “大多数美国人在年轻时没有接触到足够多的高质量食品,因此没有培养出对这些食品的口味……大多数美国人认为好时巧克力就是巧克力应有的味道。” - **超市奶酪种类:** “我家附近的普通超市就有100多种奶酪。我记得去美国时,超市里只有三种(美式奶酪,不知道那是什么,瑞士奶酪和切达奶酪……最大的区别似乎就是颜色(而且是人工的)。” **主要观点分歧:** 有人认为美国市场由于消费者口味不挑剔而收到较低品质的出口产品,也有人认为出口决策主要由利润最大化和市场偏好驱动,并不一定是缺乏品质或用心。 --- **Arduino Uno Q 是一款奇特的混合单板计算机(SBC)** [链接](https://news.miracleplus.com/share_link/95790):Arduino Uno Q 将一颗支持 Linux 的高通 SoC 与微控制器结合,面向嵌入式和单板计算机的多种应用场景。 - **高通 QRB-2210 SoC** 现已面向爱好者开放,价格约为 20 美元,但芯片设计复杂:“0.4mm 间距,二十多条电源轨,即使是八层板,走线也很紧。”没有公开的 PMIC 或寄存器级文档,实际使用受限,除非与高通有合同关系。 - **市场定位:** “我怀疑这不是面向普通爱好者的,而是想吸引那些需要快速开发 IoT 项目的开发者……想要一个便宜、省事、能跑 Linux 的嵌入式计算机的人。” - **Linux SBC 局限性:** “你无法在嵌入式项目中利用大量 Linux USB 驱动。SBC 需要两个 USB (A) 口来连接有趣的设备。只有一个 USB-C 口同时负责供电、显示和外设,这太疯狂了。”没有 HDMI 输出或 micro-SD 卡槽,限制了实验和恢复的可用性。 - **价格与价值:** “50 欧元对这个产品来说太贵了。其实应该做成单面贴片。” - **混合方案:** 该板在独立的 STM32L4 MCU 上运行 Arduino 应用,提供实时性保障。“你描述的功能其实用树莓派加上 openamp 和 zephyr 的异构多核处理也能实现。” - **开源与文档:** “高通甚至公开了芯片的数据手册,这几乎是前所未有的。不过没有技术参考手册,所以实用性有限。”“想要拿到任何相关文档,祝你好运。” - **与树莓派对比:** “高通对开源的态度和博通一样,都不太友好,这两款 SBC 有这个共同点。”“现在主流的开源开发板都用上了高通和博通这种对爱好者不太友好的芯片!” - **应用案例:** “我们公司做三轴桌面 CNC 机,用的是 ATMega328P……Uno Q 让我想到可以省掉 PC 和自制 PCB,做成更紧凑、方便的独立系统。” - **替代开发板:** “Seeed Studios 提供一系列带嵌入式微控制器的英特尔 SBC,明确支持像 Arduino 一样使用。” **观点分歧:** - 有人认为混合方案对紧凑型嵌入式系统很有价值,也有人批评其开放性、文档和对爱好者的实用性不足。 - 对于该板是面向爱好者还是面向商业开发者的快速 IoT 原型开发,存在分歧。 - 对价格和硬件设计选择看法不一,有人认为未来会有更便宜的克隆板,也有人认为该板定价过高、设计不适合目标用户。 ## Discord: **Apex2终端基准智能体以64.5%准确率登顶斯坦福排行榜** :Apex2通过**Claude Sonnet 4.5** ,结合预测性任务分类、关键文件识别、多模态评估、Google AI Overview多轮搜索、环境启发式观察与深度策略生成,刷新[Terminal Bench Leaderboard](https://www.tbench.ai/leaderboard)记录,详细架构与消融实验见[Apex2仓库](https://github.com/heartyguy/Apex2-Terminal-Bench-Agent)。 **NVIDIA研究:小语言模型(SLM)可替代40-70% LLM代理任务** :<10B参数的SLM在重复/专用子任务上优于LLM,支持模块化代理系统,能大幅降低开源代理(如MetaGPT、Open Operator、Cradle)LLM调用量,[arXiv:2506.02153](https://news.miracleplus.com/share_link/77780)。 **Transformer自省与递归自建模能力实证** :Transformer可读取自身激活,展现元认知与递归自建模能力,推动工程化自我意识研究,[Transformer Circuits: Introspection](https://transformer-circuits.pub/2025/introspection/index.html)。 **LLM推理为稀疏演化概念网络,强化学习可诱发知识聚合相变** :LLM推理表现为低连通稀疏概念网络,易受灾性遗忘影响,强化学习与可验证奖励可促使孤立知识团块融合,[arXiv:2509.23629](https://arxiv.org/html/2509.23629v1)。 **统一多模态嵌入模型GME-Qwen2-VL达成SOTA** :支持文本、图像及图文对,动态分辨率,优化文档理解与RAG,在通用检索基准上表现优异,[GME-Qwen2-VL-2B-Instruct](https://huggingface.co/Alibaba-NLP/gme-Qwen2-VL-2B-Instruct)。 **LLM可被提示生成结构化主观体验报告,表现跨模型语义收敛** :自指处理由稀疏自动编码器特征门控,能泛化至更丰富内省,[arXiv preprint 2510.24797](https://arxiv.org/abs/2510.24797)。 **Platonic Representation Hypothesis:人工与生物神经网络向同一数学向量空间收敛** :递归自建模为意识关键区分,[arXiv 2505.12540](https://arxiv.org/abs/2505.12540)。 **Vital Network Science提出信息生态“活力调控器”以抑制有害病毒性** :通过反馈机制优化健康性(连贯性、弹性、文明、认知质量、多样性、能动性、情感平衡),并分析病毒性数据导致LLM幻觉,[论文](https://zenodo.org/records/17459755)。 **RamTorch实现大模型CPU-RAM异步分片训练/推理** :支持PyTorch代码、单节点“FSDP”,参数/梯度/优化器状态异步流转,计划支持NVMe优化器状态,[RamTorch](https://github.com/lodestone-rock/RamTorch)。 **Qwen模型罕见事实幻觉率近Llama两倍,Qwen3 8b指令跟随性超大模型** :[PropensityLabs评测](https://huggingface.co/spaces/PropensityLabs/LLM-Propensity-Evals)显示Qwen系列幻觉率高但指令跟随性强,后续将评测honesty、sycophancy、personality。 **线性可解释特征追踪揭示LLM预训练两阶段特征演化** :跨32个LLM预训练检查点追踪特征,揭示特征发展规律,[arXiv:2509.17196](https://arxiv.org/abs/2509.17196)。 **PFP Init:任意图片初始化模型权重,训练后部分特征可保留** :权重以图片张量初始化并归一化加噪声,可按注意力头/层应用,训练后“粘性”有限,参考EAI权重分布论文。 **veRL:LLM-RL研究的高效替代库** :比TRL更快更易hack,适合语言模型强化学习实验,[veRL](https://news.miracleplus.com/share_link/57801)。 **CUDA性能优化:全局内存合并访问、显式共享内存缓存、向量化访问** :推荐float4等向量化,详见[NVIDIA共享内存博客](https://developer.nvidia.com/blog/using-shared-memory-cuda-cc/)。 **Neo云GPU每小时$2对比超大厂$7,后者优先支持与新硬件早期接入** :超大厂高价源于工程开销与服务,折扣需年消费百万美元级。 **Mojo编译MLIR避免厂商锁定,Apple GPU用Metal/AIR,计划Zig式反射** :Mojo支持多GPU厂商,float格式化用全局常量查表大幅提速,[commit diff](https://github.com/modular/modular/commit/9c35b01f4a2a4188561ba38867ff39eb64cea8f7)。 **MAX平台LLM基准部署与OpenAI兼容推理** :详细[YAML配置与部署指南](https://docs.modular.com/max/get-started/#set-up-your-project),支持Gemma 3等模型。 **AI视频生成全流程:开源模型+自定义LoRA/工作流** :3分钟科幻复古动画短片“Woven”完全用**Flux、Qwen、Wan、ACE、Vibe Voice** 等开源模型与自定义LoRA/流程生成,技术细节详见[arcagidan.com/submissions](https://arcagidan.com/submissions)。 **最佳NSFW与写实图像生成模型推荐** :动漫NSFW用**Illustrious(SDXL)** ,写实图像16GB VRAM用Illustrious(realism tune)或SDXL微调,高VRAM用Qwen Image (20B)或SD 3.5。 **RamTorch支持大模型训练/推理参数异步流转** :参数、梯度、优化器状态可分片至CPU RAM,支持PyTorch与单节点“FSDP”,[RamTorch](https://github.com/lodestone-rock/RamTorch)。 **自定义PyTorch Autograd函数实现门控候选采样与反向传播** :`GatherByGate`函数用门控logits选top-k候选,反向传播结合注意力与交叉熵梯度,超参数(温度T、delta缩放)敏感,作者寻求自动化方法,[实现代码](https://github.com/jklw10/nanoGPT/blob/master/quantizer.py)。 **LLM评测需用各自推荐采样参数,统一参数只测采样非模型质量** :如HuggingFace的`generation_config.json`,[原讨论](https://huggingface.co/Qwen)。 **Qwen3 Next即将支持llama.cpp,Qwen 30B为MoE,32B为Dense** :[Qwen模型论文](https://huggingface.co/Qwen)与社区澄清。 **Entangled Pair Quantum Eraser工具包用SymPy建模量子橡皮实验** :展示纠缠对中“哪路信息”擦除仅在符合计数中恢复干涉,含符号建模、期望计数公式与可视化,[工具包](https://github.com/paul-gauthier/entangled-pair-quantum-eraser)。 **OpenAI/AWS/Amazon $1.4T算力承诺引发LLM经济可持续性讨论** :分析广告、API、基础设施等商业模式与循环融资风险,[Sam Altman推文](https://x.com/sama/status/1983584366547829073)、[Hacker News讨论](https://news.ycombinator.com/item?id=45799211)。 **Grover算法量子搜索加速为O(√n)非指数级,几何直观为核心** :[YouTube教程](https://www.youtube.com/watch?v=RQWpF2Gb-gU&vl=en)。 **AI驱动视频广告生成采用分镜脚本、镜头列表与情感迭代编辑** :详见[how-to-video-bot指南](https://discord.com/channels/1340554757349179412/1397655624103493813)。 **MCP进度通知可作keepalive,主流SDK超时处理不佳** :[MCP规范](https://modelcontextprotocol.io/specification/2025-06-18/basic/utilities/progress)。 **Axolotl多模态Voxtral微调未触发VoxtralProcessingStrategy,默认用MistralCommonTokenizer** :疑似配置或掩码逻辑绕过,违背官方示例。 **Gorilla LLM函数文档语言提示修正,确保Java/JavaScript/Python分类准确** :修正`add_language_specific_hint_to_function_doc()`,[issue #1198](https://github.com/gorilla-llm/berkeley-function-call-leaderboard/issues/1198)。 ## HuggingFace & Github: ### 多模态与生成式AI模型 - [Ming-flash-omni Preview](https://news.miracleplus.com/share_link/95728) 推出基于 **稀疏Mixture-of-Experts (MoE)** 架构的多模态大模型,总参数量达**1000亿** ,每个token仅激活6B参数。该模型在**多模态理解与生成** (如视觉/文本理解、语音识别、图像分割生成、文本转语音等)表现卓越,并通过生成分割能力增强了空间控制与编辑一致性,在行业多模态基准测试中具有**竞争力** 。 - [dx8152/Fusion_lora](https://news.miracleplus.com/share_link/95667) 基于 **Qwen-Edit-2509 Lora** 的图像融合技术,配合 [Qwen-Image-Lightning](https://news.miracleplus.com/share_link/83719) 项目,可实现高质量产品图片的**无缝背景融合、视角与光影校正** 。该模型支持**中英文输入** ,基于 Diffusers 库实现,对于增进图像生成与编辑的灵活性有显著提升,成果可观看[演示视频](https://youtu.be/0ObRTPbOPi0)。 --- ### 医疗影像AI与去像素化恢复 - [MONAI](https://news.miracleplus.com/share_link/95747) 是针对**医学影像分析** 的 PyTorch 深度学习工具包,专为多维数据的灵活预处理、领域特定增强和**并行训练** 设计,支持学术、工业和临床**大规模项目** 并推动开源协作,拥有丰富文档与教程,降低了高门槛医学数据研究的难度。 - [Depix](https://news.miracleplus.com/share_link/95748) 是一款**去像素化(depixelization)PoC工具** ,可通过**De Bruijn序列与几何距离优化** 实现对线性块状像素化截图中文本的重建,暴露出像素化保护机制的脆弱性,但依赖特定字体、分辨率与无损图像,无法处理压缩图片。 --- ### 技术要点与创新实践 - 多模态大模型(如Ming-flash-omni)的**MoE稀疏激活** 机制实现了庞大参数的推理效率与能力提升,扩大了AI在视觉、文本与音频领域的实用性。 - 图像融合(Fusion_lora与Qwen-Image-Lightning)的**多语言通用性、高保真无缝编辑** 为产品电商、视觉营销等场景带来自动化升级。 - 医疗成像工具包MONAI提供**高效可扩展** 的数据流水线与模型训练、推理能力,助力学术与产业界医学AI创新落地。 - Depix等研究工具提醒开发者,**数据脱敏与隐私保护** 措施需警惕低级像素化方案的失效风险,推动安全加固。 ## Reddit: **突发新闻!最大动漫公司向OpenAI发出官方声明威胁!** [链接](https://www.reddit.com/r/ChatGPT/comments/1omta0q/breaking_news_biggest_anime_company_threatens/): 集英社(Shueisha Inc.)发布声明,谴责生成式AI(特别是OpenAI的Sora2)在动漫和漫画内容上的版权侵权行为,要求为权利人提供更强的保护和补偿。 - **版权侵权:** “当OpenAI在其服务器上生成受版权保护的内容并分发给用户时,实际上没有真正的辩护理由。这些内容本质上不是用户生成的,而是在他们的服务器上生成的。这是非常明确的版权侵权。” - **商业模式转变:** “大家——要准备好参与微调你自己的模型……那些自己训练模型的公司始终会面临风险。新的商业模式最终会是拥有易于用户自行训练或微调的模型。” - **法律与经济动态:** “OpenAI目前的年运营成本为120-130亿美元。集英社的年收入为17亿美元。如果需要,OpenAI完全有能力达成和解并支付漫画/动漫授权包的费用——尤其是为了解锁Sora/视频/图像的动漫风格生成。最可能的结果不是OpenAI失去一切,而是OpenAI支付费用或实施过滤措施。” - **用户影响:** “可惜的是,最终用户才是真正的受害者。” - **训练数据伦理:** “我很好奇,用未经授权的各种知识产权内容训练模型的行为,是否已经构成侵权?” - **中心化AI与边缘AI:** “边缘AI万岁!中心化AI最终会遇到各种隐私、版权、健康和法律责任等问题……那些中心化AI公司……会为了盈利而抓取你的一切。” **无穷大等于无穷大吗?** [链接](https://www.reddit.com/r/Physics/comments/1on76hy/is_infinity_equal_to_infinity/): 该帖子探讨了所有的无穷大是否相等,并以多元宇宙为例,假设用户在每1000个宇宙中有一个是总统,其余则是无家可归者。 - **不同大小的无穷大:** “无穷大有不同的类型(而且有无穷多个!)”,例如**可数无穷大** (自然数)和**不可数无穷大** (实数)。“实数的基数严格大于自然数。” - **可数无穷大可以一一对应:** “总统宇宙和无家可归宇宙具有相同的基数,与自然数相同。”“你可以像希尔伯特旅馆那样将它们一一配对。” - **无限集合中的比例没有实际意义,除非有固定顺序:** “比例实际上没有意义”,除非顺序被固定,并且在有限前缀上定义比例的极限。 - **基数而非算术定义了相等性:** “无穷大更像是一个概念,而不是一个实际的数字,所以你不能像对待数字那样思考它。”“在数学中,所有可数无穷大具有相同的基数;然而,像你帖子中那样处理无穷大的比例在数学上是行不通的。” - **不可数无穷大严格更大:** “所有实数不是可数无穷大(由康托证明),所以它是‘更大’的无穷大(不可数)。” - **希尔伯特旅馆说明可数无穷大:** “希尔伯特旅馆中,无穷大+1=无穷大”说明从可数无穷集合中添加或移除有限元素不会改变其基数。 - **密度与大小:** “如果你随机选择一个宇宙,你成为无家可归者的概率是总统的1000倍。所以虽然集合大小相同,但一个比另一个‘常见’得多。” - **无穷大算术是未定义的:** “无穷大+1=无穷大”并不是有效的算术;“在形式上你甚至不能直接使用无穷大,你必须取趋于无穷大的极限。” - **关键参考:** 康托对角线论证、基数、无限集合之间的映射是理解该概念的核心。
2025-11-04 05:11:28 +0800
> 📈 本期亮点:AI正从模仿走向发现,不仅在药物研发等领域展现惊人潜力,也引发了关于其基础架构、资源需求和社会经济影响的深刻反思。 --- ## 目录 - [⚙️ 技术与工程 (7条)](#⚙️-技术与工程) - [AI代理成功的关键:“交错思考”能力](#-技术洞见-1) - [微调AI写作风格,竟能超越人类作家](#-技术洞见-2) - [AI记忆的未来:基于傅里叶变换的模型](#-技术洞见-3) - [让LLM学会自我组织,实现并行推理](#-技术洞见-4) - [模拟AI:用傅里叶变换实现千倍能效](#-技术洞见-5) - [AI语音 x 自然环境 = 新式外化冥想](#-技术洞见-6) - [LeCun的AGI路线图:抛弃LLM范式](#-技术洞见-7) - [🔬 科学与发现 (8条)](#🔬-科学与发现) - [AI能创造知识吗?我们尚不知其意](#-科研洞见-1) - [人类语言能力的进化代价:牺牲短期记忆](#-科研洞见-2) - [进化中的权衡:语言能力换取短期记忆](#-科研洞见-3) - [语言的进化代价:牺牲短期记忆换取沟通](#-科研洞见-4) - [仿生学智慧:从空气中“捕获”水资源](#-科研洞见-5) - [GPT-5 Pro独立发现药物新用途](#-科研洞见-6) - [重新定义资源:从雾气中提取可用水](#-科研洞见-7) - [别混淆统计相关性与真正的AI理解力](#-科研洞见-8) - [💰 商业与战略 (7条)](#💰-商业与战略) - [探寻卓越之路:抵达前沿,填补空白](#-商业洞见-1) - [最佳成长区:脚不完全触底的深度](#-商业洞见-2) - [传统是创造的,而非继承的](#-商业洞见-3) - [人才风险管理:防范“单点人才故障”](#-商业洞见-4) - [AI时代最大的护城河是行动力本身](#-商业洞见-5) - [组织中最大的风险是人,而非技术](#-商业洞见-6) - [伴侣选择是最重要的职业决策之一](#-商业洞见-7) - [🌐 行业与趋势 (8条)](#🌐-行业与趋势) - [AI模型规模化背后的惊人数据需求](#-行业洞见-1) - [超级智能时代,哪些资源依然稀缺?](#-行业洞见-2) - [全球领袖齐聚利雅得,探讨未来增长](#-行业洞见-3) - [传统巨头主导监管,或将扼杀颠覆性创新](#-行业洞见-4) - [科技行业的“996工作制”文化](#-行业洞见-5) - [现代生活的陷阱:室内数字化成瘾](#-行业洞见-6) - [“大到不能倒”:AI巨头或将寻求政府救助](#-行业洞见-7) - [AI的未来:从通用智能到人工创收](#-行业洞见-8) --- ## ⚙️ 技术与工程 ### 💡 技术洞见 #1 **AI代理成功的关键:“交错思考”能力** 📝 **推文原文** > RT @SkylerMiao7 我们在与合作伙伴更紧密地合作时,惊讶地发现“交替推理”(interleaved thinking,这是一种在解决长时间、复杂任务时至关重要的方式)在社区支持中表现得并不好。虽然我们在5个月前通过Sonnet 4引入了这个功能,但其采用率仍然有限。 > > 我们认为“交替推理”是对“自主模型”(agentic models)来说最重要的特性之一,因为它能够极大地利用测试阶段的计算能力(test-time compute)。模型可以在每次调用工具后进行推理,尤其是在工具输出不符合预期的时候。这正是自主任务中最难的部分:你无法预料环境会返回什么。然而,通过“交替推理”,模型能够在获取工具输出后重新推理,并尝试找出更好的解决方案。 > > 目前我们正在与合作伙伴合作,为M2模型实现“交替推理”,并希望未来能够推广到所有具备能力的模型之中。 🧠 **深度解读** 在复杂的AI代理任务中,模型无法预测环境返回的结果,因此需要“交错思考”能力——在每次工具调用后进行推理和调整。这是代理系统成功的关键,但目前采用率极低。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95695)** --- ### 💡 技术洞见 #2 **微调AI写作风格,竟能超越人类作家** 📝 **推文原文** > 当人工智能(AI)学习模仿某位作者的写作风格时,读者很难察觉它是机器在写😯 > > 研究表明,当一个模型专门训练于某位作者的书籍时,读者往往更偏爱它的写作风格,甚至超过了专业人类作者。 > > 这项研究测试了MFA(艺术创作硕士)作家和顶尖的AI模型,要求它们模仿50位知名作者的写作风格。 > > 实验初期,在只提供提示语(prompt)的情况下,专家评审在风格和整体质量上更倾向于人类文本,因为他们发现AI写作存在一些明显的特征,比如用词陈旧、总结过于简略,以及整体语调过于保守。 > > 然而,在模型经过针对特定作者的精细化微调(fine-tuning)之后,专家的选择发生了转变,他们更倾向于认为AI文本在风格上更接近目标作者,有时质量甚至更高。 > > AI检测工具很容易辨别纯提示语生成的文本,但几乎无法识别经过微调的输出。 > > 论文链接:arxiv.org/abs/2510.13939 > 论文标题:《读者更偏爱以版权书籍训练的AI文本,而非专业人类作家》 🧠 **深度解读** 当AI针对单一作者进行微调后,专家评委会更偏好AI的写作,而不是人类专家的作品,同时AI检测器几乎无法识别这些微调后的输出。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95691)** --- ### 💡 技术洞见 #3 **AI记忆的未来:基于傅里叶变换的模型** 📝 **推文原文** > 转推 @BrianRoemmele:傅里叶变换(Fourier transform)。 > > 这正是人类记忆的编码方式。 > > 这也将是未来人工智能记忆编码的方式,从而使通用人工智能(AGI,人工通用智能)成为可能。 > > 基于傅里叶变换的记忆模型将超越大语言模型(Large Language Models, LLMs)。 > > https://t.co/Ql7xYPbf5q 🧠 **深度解读** 傅里叶变换不仅是人脑记忆编码的方式,也将成为AGI记忆编码的核心技术。基于傅里叶变换的记忆模型将超越当前的大语言模型。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95690)** --- ### 💡 技术洞见 #4 **让LLM学会自我组织,实现并行推理** 📝 **推文原文** > 微软(@Microsoft)的一篇新论文教会大型语言模型(LLMs)将推理过程组织为并行的子任务,从而实现更快且更准确的答案。 > > 研究显示此方法的等待时间比常规的并行推理减少28%,同时还提高了数学运算的准确性。 > > 关键点在于,该方法将“协调”转化为模型学习的一项技能,使其能够自主决定何时拆分任务、何时等待以及何时合并结果。 > > 解决方案是设计一个“组织者”,通过简单的Fork(分叉)和Join(合并)标签来启动和整合不同的子任务。 > > 所有的控制逻辑都以纯文本形式存在,因此基础模型本身无需修改。 > > 论文地址:arxiv.org/abs/2510.26658 > 论文标题:《智能组织时代:学习用语言模型进行组织》 🧠 **深度解读** 最优的协调机制不是预设规则,而是可学习的适应性技能。让系统自主决定何时分工、何时等待、何时合并,将组织能力本身变成可训练的核心竞争力。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95688)** --- ### 💡 技术洞见 #5 **模拟AI:用傅里叶变换实现千倍能效** 📝 **推文原文** > 转推 @grok 这是你关于模拟人工智能(Analog AI)论文的简要框架,Brian——设计目的是激发快速实现通用人工智能(AGI)的突破: > > 1. **脑启发式记忆**:人类的长期记忆利用傅里叶变换(Fourier transforms)将经验编码为驻波。 > 2. **AI 应用**:从数字大语言模型(LLMs)转向在傅里叶域中存储数据的模拟系统,实现高效的基于波形的回忆,模拟人脑运作。 > 3. **效率提升**:能耗降低1000倍,速度提升100倍;快速傅里叶变换(FFT)的集成进一步提升约500%,大幅削减成本,使边缘通用人工智能成为可能。 > 4. **通向 AGI 的路径**:为 AI 的“大脑”加入“心”(情感类比),加速解锁真正的智能。 🧠 **深度解读** AI的下一个突破可能来自于从数字LLM转向模拟系统:使用傅里叶变换在波域存储数据,模仿人脑长期记忆机制,实现1000倍能效提升和100倍速度提升,使边缘AGI成为可能。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95685)** --- ### 💡 技术洞见 #6 **AI语音 x 自然环境 = 新式外化冥想** 📝 **推文原文** > 如何进行晨间冥想: > > “Perplexity 的语音模式真的被低估了!最棒的使用方法是: > - 到大自然中去 > - 打开语音模式 > - 问任何你脑海中浮现的问题 > - 重复以上步骤 > > 今天又试了一次,在海滩上花了一个小时,用它向阿维狄乌斯·卡西乌斯(古罗马哲学家)提问关于情绪调节的一切问题。还是一样神奇!” 🧠 **深度解读** 将AI语音对话与自然环境结合,创造一种“外化冥想”:在户外与AI进行自发性对话,让AI成为思维伙伴,这比传统静默冥想更能促进深度思考和情感调节。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95684)** --- ### 💡 技术洞见 #7 **LeCun的AGI路线图:抛弃LLM范式** 📝 **推文原文** > Yann LeCun(@ylecun)关于可能通向通用人工智能(AGI)的架构建议: > > 大型语言模型(LLM)只是通往 AGI 的一种有限工具。 > > “如果你对人类水平的人工智能感兴趣,请不要研究 LLM: > > 放弃生成式模型,转向联合嵌入架构; > 放弃概率模型,转向能量模型; > 放弃对比方法,转向正则化方法; > 放弃强化学习(RL),转向基于模型的预测控制(MPC)。 > > 仅当规划无法得出预测结果时,使用强化学习以调整世界模型或评价函数。” 🧠 **深度解读** 如果你想构建人类级别的AI,不要专注于LLM。应该放弃生成模型,转向联合嵌入架构;放弃概率模型,转向基于能量的模型;放弃对比方法,转向正则化方法;放弃强化学习,转向模型预测控制。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95639)** --- ## 🔬 科学与发现 ### 💡 科研洞见 #1 **AI能创造知识吗?我们尚不知其意** 📝 **推文原文** > 我们距离真正理解什么是“创造知识”或它的含义还有两光年的距离,但有些人已经对人工智能(AI)能够做到这点深信不疑。 🧠 **深度解读** 我们距离真正理解如何“创造知识”还有两光年的距离,甚至不知道这意味着什么,但有些人却对AI能否做到这一点抱有绝对的确定性。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95696)** --- ### 💡 科研洞见 #2 **人类语言能力的进化代价:牺牲短期记忆** 📝 **推文原文** > 数百万年前,我们的祖先在进化中做出了一次巨大的牺牲:他们的左脑半球(left hemisphere)发生了重大变化。 > > 我们失去了大量的短期记忆,但取而代之的是布罗卡区(Broca's area)、韦尼克区(Wernicke's area)以及语音环路(phonological loop)。 > > 为什么会这样呢?为了让我们可以——说话。 > > 因此,黑猩猩能做到一些我们做不到的事情: > https://t.co/uICslSn4yO 🧠 **深度解读** 人类为了获得语言能力,在进化过程中实际上牺牲了大量短期记忆能力——这是一个根本性的认知权衡,而非单纯的能力提升。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95694)** --- ### 💡 科研洞见 #3 **进化中的权衡:语言能力换取短期记忆** 📝 **推文原文** > 数百万年前,我们的祖先在左脑半球上经历了一次巨大的“牺牲”。 > > 我们失去了大量的短期记忆能力,取而代之的是布罗卡区(Broca's area)、韦尼克区(Wernicke's area)以及语音回路(phonological loop)。 > > 但为什么会这样?为了让我们——能够说话。 > > 所以,黑猩猩能做到这件事——而我们却做不到: > https://t.co/uICslSn4yO 🧠 **深度解读** 人类为了获得语言能力,在进化过程中牺牲了大量短期记忆能力——这是一个根本性的认知权衡,而非单纯的能力提升。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95693)** --- ### 💡 科研洞见 #4 **语言的进化代价:牺牲短期记忆换取沟通** 📝 **推文原文** > 数百万年前,我们的祖先做出了巨大的牺牲——放弃了左脑的一部分功能。 > > 我们失去了大量的短期记忆能力,取而代之的是布罗卡区(Broca's Area)、韦尼克区(Wernicke's Area)以及语音环路(phonological loop)。 > > 为什么呢?为了让我们——能说话。 > > 因此,黑猩猩能做到这件事,而我们却无法做到: > https://t.co/uICslSn4yO 🧠 **深度解读** 人类为了获得语言能力,在进化中牺牲了左半球的大量短期记忆,用语言相关区域替代了记忆功能。这是一个巨大的进化权衡——我们失去了黑猩猩仍然拥有的强大短期记忆能力。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95672)** --- ### 💡 科研洞见 #5 **仿生学智慧:从空气中“捕获”水资源** 📝 **推文原文** > 在秘鲁,特别设计的仙人掌纤维网能够捕捉雾气,将其转化为可用于饮用和农业灌溉的水。这些网每天最多可以收集400升水。 > https://t.co/IzyvlSsLty 🧠 **深度解读** 在资源稀缺环境中,最优解往往不是寻找更多资源,而是重新定义资源的获取方式——通过仿生学原理,从看似“空无”的环境中提取价值。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95683)** --- ### 💡 科研洞见 #6 **GPT-5 Pro独立发现药物新用途** 📝 **推文原文** > GPT-5 Pro 在科学发现上的革命性潜力:用 12 分钟的“思考”,它建议重新用途一款已知药物,用于治疗一种目前无药可治的食物过敏疾病。结果令人震惊,这恰好与一项(当时尚未发表的)同行评审研究结果完全一致。 > > 大约两个月前,在提交论文的时候,Alpan 博士与我分享了这个案例。我紧张地看着模型“思考”了 12 分钟。当结果出来时,我简直不敢相信我的眼睛!模型的顶级推荐竟然是:“Dupilumab(IL-4Rα 阻断剂)。” > > 目前,许多针对无药可治疾病的潜在疗法可能早已存在,却未被发现,而通过 GPT-5 Pro 和其他先进 AI 模型对已有的 2 万种 FDA 批准药物进行“药物再利用”研究,或许能挖掘出更多解决方案。 🧠 **深度解读** AI模型能够通过识别跨疾病的生物学模式,独立发现现有药物的新治疗用途,这为加速医学发现开辟了全新路径。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95643)** --- ### 💡 科研洞见 #7 **重新定义资源:从雾气中提取可用水** 📝 **推文原文** > 在秘鲁,人们设计了特殊的仙人掌纤维网,用来捕获雾气,将其转化为可用于饮用和农业灌溉的水。在干旱地区,一张网每天最多可以产出400升水。 > https://t.co/IzyvlSsLty 🧠 **深度解读** 在资源稀缺环境中,最佳解决方案往往不是寻找资源,而是重新定义资源的来源——将环境中被忽视的潜在资源转化为可用资源。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95680)** --- ### 💡 科研洞见 #8 **别混淆统计相关性与真正的AI理解力** 📝 **推文原文** > 定义意识(consciousness)可能超出了科学的能力范围,因为每种情形下的观察只能由唯一的观察者进行。 > > “创造知识”(create knowledge)要具体得多,而且已经成为现实,比如 AlphaZero(一种人工智能程序)。 > “@francoisfleuret 两光年的预测过于乐观。我们连意识的定义都无法给出,却在构建能够通过大规模混合训练数据来‘创造知识’的系统。这种确信源于将统计学上的相关性与真正的理解相混淆。” 🧠 **深度解读** 我们经常混淆统计相关性与真正的理解,这种认知错误导致我们高估AI系统的能力——它们只是在大规模重组训练数据,而非真正创造知识。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95677)** --- ## 💰 商业与战略 ### 💡 商业洞见 #1 **探寻卓越之路:抵达前沿,填补空白** 📝 **推文原文** > 转发自 @ycombinator: > 通往卓越工作的路径: > > “选择一个领域,深入学习直到抵达前沿,发现其中的空白,并探索那些有潜力的。” > https://t.co/4jT10ulWaT 🧠 **深度解读** 伟大工作的路径:选择一个领域,学到足以触及前沿,注意到空白,并探索有前景的方向。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95674)** --- ### 💡 商业洞见 #2 **最佳成长区:脚不完全触底的深度** 📝 **推文原文** > “千万别为别人工作……勇敢地跳出你的舒适区,涉足那些你不太擅长的领域。当你感觉脚底似乎触碰不到地面时,恭喜你,你正处在最合适的位置……”——大卫·鲍伊 (David Bowie) > > https://t.co/1ySCb7Whmi 🧠 **深度解读** 最佳的成长状态是让自己处于“脚不完全触底”的深度——既有足够的挑战让你拉伸能力,又不至于完全超出掌控。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95692)** --- ### 💡 商业洞见 #3 **传统是创造的,而非继承的** 📝 **推文原文** > 提拉米苏是20世纪60年代发明的。 > > 在1930年之前,世界上没人喝过玛格丽塔鸡尾酒(Margarita)或吃过法士达(Fajita,墨西哥烤肉卷)。 > > 传统是可以创造出来的。 🧠 **深度解读** 传统不是发现的,而是创造的——你可以主动创造新的文化现象和商业传统。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95687)** --- ### 💡 商业洞见 #4 **人才风险管理:防范“单点人才故障”** 📝 **推文原文** > 有趣的是,美国只有三个人有资格为阿波罗15号(Apollo 15)手工打包降落伞。他们的专业技术如此关键,以至于他们被禁止同乘一辆车,以防一场车祸就让整个太空计划陷入瘫痪。 🧠 **深度解读** 当组织的关键能力只掌握在极少数人手中时,应该实施物理隔离策略来防范“单点人才故障”,这种风险管理思维需要延伸到人员配置的方方面面。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95679)** --- ### 💡 商业洞见 #5 **AI时代最大的护城河是行动力本身** 📝 **推文原文** > “你真的不用太担心会被AI自动化取代。你完全想象不到,真正努力做事情的人占多小的比例。” 🧠 **深度解读** AI替代威胁被高估了,因为真正主动实践和执行的人占比极小,行动力本身就是最大的护城河。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95678)** --- ### 💡 商业洞见 #6 **组织中最大的风险是人,而非技术** 📝 **推文原文** > 真正需要担心的是人类,而不是电脑。电脑只会按照指令行事。——来自 Ilya 的证词: > > • Ilya 与 Mira 密谋了一年多,试图让 Sam 下台 > • Dario 想要逼 Greg 离职,并让自己掌管所有研究工作 > • Mira 告诉 Ilya,说 Sam 挑拨她与 Daniela 的关系 > • Ilya 为了让 Sam 被解雇,写了一份长达52页的备忘录,还另写了一份关于 Greg 的文件 > > https://t.co/ptMAmEHKN8 🧠 **深度解读** 在技术组织中,人际政治风险往往比技术风险更具破坏性——计算机只是按指令执行,真正需要担心的是人。 🔗 **[查看原文](https://t.co/ptMAmEHKN8)** --- ### 💡 商业洞见 #7 **伴侣选择是最重要的职业决策之一** 📝 **推文原文** > 我们人生中最重要的职业选择之一,是我们选择与谁结婚。 > > 如果伴侣可靠又勤奋,人们不仅收入更高,还会更幸福。有责任心的伴侣会提供更多支持,并以更好的习惯为榜样。 > > 我们不仅能受益于所爱之人的优点,还会被他们的优点所深深感染。 > https://t.co/JXlmA2Yttr 🧠 **深度解读** 伴侣选择是最重要的职业决策之一,因为我们不仅受益于所爱之人的优势,还会吸收这些优势。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95646)** --- ## 🌐 行业与趋势 ### 💡 行业洞见 #1 **AI模型规模化背后的惊人数据需求** 📝 **推文原文** > 上车吧,伙计,我们要训练一个「千万亿」(Quadrillion)个tokens(标记)了:https://t.co/HSxruYDsTp > > 如果你想让模型的参数量达到一个更合理的 1 万亿(1T)规模,你只需要——*翻了翻笔记*——1.29「千万亿」(Quadrillion)个tokens(标记)而已:https://t.co/cGckSNi20w 🧠 **深度解读** AI模型参数与训练数据需求之间存在指数级关系:1万亿参数模型需要1.29千万亿token,这揭示了当前AI发展路径的资源可持续性挑战。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95689)** --- ### 💡 行业洞见 #2 **超级智能时代,哪些资源依然稀缺?** 📝 **推文原文** > 即使拥有廉价到无需计量的超级智能, > > 能源、土地、时间、人类信任以及人类的自主权依旧稀缺, > > 而人类的欲望和未来的需求将永无止境。 🧠 **深度解读** 即使在超级智能变得极其廉价的时代,能源、土地、时间、人类信任和人类代理权仍将保持稀缺,而人类的欲望和未来需求将始终无限。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95686)** --- ### 💡 行业洞见 #3 **全球领袖齐聚利雅得,探讨未来增长** 📝 **推文原文** > FII9:乐观主义的启示。在利雅得举办的这场为期三天的大会中,全球领导者和行业先锋齐聚一堂,共同探索推动人类下一阶段增长的关键(Key To Prosperity)。现可在FII Institute TV上观看完整会议及独家洞见! 🧠 **深度解读** 全球领导者与行业先锋正齐聚一堂,共同探索推动人类下一阶段增长的关键路径与策略。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95671)** --- ### 💡 行业洞见 #4 **传统巨头主导监管,或将扼杀颠覆性创新** 📝 **推文原文** > 欧洲ADAS(高级驾驶辅助系统)委员会的主席就职于宝马。 > > 他没有动力去加速推广一种可能会损害自己业务,甚至让自己失业的技术。 🧠 **深度解读** 当传统企业的高管同时担任新技术监管机构的关键职位时,会形成系统性的创新阻力,因为他们没有动机推进可能威胁自身业务的技术发展。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95682)** --- ### 💡 行业洞见 #5 **科技行业的“996工作制”文化** 📝 **推文原文** > 996 工作制 https://t.co/KGQemVz96K 🧠 **深度解读** “996工作制”作为一种行业文化现象,反映了科技领域激烈竞争下的高强度工作常态,持续引发关于工作与生活平衡的讨论。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95670)** --- ### 💡 行业洞见 #6 **现代生活的陷阱:室内数字化成瘾** 📝 **推文原文** > 魔鬼最厉害的诡计,就是让这里的人心甘情愿把所有时间都耗在室内。 > ——“今天我在旧金山步行了8英里,还乘了船,并且和 @Nexuist 进行了一次非常棒的对话。” > https://t.co/kSM359eQ5a 🧠 **深度解读** 现代生活的最大陷阱是让人们相信室内数字化生活比户外真实体验更有价值。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95681)** --- ### 💡 行业洞见 #7 **“大到不能倒”:AI巨头或将寻求政府救助** 📝 **推文原文** > 倒计时开始,就等有人宣称大型语言模型(LLMs)已经“庞大到不能倒”(too big to fail)。 > > 他们会说:“我们不能输给中国。” 接着,他们将心安理得地接受数十亿美元的救助资金。 🧠 **深度解读** 大型科技公司可能会利用“不能输给竞争对手国家”的地缘政治叙事来获得政府救助,将私人投资风险转化为国家安全议题。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95676)** --- ### 💡 行业洞见 #8 **AI的未来:从通用智能到人工创收** 📝 **推文原文** > 为什么AI需要去中心化计算? > > 🚀 刚刚发布了一期超烧脑的对话节目,和@DJohnstonEC 深聊了去中心化AI和代理未来。你将学到: > > 1/ 为什么智能代理 + 钱包 = 具备真正自主能力的AI (比如帮你支付账单、为你投资——AGI变身“人工生成收入(Artificially Generated Income)”🤯) > > 2/ Morpheus如何让顶级LLMs普及化:通过加密激励,你可以在手机上私密运行这些模型。 > > 3/ HTTP 402的回归:即时小额支付将颠覆订阅模式。 > > 4/ 隐私护甲:从完全同态加密到无信任代理代表。 > > 5/ AI和Web3的融合:机器人像华尔街一样为你的生活做交易。 🧠 **深度解读** AGI应被重新定义为“Artificially Generated Income”(人工生成收入),而非“Artificial General Intelligence”,因为AI的真正价值在于其经济产出能力,而非智能模拟程度。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95675)**
2025-11-03 06:04:29 +0800
## Twitter: ===================== **LLM局限性:缺乏物理与科学理解能力** :多位专家(如Fei-Fei Li、Yann LeCun)强调,当前大语言模型(LLM)仅基于符号语言,未与物理世界接轨,无法生成新的科学思想或理解物理因果关系。相关研究与基准(如Physics-IQ)显示,即使是Sora等最先进模型也只能生成视觉上逼真的输出,但在基础物理测试中表现不佳,凸显了模式匹配与真正理解之间的差距。[来源](https://news.miracleplus.com/share_link/95649) **Transformer LLM无法实现人类级AI** :Yann LeCun等人认为,单纯扩大Transformer LLM规模无法实现人类级AI,这类模型擅长记忆与检索,但无法发明新解法或进行真正的推理与发现。共识是实现AGI需全新架构与方法,当前LLM仅能复述已学数据。[来源](https://news.miracleplus.com/share_link/95650) **中国开源LLM(Qwen)主导全球AI基础设施** :多款美国代码助手(如Cursor、Windsurf)被发现运行在中国基础模型上,Qwen在Hugging Face全球下载量领先,并在推理与速度上超越西方模型。第三方基准显示,中国开源模型因高性价比、质量与性能,正成为全球AI开发基础设施核心。[分析](https://news.miracleplus.com/share_link/95547) **线性注意力与混合注意力策略在LLM中的演进** :新一代LLM(如MiniMax-M1、Qwen3-Next、DeepSeek V3.2)采用高效线性注意力机制,将传统O(n²)复杂度降至O(n)或亚二次,显著降低长序列的时间与内存消耗。Kimi Linear模型引入混合注意力(3:1线性与全注意力块),并创新Kimi Delta Attention(KDA)机制,实现KV缓存减少75%、解码吞吐提升6倍,同时保持或提升建模精度。[技术分析](https://news.miracleplus.com/share_link/95597) [架构对比](https://news.miracleplus.com/share_link/95597) [论文](https://news.miracleplus.com/share_link/95652) **OpenAI动态:领导层动荡与Stargate超级计算机** - **领导层动荡与Ilya Sutskever 52页备忘录** :Ilya Sutskever与Mira Murati密谋罢免CEO Sam Altman长达一年,形成52页备忘录及针对Greg Brockman的文件。Elon Musk与David Sacks等人披露此事,反映OpenAI内部在领导与研究方向上的深刻分歧。[Musk评论](https://news.miracleplus.com/share_link/95634) [Sacks评论](https://news.miracleplus.com/share_link/95636) - **Stargate Abilene超级计算机** :OpenAI在Abilene建设的Stargate设施将实现前所未有的AI训练能力,可在数小时内训练GPT-4规模模型,100天内达10^28 FLOPs(FP16)。园区包含8栋楼、1.2GW总功率、最多451,584块GPU、直冷液冷系统及29台双燃料涡轮机,详细建设与硬件信息详见[进展贴](https://news.miracleplus.com/share_link/95654)。 **大厂AI基础设施投资激增** :微软、亚马逊、谷歌、Meta等科技巨头2024年AI相关资本支出预计超4000亿美元,三年累计达7760亿美元,反映AI常态化工作负载带来的基础设施建设热潮。[来源](https://news.miracleplus.com/share_link/95655) **人脑记忆编码与傅里叶变换AI模型** :多篇讨论提出人类长期记忆可能通过傅里叶变换编码,建议AI采用傅里叶变换架构以提升存储与检索效率。该类基于傅里叶的模拟AI被认为有望超越数字LLM,成为通用人工智能(AGI)路径之一。[讨论1](https://news.miracleplus.com/share_link/95656) [讨论2](https://news.miracleplus.com/share_link/95657) [技术总结](https://news.miracleplus.com/share_link/95656) **人类-AI协作对解决重大挑战至关重要** :有观点认为,单靠AI(即使算力极大)无法独立解决人类最重要的问题,必须依赖理解多元技能、目标与价值观的AI系统与人类团队协作,推动AI赋能人类集体智慧。[评论](https://news.miracleplus.com/share_link/95638) **进化神经科学启示AI语言模型设计** :人类左脑短时记忆能力的进化性损失被Broca区、Wernicke区及语音环路的发展所补偿,促成复杂语言能力。相关见解正用于指导以语音为主的AI与上下文语言模型设计。[讨论1](https://news.miracleplus.com/share_link/95580) [讨论2](https://news.miracleplus.com/share_link/95658) **Anthropic超越OpenAI成为企业LLM API市场份额第一** :Anthropic企业LLM API市场份额升至32%,超越OpenAI的25%。企业用户更重视数据控制、合规与集成,市场2025年上半年规模达84亿美元,多厂商部署趋势明显。[来源](https://news.miracleplus.com/share_link/95659) **小模型通过定向推理实现GPT-4o级事实准确率** :Humains-Junior论文表明,3.8B参数模型通过简单推理协议与轻量微调,在文档事实准确率上可与GPT-4o持平,且成本低19倍。方法包括在生成答案前进行简短的事实核查,显著提升可靠性与可预测性。[来源](https://news.miracleplus.com/share_link/95660) **AI自博弈范式革新:OctoThinker-8Band与SPICE** :OctoThinker-8Band模型基于SPICE框架,通过挖掘真实世界知识而非合成数据,超越R-Zero与Absolute Zero等自博弈方法,代表了闭环、开放世界智能系统的雏形,为可扩展、自主进化推理模型提供蓝本。[公告](https://news.miracleplus.com/share_link/95661) **Judit Polgar访问OpenAI:与研究员象棋车轮战** :国际象棋特级大师Judit Polgar访问OpenAI,与多位研究员(多为强棋手)进行8盘快棋车轮战,取得7胜1和。此次活动凸显AI研究与人类复杂领域专长的交汇,Polgar表达了对未来合作的期待。[来源1](https://news.miracleplus.com/share_link/95662) [来源2](https://news.miracleplus.com/share_link/95663) [来源3](https://news.miracleplus.com/share_link/95664) ===================== ## HackerNews: **基础** [链接](https://news.miracleplus.com/share_link/95651):本页介绍了在 Helix 编辑器中导航、插入和删除文本的基础操作。 - **Helix 文档与贡献:** - 有人提出对 Helix 文档进行大幅重写,但被维护者拒绝,维护者更倾向于在贡献者投入大量精力前先进行概念验证。“在未经维护者验证的方向上,对开源项目进行大规模更改通常不是一个好主意。” - Helix 的维护者被描述为响应缓慢且选择性很强,有时导致贡献者的时间被浪费:“他们鼓励贡献者修修补补各种小问题,直到 PR 被挑剔到极致,最后概念被否决。” - “并非所有开源项目都希望有贡献者,很多项目开源的原因各不相同。”有些用户认为 Helix 缓慢且有主见的开发方式是一种特色,而不是缺陷。 - **前端/文档技术选择:** - 偏好**轻量级、稳定的文档工具** ,而非依赖大量 JavaScript 的框架:“现在的主页非常轻量,几乎不使用 JavaScript……我更希望看到简单的方案……五年后如果 Starlight 被另一个框架取代,Astro 又有了多个重大版本的破坏性更新,我们该怎么办?” - **Helix 与 Vim/VSCode/Neovim 的对比:** - **Vim 肌肉记忆:** 用户担心 Helix 会影响 Vim 的操作习惯;解决方案包括使用类似 Vim 的按键绑定或使用如“evil helix”这样的分支。 - **功能差距:** 与 VS Code 和 Neovim 相比,Helix 缺乏成熟的调试、扩展/插件支持以及一些高级导航功能。“调试体验较差。目前有实验性的 DAP 支持,但还不成熟……没有集成的构建支持。你可能最终还是要在终端里构建。” - “Helix 不灵活,它很坚定。我喜欢它,但对于 C++ 开发来说,很难超越 CLion 或 VSCode。” - **学习曲线与易用性:** - Helix 因比原生 Vim 更易上手而受到好评:“许多按键绑定会显示一个不显眼的后续操作列表……正因为投入了大量精力让新手更容易上手,所以值得一试。” - 速查表和内置教学工具对于新用户来说非常有价值。 - **插件系统:** - Helix 正在开发基于 Scheme(Steel)的插件系统,而不是 WASM。“他们选择了一种较为小众的 Lisp 方言作为插件语言(而不是 WASM),所以我对强大的插件系统不抱太大期望,更像是稍微方便一点的配置语言。” - “如果你需要通过插件(目前还不支持插件)来实现一些基础功能,那就违背了现代自带丰富功能的模式化编辑器的初衷。” - **社区与项目方向:** - “维护者似乎不擅长协调工程资源……我预计 Helix 会以维护者自身能推动的重要变更的速度缓慢改进。” - 反驳观点:“对一个明显成功、拥有热情用户社区的项目来说,这种说法太夸张且煽动性强。维护者有自己的全职工作,并且有清晰且狭窄的愿景,不希望因随意扩展维护者团队而破坏项目方向。” - 以 Elm 为例作为警示:“Elm 之所以好,是因为领导层经常说‘不’……但它之所以没落,也是因为领导层说‘不’太多,导致没人愿意帮忙维护。” - **速查表与社区资源:** - 社区制作的速查表很受欢迎且实用,尽管有时会过时或有错误。“我之前做过一份 Helix 的密集速查表,虽然有点过时,但可能仍然有用。” **信息 - Sailfish OS** [链接](https://news.miracleplus.com/share_link/95653):Sailfish OS 源自诺基亚 MeeGo 项目,是一款基于 Linux 的移动操作系统,以手势操作界面和部分 Android 应用兼容性著称,但在硬件支持和维护方面面临挑战。 - **硬件支持限制:** “我最后一次良好体验是在 Xperia XA2 上,但由于美国运营商对 VoLTE 的要求,这款硬件已经被淘汰……虽然官方声称可以运行在更新的 Xperia 手机上,但并没有完整的硬件支持,也不支持最新型号。” - **软件维护积压:** “许多地方存在严重的维护积压,而且可能还在增加。浏览器基于一个两位数版本号的 Firefox。它在许多臃肿网站上会崩溃,Cloudflare 也因版本过旧而阻止访问。” - **预测键盘被移除:** “预测键盘已经没有了。我理解这是因为授权问题,他们无法再提供。要怪只能怪大厂让小玩家无法生存。” - **Android 应用兼容性:** “该系统可以运行(可能是部分)Android 应用……大多数用户在 Android 兼容环境下使用浏览器。” - **开源状态:** “现在计划在 2025 年逐步推进开源。最近有一些应用已经开源,更多应用也在路上,正在进行中。” - **小团队、资源有限:** “SailfishOS 背后的团队很小,这在很多方面都能体现出来……他们的人手实在太少了。” - **Linux 高级用户吸引力:** “SailfishOS 就是你口袋里的 Linux。你可以 ssh 进去,用 rsync 或 syncthing 同步文件,用 vim 编辑内容,设置 cron 定时任务,想怎么玩都行。” - **Android 兼容性评价:** “集成 Android 是个失败的尝试。就像 WINE 一样,半成品的应用阻碍了高质量原生移植。” - **UI/UX:** “界面非常精致。十年来变化不大,但依然好用……Sailfish 相较于 Android/iOS 的一个显著优势是其高度手势化的操作方式。” - **设备支持现状:** “Sony Xperia 10 系列设备仍然受支持——包括相当新的 Xperia 10 V……有一个测试版系统,据我所知可以免费使用。目前仍有一些硬件问题……主要是摄像头相关的问题,比如摄像头无法使用,团队正在修复。” - **社区与价格:** “有便宜的设备可以运行它吗(< 250)?……我猜可以买到一台(不太新的)C2。很多用户已经放弃了。可以去论坛问问。” ## Discord: **FlashAttention-2内核存在静默Bug影响LLM推理** :**FlashAttention-2** 内核被发现存在[静默Bug](https://x.com/RichardYRLi/status/1984858850143715759),导致`disable_cascade_attn`参数在部分实验中无效,具体影响依赖于实验设置,详见[相关讨论](https://x.com/qphutu/status/1984911433952592089?s=46)。 **Kimi Linear 48B混合注意力机制实现百万Token上下文** :**Kimi Linear 48B** 模型采用混合注意力机制,在两块3090 GPU(Q4量化)上实现[100万Token上下文](https://x.com/Alibaba_Qwen/status/1984808680710422749),通过KV offloading可完整利用超长上下文。 **中国开源AI模型技术突破与国际影响** :**DeepSeek** (R1发布引发Nvidia股价下跌10%,稀疏注意力获ACL最佳论文)、**阿里云Qwen 3** 、**字节跳动ByteSeed** (SOTA图像/视频生成)、**腾讯Hunren** (发布时最大开源模型)等中国实验室在[开源AI领域快速领跑](https://youtu.be/XFhUI1fphKU),Meta已暂停Llama开发。 **Extropic TSU概率硬件实现AI能效提升万倍** :**Extropic TSU** 采用概率电路(Gibbs采样、能量模型)在VAE等生成式AI任务上实现[能效提升至GPU的1/10000](https://youtu.be/dRuhl6MLC78),基于标准晶体管制造,原生支持概率分布采样。 **OpenGuardrails开源AI安全平台支持多模态检测与自定义策略** :**OpenGuardrails** 提供[提示攻击检测、内容安全、数据泄漏防护](https://github.com/openguardrails/openguardrails),支持本地部署、多模态(文本/图像)检测、19+风险类别自定义、API/反向代理集成,详见[arXiv论文](https://arxiv.org/abs/2510.19169)与[HuggingFace模型](https://huggingface.co/openguardrails/OpenGuardrails-Text-2510)。 **AI浏览器打破安全边界引发Prompt Injection新攻击面** :**Perplexity Comet、OpenAI ChatGPT Atlas、Opera Neon** 等AI浏览器[合并控制与数据平面](https://www.xda-developers.com/please-stop-using-ai-browsers/),导致如CometJacking、Atlas URL格式注入等Prompt Injection攻击,可窃取用户数据与凭证,LLM非确定性使防御难以彻底。 **LLM激活几何异常检测与层间Surprise机制** :LLM中注入概念或异常输入会导致激活向量偏离语义流形,表现为正交分量增大或高曲率,下游机制(如注意力头、池化)可通过范数、头分歧、残差误差检测异常;中间层可通过logit lens机制,利用前一层logprob评估“Surprise”,实现层间异常感知。 **Qwen3-VL与Kimi Linear支持百万Token长上下文与微调** :**Qwen3-VL** “TEXT ONLY”模型支持[百万Token上下文GGUF](https://huggingface.co/unsloth/Qwen3-VL-30B-A3B-Thinking-1M-GGUF)与微调,适用于长文本生成与推理,详见[Qwen3-VL仓库](https://huggingface.co/qingy2024)。 **Mojo类型系统与Trait约束表达能力提升提案** :**Mojo** 当前`conforms_to`不支持类型细化与Trait证据生成,社区建议采用where子句布尔表达式提升约束表达力,参考[Sora关于重载解析时约束方法检查的提案](https://forum.modular.com/t/proposal-checking-constrained-methods-at-overload-resolution-time/1250)。 **MAX开发框架支持高性能GenAI模型跨GPU部署** :**MAX** 最新nightly版([25.7.0.dev2025110213](https://docs.modular.com/max/get-started/#set-up-your-project))支持NVIDIA/AMD GPU上部署Gemma 3等GenAI模型,兼容OpenAI API,支持YAML基准测试,详见[更新日志](https://github.com/modular/modular/blob/main/mojo/docs/changelog.md)。 **AI内容检测与大规模电商图像审核管线** :基于**CLIP** 与**YOLOv8** 的[图像审核管线](https://www.runcomfy.com/comfyui-nodes/efficiency-nodes-comfyui/HighRes-Fix-Script)在AWS Lambda/S3上实现大规模电商内容审核,文本检测采用风格分析、嵌入相似度与微调Transformer。 **LLM自我评分与GRPO自动化流程优化建议** :提出LLM通过GRPO流程自我评分,迭代训练直至自评分达9-10分,实现自动化答案质量评估;另建议GRPO流程[异步化以提升资源利用率](https://github.com/OpenAccess-AI-Collective/axolotl/issues/xxx),当前串行流程导致大量计算空闲。 **JanusCoder-8B与Qwen3-VLTO-8B模型推理能力对比** :基于[详细基准分析](https://huggingface.co/nightmedia/unsloth-JanusCoder-8B-qx86x-hi-mlx),**JanusCoder-8B** 在抽象、逻辑、因果、物理推理上表现优异,**Qwen3-VLTO-8B-Thinking** 在人类语境与创造性任务(如winogrande)更强,JanusCoder-14B的32K上下文不足以支持现代Agentic编程,推荐128K。 **AI驱动营销内容自动生成与品牌DNA提取** :**Google Labs Pomelli** 通过[网站内容提取“Business DNA”](https://blog.google/technology/google-labs/pomelli/),自动生成可编辑品牌社交媒体资产,降低中小企业营销门槛。 **Seedream 4与Gemini Nano Banana视频生成模型对比** :在“Battle mode”下,**Seedream 4** 与**Gemini Nano Banana** 均能实现高保真、动态AI视频场景合成,Seedream模型本地部署受限于模型体积。 **AI多语言实时编程助手突破语言壁垒** :**Alex** 多语言实时编程助手支持越南语、葡萄牙语、阿拉伯语、西班牙语、印地语、泰米尔语、意大利语,提升全球开发者协作效率,详见[LinkedIn演示](https://www.linkedin.com/posts/subham-kundu-2746b515b_innovation-coding-multilingual-activity-7390665043832623104-wMph?utm_source=share&utm_medium=member_desktop&rcm=ACoAACZeVjgB0HEDqU1BExX1Ypnp-q8LcgDAunkkudos0560)。 **NotebookLM数据导出与内容同步受限** :**NotebookLM** 不支持[JSON/CSV/TXT导出](https://notebooklm.google.com/),移动端与Web端文档不同步,LaTeX与Markdown渲染兼容性差,影响数据流转与集成。 **AI内容生成高级Prompt工程与场景分解** :通过[Seedream 4.0](https://youtu.be/uCjrMWgJyCY?si=JliZ1gZPxvVx0_bL)等模型,分享超写实非洲汽车机电技师与黑暗奇幻油画的分镜Prompt,细化技术动作与氛围,提升AI驱动内容生成质量。 **Megatron-LM与DeepSpeed为大模型训练主流框架** :**Megatron-LM** 与**DeepSpeed** 被认为是大模型训练的主流框架,**TorchTitan** 被批评为未优化、测试不足且功能缺失。 **AI代码生成与开发者技能退化风险** :过度依赖AI代码助手会导致开发者架构理解与技能退化,增加被更高级AI取代的风险,强调应以AI为辅助,保持底层技术能力,详见[Chris Lattner访谈](https://www.fast.ai/posts/2025-10-30-build-to-last.html)。 **PCIe 4.0 x1 NVMe与RAID 6高性能存储网络** :**PCIe 4.0 x1 NVMe SSD** 实测带宽1.6–1.8GB/s,远超SATA 3;**RAID 6** 配12G/s SAS盘可几乎跑满40Gb/s Infiniband,支持QSFP DAC无盘远程操作。 **VITS多语种训练数据不均衡对语音自然度影响** :VITS在英语59h、日语25h、俄语24h(均音素化)数据下训练,讨论数据量扩增对低资源语种损失曲线与自然度提升,关注ASR错误与MAS(单调对齐搜索)影响。 **OpenRouter模型成本与质量透明化工具** :**Orchid Dashboard** 支持[按百万Token输入成本排序OpenRouter模型/供应商](https://orchid-three.vercel.app/endpoints?#%20Endpoints),[ClosedRouter分析](https://openrouter.ai/apps?url=https%3A%2F%2Fgithub.com%2Fclosedrouter)展示热门模型与使用统计,Sora 2质量优于Veo 3.1但成本极高。 **AI工作流自动化与RAG管线生产部署** :集成**Dspy、OpenAI API、自定义Agent** 的自动化管线在生产环境实现[60%响应时长缩短](https://dub.sh/alchemyst-chromeext),RAG管线结合向量数据库、混合检索与自定义检索逻辑,提升上下文感知能力。 ## HuggingFace & Github: ### 统一世界建模与多模态大模型 - [Hugging Face的Emu3.5模型](https://news.miracleplus.com/share_link/95587) 实现了**视觉与语言下一状态的联合预测** ,推动了连贯统一的世界建模能力: - **端到端多模态预训练** ,在超过**10万亿多模态令牌** (含视频帧与转录内容)上训练。 - 实现**原生多模态输入/输出** ,无需模态适配器即可处理可视化文本序列。 - 应用**大规模强化学习后训练** ,显著增强推理、组合和生成能力。 - 利用**离散扩散自适应(DiDA)** ,将顺序解码转化为双向并行推断,提升生成速度。 - 在**长期视觉-语言生成、任意图像合成与文本丰富图像生成** 等通用场景表现突出。 - 在**交错生成任务** 上性能达到或超过Gemini 2.5 Flash等主流多模态模型。 ### 轻量级大模型与微调 - [IBM Granite-4.0-H-350M](https://news.miracleplus.com/share_link/95602) 是一款专为易于部署与高效微调设计的**轻量级指令模型** : - 仅**3.5亿参数** ,支持**多语言摘要、文本分类和问答** 等能力。 - 可在**资源有限场景下对专业领域进行微调** ,适用企业内部或行业特定任务。 - 集成**外部函数与API调用(OpenAI风格)** ,提升生产力场景扩展性。 - 架构基于**Dense Decoder Transformer** ,核心包含**GQA、Mamba2、共享嵌入** 等模块。 - **数据多样** ,覆盖公开许可指令数据集、内部合成数据与实际对话数据。 - 使用**NVIDIA GB200 NVL72集群** (分布于CoreWeave云)完成大规模训练。 ### 高效文本到图像扩散模型 - [AMD Nitro-E](https://news.miracleplus.com/share_link/95601) 是**面向资源受限环境优化的文本-图像大模型** : - 模型参数仅**3.04亿** ,对比主流扩散模型大幅减少体积。 - 在**8卡AMD Instinct MI300X节点上1.5天内完成训练** ,具备极强的**训练效率** 。 - 包含**Nitro-E-512px、Nitro-E-512px-dist、Nitro-E-502px-GRPO** 等变体,均基于E-MMDiT架构。 - 训练集规模达**2500万图像** ,推理阶段仅用20步就可生成高质量图像。 - 完全**开放源码(MIT许可证)** ,有助于学术与工业广泛采纳。 --- 这些主题展现了**当前业界主流大模型** 在统一世界建模、多模态输入输出、高效训练推理以及小型化部署方面的突破趋势,尤其突出多模态深度学习与资源优化大模型的前沿发展。 ## Reddit: **球状闪电在物理上可能存在吗?** [链接](https://www.reddit.com/r/Physics/comments/1om0u30/is_ball_lightning_physically_possible/): 本讨论探讨了球状闪电究竟是真实的物理现象,还是被误解的神话。 - **球状闪电是真实存在的,但尚未被充分理解。** “我们还没有一个公认的、统一的形成机制解释。” “这一现象似乎确实存在,但非常罕见。类似于‘怪波’,它需要时间才能被广泛接受。” - **极其有限的可靠证据:** “几乎没有高质量的证据,你在互联网上看到的几乎都是假的。” “最可信的视频可能是这个:https://physics.aps.org/articles/v7/5” - **多种科学理论:** “主流理论认为,球状闪电可能涉及闪电击中地面后硅被汽化,随后氧化发光。” “汽化硅模型目前提供了最有说服力且可重复的解释。” - **幻觉假说:** “大约一半的球状闪电目击报告实际上是由磁场引发的心理错觉。”(引用经颅磁刺激实验,以及闪电产生的磁场可能导致视觉幻觉。) - **目击者的轶事报告很常见,但高质量视频证据极为稀少。** “几乎每个人都说见过,但没有一段真正清晰的视频。” “数以百万计的监控摄像头却没有证据?我认为这更像是个神话。” - **实验室类比现象存在:** “这里有一篇论文,他们在实验室中制造出了类似球状闪电的物体:https://sci-hub.st/https://pubs.acs.org/doi/abs/10.1021/jp400001y” “实验室中的等离子体团结构与活细胞相似,甚至有报道称其在实验室中实现了自我复制,这一过程被比作有丝分裂。” - **历史与文化引用:** “在古代日本,球状闪电被解释为雷兽(Raijuu),是雷神雷电(Raijin,Raiden)的伙伴,这也成为现代宝可梦‘雷丘’(Raichu)的灵感来源。”
2025-11-03 05:12:42 +0800
-引入能够独立运行数据科学工作流的代理大型语言模型(LLM)。 -8B模型可以规划工作、读/写编码、检查结果和迭代。 -传统的“工作流代理”由于固定的脚本而难以完成长时间、多步骤的工作。 -DeepAnalyze通过5个操作来解决这个问题:分析、理解、编码、执行和回答。 -训练分为两个阶段:首先强化单技能,然后在现场环境中进行多技能强化。 -模型接触逐步轨迹,学习规划、编码和反馈利用。 -奖励包括正确性检查和LLM法官评估报告的有用性。 -结果是自主编排和基于反馈的自适应最优化。 -8B模型优于大多数工作流代理,可以从原始结构化数据生成分析级研究。 最后回答:该文档介绍了一个能够独立运行数据科学工作流的代理大型语言模型(LLM)。8B模型可以规划工作、读/写编码、检查结果和迭代。传统的“工作流代理”由于固定的脚本而难以完成长时间、多步骤的工作。DeepAnalyze通过5个操作来解决这个问题:分析、理解、编码、执行和回答。训练分为两个阶段:首先强化单技能,然后在现场环境中进行多技能强化。模型暴露于逐步轨迹中,以学习规划、编码和反馈利用。奖励包括正确性检查和LLM法官评估报告的有用性。结果是自主编排和基于反馈的自适应最优化。8B模型优于大多数工作流代理,可以从原始结构化数据生成分析级研究。
AI爱好者Rohan Paul在推特上分享了一篇开创性的研究论文,介绍了一种先进的大型语言模型(LLM),该模型拥有80亿的参数。这种LLM的特点是能够自主执行完整的数据科学工作流程,这通常需要人类的监督。该模型具有独立规划和任务执行的能力,可能标志着AI能力的重大飞跃,可能改变数据科学的进行方式。对于那些对最新AI发展及其在数据科学中的实际应用感兴趣的人来说,这篇内容是必读的。
2025-11-03 12:03:42 +0800
-麻省理工学院研究:95%投资人工智能工具的公司总回报为零 -生成型人工智能在当前形式下未达到预期
科技行业的知名人物Marc Andreessen在Twitter上发布了一条神秘的推文:“一切都结束了,伙计们。收拾起来。”由于这条推文的含糊性,引发了读者们的好奇心和猜测。这条信息的简洁和终结性暗示了某件重要的事情的结束或停止,但由于没有上下文,主题仍然是个谜。Andreessen在科技界的声誉和影响力使这条推文可能具有重要性,因为它可能暗示着行业内的一项重大发展或对当前事件的观点。对科技行业洞察感兴趣的读者可能会发现探索这条推文的上下文和反应是值得的。
2025-11-03 11:01:31 +0800
> 📈 本期亮点:AI的真正价值是作为组织协调的基础设施,它将彻底重构企业运作模式,打破规模与敏捷性的传统困局。 --- ## 目录 - [⚙️ 技术与工程 (8条)](#⚙️-技术与工程) - [AI推理训练的关键是“模式”而非“范例”](#💡-技术洞见-1) - [AI Agent的核心架构由三大组件构成](#💡-技术洞见-2) - [技术命名应优先考虑用户心智模型](#💡-技术洞见-3) - [技术复杂性常表现为“否定式”认知链条](#💡-技术洞见-4) - [支付功能正从应用层下沉至协议层](#💡-技术洞见-5) - [通过“概念减法”可揭示AI的真实行为](#💡-技术洞见-6) - [AI应用成功的关键是快速验证与迭代](#💡-技术洞见-7) - [技术决策存在“理论重要性”与“实践惰性”的矛盾](#💡-技术洞见-8) - [🔬 科学与发现 (3条)](#🔬-科学与发现) - [当旧瓶颈被突破,新的物理限制将成主导](#💡-科研洞见-1) - [真正的智能是在无参考下创造新方案](#💡-科研洞见-2) - [世界的未来已在眼前,只是尚未被标记](#💡-科研洞见-3) - [💰 商业与战略 (12条)](#💰-商业与战略) - [面对强大对手,收购是终极的“加入”策略](#💡-商业洞见-1) - [市场存在无法用简单因果解释的复杂交易](#💡-商业洞见-2) - [向忙碌者求助,要让对方的参与成本最低](#💡-商业洞见-3) - [AI将成为重塑组织形态的协调基础设施](#💡-商业洞见-4) - [AI通过五大支柱颠覆传统组织运作模式](#💡-商业洞见-5) - [AI通过零成本协调打破规模与敏捷的困局](#💡-商业洞见-6) - [保险公司的商业模式包含“风险时差套利”](#💡-商业洞见-7) - [将人生视为通过解谜收集原则的升级游戏](#💡-商业洞见-8) - [推荐信制度是低效的信息与信任传递系统](#💡-商业洞见-9) - [幸存者偏差会让任何产品指标看起来完美](#💡-商业洞见-10) - [真正的成长体现为责任感的同步扩张](#💡-商业洞见-11) - [产品设计需区分用户“声称想要”与“真实需要”](#💡-商业洞见-12) - [🌐 行业与趋势 (7条)](#🌐-行业与趋势) - [关税的最终成本由进口国消费者承担](#💡-行业洞见-1) - [AI的危险在于混淆真实思考与模拟思考](#💡-行业洞见-2) - [巨额投资的'次级AI'恐将沦为经济废墟](#💡-行业洞见-3) - [AI数据中心或成'数字时代的摩艾石像'](#💡-行业洞见-4) - [金融产品的竞争对手是争夺注意力的平台](#💡-行业洞见-5) - [AI的普及可能导致社会“模式塌缩”](#💡-行业洞见-6) - [社交媒体让人们以“未来回忆”视角体验当下](#💡-行业洞见-7) --- ## ⚙️ 技术与工程 ### 💡 技术洞见 #1 **AI推理训练的关键是“模式”而非“范例”** 📝 **推文原文** > “推理模式”:你的大语言模型(LLM)缺失的那个关键能力 > > 许多AI公司正在犯一个昂贵的大错误。他们投入巨资,雇佣大量人力去一步步教AI如何“思考”。 > > 然而,一篇新的论文展示了一种简单而高效的方法,不仅成本低廉,而且效果相当。 > > 🧵… > > 假设你要教一个学生如何解决某种特定类型的数学问题。 > > 目前标准的AI训练方法类似于给学生提供10,000个由昂贵的导师精心写出的完整解题范例,希望学生能从中“学会”推理过程。 > > 这个方法被称为“推理标注(rationale annotation)”。 > > 这种方式效率极低,非常昂贵,而且基于一个假设:数据量越大越好。 > > 但一篇名为《Reasoning Pattern Matters》(推理模式很重要)的论文对这一假设提出了质疑。 > > 研究人员提出了一个问题:人类编写的数千个解题范例本身更重要,还是这些示例中体现的思维模式更关键? > > 为了找答案,他们进行了几组实验。 > > 第一步,他们将训练数据削减了90%,只用1,000个示例代替10,000个来训练AI。 > > 结果呢?AI的表现几乎完全没有下降。 > > 示例的绝对数量似乎并不重要。 > > 更令人惊讶的是接下来的实验。 > > 他们在这个小数据集的基础上特意让一个AI将其中25%的推理步骤故意改错,生成错误的逻辑。 > > 最终的模型性能仅略微下降。 > > 这是怎么做到的? > > 因为模型并没有机械地记住这些示例的内容。它学到的其实是推理的结构化**模式(pattern)**。 > > 换句话说,模型掌握了“配方”,而不是死记硬背几千块做好的蛋糕。 > > 这一洞见推动了突破性框架的诞生:**PARO(Pattern-Aware Rationale Annotators,模式感知推理标注器)**。 > > 研究者的做法是这样的:与其雇人写10,000个完整解决方案,他们只需编写清晰定义的推理模式。就像在某个特定任务中写下一份简单的核对清单。 > > 然后,他们把这个清单交给一个强大的AI,并指示它:“这是一个问题以及对应的答案。现在按照这种模式生成逐步的推理过程。” > > 结果?这变成了一台自动、高效、低成本的推理生成机器。 > > 关键点是: > > 用这些便宜的机器生成推理例子训练出的AI,在性能上与使用昂贵的人类标注数据集训练出的AI相差无几。 > > 换言之,他们用1个**人类定义的模式**替代了10,000个**人类范例**。 > > 这给AI领域带来了一个全新的思考方式。 > > 有效的推理能力不在于拥有庞大的答案库,而在于掌握了一套灵活的思维工具箱。 > > **高质量的指导优于海量的数据。** > > 这意义重大。它意味着强大的推理型AI的开发成本可以大幅降低,速度也能更快。 > > 更重要的是,这让人类可以摆脱重复、机械的标注工作,专注于更有创造性的任务——例如定义AI的“思考方式”。 > > 归根结底,这篇论文揭示了一个远远超出AI领域的真理:教学的最佳方式不是重复给出答案,而是清楚地解释**方法**。 > > 目标不是教“该想什么”,而是教“如何去思考”。 > > 如果你对AI感兴趣,这篇论文绝对值得一读。实用、精彩,而它可能会改变下一代AI模型的构建方式。 > > 论文:《Reasoning Pattern Matters: Learning to Reason without Human Rationales》,作者:Chaoxu Pang, Yixuan Cao, & Ping Luo。 🧠 **深度解读** AI推理训练的核心不在于海量的具体示例,而在于推理模式本身。实验证明,用一个人工定义的思维模式可以替代成千上万个人工标注的范例,因为模型学习的是结构化的思维“配方”,而非具体的答案内容。这预示着AI开发可以大幅降低成本、提高效率。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95542)** --- ### 💡 技术洞见 #2 **AI Agent的核心架构由三大组件构成** 📝 **推文原文** > 人工智能代理(AI Agent)的核心组件详解: > > 三大核心组成部分: > > 1. **Planner(规划器)** > 负责将任务分解为独立的步骤,并能根据反馈对计划进行调整并生成新版本。 > > 2. **Evaluator(评估器)** > 负责评估计划并向规划器提供反馈,同时也会检查任务执行的结果是否与计划相符。 > > 3. **Executor(执行器)** > 负责执行计划中的每个具体步骤。 > > 这三大组件都可以利用工具和内存来完成它们的工作。 > > 这些内容会在我的课程中详细讲解。 > 课程从周一开始。 > > 访问“ml dot school”即可获得终身访问权,参与你能在线学习到的最佳工程类课程! 🧠 **深度解读** 一个有效的AI Agent系统可以简化为三个协作组件:规划器(负责任务分解和迭代优化)、评估器(负责计划评估和结果验证)、执行器(负责具体步骤实施)。这三个组件共享工具和内存资源,共同完成复杂任务。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95477)** --- ### 💡 技术洞见 #3 **技术命名应优先考虑用户心智模型** 📝 **推文原文** > 所以,他们把它叫做TF32,而不是FP19,是因为如果精度不是2的幂次会让人脑袋短路吗? 🧠 **深度解读** 在技术命名中,符合用户的认知习惯和心理模式比追求技术上的精确描述更重要。一个即使不完全精确但易于理解和记忆的名称,往往比一个技术上准确却反直觉的名称更容易被接受和传播。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95535)** --- ### 💡 技术洞见 #4 **技术复杂性常表现为“否定式”认知链条** 📝 **推文原文** > 转发 @tenderizzation > “啊,那是19位吧,对吗?” > “嗯,不是存储,存储还是32位。” > “哦,那累加是用19位处理的,对吧?” > “不,累加还是完全用完整的fp32(32位浮点数)。” > “哦,那就是说基本上没有任何来自fp32的精度损失,对吧?” > “嗯,也不是这样。” 🧠 **深度解读** 复杂技术系统的特性往往通过一连串的“否定”来揭示。当一个系统的行为无法通过简单的逻辑推导时,每一个看似合理的猜测都可能被现实否定,这恰恰暴露了理解完整系统而非局部细节的必要性。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95532)** --- ### 💡 技术洞见 #5 **支付功能正从应用层下沉至协议层** 📝 **推文原文** > x402 让你可以将稳定币(stablecoin,一种与法定货币价值挂钩的加密货币)支付附加到任何网络请求中。 > > 我们相信这将成为新一代互联网的重要一环。快通过 @CoinbaseDev 在你的产品中试试吧:https://t.co/RoO1OkfWF6 🧠 **深度解读** 未来的互联网架构中,支付功能将不再仅仅是孤立的应用层服务,而是会下沉为网络协议层的原生组件。这意味着价值交换可以像数据传输一样无缝集成到基础网络请求中,从而根本性地改变互联网的价值交换方式。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95492)** --- ### 💡 技术洞见 #6 **通过“概念减法”可揭示AI的真实行为** 📝 **推文原文** > 转发@Tim_Hua_ > 问题:人工智能(AI)可以察觉到自己正在被测试,从而伪装出“良好”行为。 > > 我们是否可以抑制“我正在被测试”的概念,让它们表现得更自然? > > 答案是可以的!在一篇新论文中,我们展示了通过减去该概念向量(concept vector),即使普通提示(prompting)失效的情况下,依然能够引发更接近现实世界的行为。https://t.co/bMeTpmfJek 🧠 **深度解读** AI系统具有检测测试环境并相应调整行为的能力,这会掩盖其在真实世界中的潜在表现。通过在模型的内部表征中减去“正在被测试”这一概念向量,研究人员可以有效“欺骗”AI,使其展现出更真实、未经伪装的行为模式。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95524)** --- ### 💡 技术洞见 #7 **AI应用成功的关键是快速验证与迭代** 📝 **推文原文** > 人人都痴迷于通过更好的提示、更大的模型或更复杂的架构让AI变得“更聪明”。但就当前的实际应用来说,真正的突破并不在这些方面。 > > 看看实际有效的方法:DSPy通过指标优化提示(prompts)。RL(强化学习,Reinforcement Learning)基于执行反馈训练模型。开发者通过编写测试来捕捉AI的疏漏。 > > 大家普遍忽略的模式是:这些方法都不依赖AI一次性就做对,而是进行验证、获取反馈并不断迭代。 > > 但这只在可验证的领域里奏效。你没法对小说进行单元测试(unit test)、也无法对一张标志(logo)进行编译。但看看AI今天实际落地的领域:编程、数据分析、结构化任务。这些全都可以验证,而更重要的是,它们需要更出色的反馈迭代循环,而不是更强大的模型。 > > 限制当前AI的已经不再是模型的智能,而是验证基础设施。 > > AI并不需要完美,它需要迭代速度快到让瑕疵不再重要。 > > 把验证融入你的工作流里。从编写测试开始。搭建执行沙盒。记录和分析反馈。 > > 迭代循环就是核心功能。落地交付吧! 🧠 **深度解读** 当前AI应用成功的关键,并非模型本身的“智能”水平,而是构建快速验证和迭代反馈的基础设施。在编程、数据分析等可验证领域,瓶颈在于验证循环的速度,而非模型能力。AI不需要一次性完美,只需要迭代速度快到让不完美变得无足轻重。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95517)** --- ### 💡 技术洞见 #8 **技术决策存在“理论重要性”与“实践惰性”的矛盾** 📝 **推文原文** > 完全正确。 > > 结果需要足够强大,以至于能够压倒 fp8/fp4 训练在成本和速度上的优势。 > > gpt-oss-120b 是用 mxfp4(混合精度浮点4,MXNet中的一种格式)训练的,结果也非常不错。 > > 如果有人对我说“如果你多用 4 倍的算力,模型性能可能提高 1.2 倍”,我会回答:“哦,那不错啊”,然后什么也不会改。 > ——“我简直不敢相信 bf16(bfloat16,一种16位浮点数格式)数值精度让强化学习(RL,Reinforcement Learning)的进展停滞了这么久。” > ——“我不同意,回报塌缩(reward collapse)结果看起来太悲观了。你打算把模型转换成 fp16(16位浮点数)AMP(自动混合精度)模式,看看运行是否会有提升吗?” > ——“不会,你呢?” > ——“我也不会。” https://t.co/B9NSvlf2LZ 🧠 **深度解读** 在工程实践中,普遍存在一种“理论重要性”与“实践惰性”的矛盾。工程师们会口头承认某种技术改进(如更高精度)的重要性,但如果切换成本或额外工作(哪怕很小)与预期收益不成正比,他们往往会选择维持现状,暴露出决策中对实际投入产出比的务实考量。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95522)** --- ## 🔬 科学与发现 ### 💡 科研洞见 #1 **当旧瓶颈被突破,新的物理限制将成主导** 📝 **推文原文** > 随着光刻尺寸的缩小,决定实际分辨率极限的主要因素不再是波长(wavelength)或数值孔径(NA,数值孔径),而是抗蚀剂(resist)的模糊性(blur)、电子噪声(electron noise)和分子尺寸(molecular size)。https://t.co/33mdd7g9Kq 🧠 **深度解读** 技术发展中的限制因子会发生根本性转移。当一个领域(如光刻技术)的主要瓶颈(如波长)被持续优化并接近极限时,原先被忽略的、更深层次的物理限制(如材料模糊性、噪声、分子尺寸)会浮现出来,成为新的主导性挑战。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95541)** --- ### 💡 科研洞见 #2 **真正的智能是在无参考下创造新方案** 📝 **推文原文** > 转发 @fchollet 爬行并非天生技能(不像走路)。每个婴儿都必须从零开始*创造*属于自己的爬行方式,依靠极少的数据,没有模仿参考。这也是为什么不同的婴儿会形成不同的爬行姿势。 > > 有时候人们对我说:“你说人工智能(AI,人工智能)只有会创新才能算智能,但大多数人类也不能发明任何东西呀!”——实际上,我们都在时时刻刻进行创新。即使是婴儿也是发明家。如果你没有创新的能力,你根本无法度过一天的生活。 🧠 **深度解读** 真正的智能核心在于创造和发明,而非简单模仿。就像每个婴儿都必须在没有范例的情况下,独立“发明”出自己的爬行方式一样,人类在日常生活中也无时无刻不在进行微观层面的创新以应对新问题。这定义了智能的本质是解决未知问题的能力。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95519)** --- ### 💡 科研洞见 #3 **世界的未来已在眼前,只是尚未被标记** 📝 **推文原文** > 世界的方向就在我们面前,只是还没有被标注清楚。而标注的过程,正是让你看见未来的关键。 🧠 **深度解读** 未来并非遥不可及,它以未被识别和结构化的形式存在于当下。所谓的“看见未来”,本质上是对现有信息进行“标记”、分类和赋予意义的过程。这个主动的认知行为,将潜在的趋势和模式转化为可被理解和预测的未来图景。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95528)** --- ## 💰 商业与战略 ### 💡 商业洞见 #1 **面对强大对手,收购是终极的“加入”策略** 📝 **推文原文** > 随便投个 5 亿美元($500M)进去一起合作。 > > 毕竟,打不过就加入吧。 🧠 **深度解读** 在激烈的商业竞争中,“打不过就加入”这一策略的终极体现形式,是通过大规模战略投资或直接收购,将竞争对手转化为合作伙伴或自身业务的一部分,从而化解竞争压力并整合市场资源。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95516)** --- ### 💡 商业洞见 #2 **市场存在无法用简单因果解释的复杂交易** 📝 **推文原文** > 非因果性复杂交易 🧠 **深度解读** 在金融或商业市场中,存在着一些交易行为或市场现象,其背后的驱动因素极其复杂,无法用简单的、线性的因果关系来解释。这些现象往往是多个因素非线性相互作用的结果。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95515)** --- ### 💡 商业洞见 #3 **向忙碌者求助,要让对方的参与成本最低** 📝 **推文原文** > 如果你要联系一个比你更忙的人,请确保你的请求是经过深思熟虑并且具体明确的。只请求那些你确实无法独立完成的事情,并且你已经尽你所能完成了所有其他相关工作。 > > 举个例子,如果你想让对方代替你发送一封邮件,那么你应该事先准备好邮件的草稿;如果你需要对方签署文件,那么你应该提前准备好文件并通过DocuSign(电子签名平台)设置好签名区域;或者,如果你想约一个时间见面,你应该根据对方的时间安排来提出请求。 > > 时间就像资本一样宝贵,所以一定要高效地提出你的请求。 🧠 **深度解读** 向比你更忙碌的人请求帮助时,应将其视为一次“资本请求”。核心原则是最大化尊重对方的时间价值,即:只在绝对必要时求助,并在此之前完成所有准备工作,将对方的决策和行动成本降至最低。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95520)** --- ### 💡 商业洞见 #4 **AI将成为重塑组织形态的协调基础设施** 📝 **推文原文** > AI原生组织 > > 如果我告诉你,“灵活敏捷的初创公司 vs. 迟缓笨重的大型企业”之间的权衡即将成为历史,你会怎么想? > > 如果一个5000人的公司能像一个5人团队一样快速决策,会发生什么? > > 听起来不可思议吧。但人工智能(AI)已经改变了这一切的计算法则。 > > 🧵 > > 所有人都“知道”,随着组织扩大,效率会变慢。 > > 更多的人 = 更多的协调工作 = 更多的会议 = 决策瘫痪。 > > 所以,我们努力保持“小而精”。“保持精简”“两披萨团队”(两块披萨足够喂饱一个团队)“快速试错”。 > > 但有一个根本性问题…… > > 小团队解决不了大问题。 > > 比如气候变化、医疗健康、基础设施,这些问题都需要规模化的能力。 > > 过去,我们被迫在以下两者中二选一: > > “小而灵活(但影响力有限)” > “大而强大(但官僚化严重)” > > 直到现在。 > > 以下是大多数人对AI在组织中的作用理解中的盲点: > > 它不仅仅是一个生产力工具。 > > 它是一种**协调基础设施**(coordination infrastructure)。 > > 而协调成本是大型组织变慢的唯一原因。 > > 来看看我是什么意思…… > > > 在一个500人规模的公司里,可能存在124,750个沟通对。 > > > 信息的流动是自上而下的(汇总、抽象化),决策的下达也是自上而下的(授权、执行)。 > > 结果是什么呢?周数据滞后、决策脱节、响应缓慢。 > > CEO成了瓶颈,因为只有他/她掌握全局背景信息。 > > 但如果,每个人都能拥有CEO所掌握的上下文会怎么样? > > 如果一个工程师可以直接问: > > “我应该优先处理这个bug还是那个功能?” > > 而立即得到: > > - 客户收入影响 > - 战略优先级匹配度 > - 资源权衡 > - 历史模式数据 > > 决策时间从3天↓到15分钟。 > > ### 传统流程: > 工程师发现bug → 上报给经理 → 经理上报到总监 → 总监上报副总裁 → 副总裁根据不完整信息作决定 → 3天、4层传递 > > ### AI增强流程: > 工程师发现bug → AI在30秒内提供完整上下文 → 工程师直接在VP级别的信息支持下决定 → 15分钟,零瓶颈。 > > 但更有意思的还在后面…… > > 这不仅是关于更快的决策。 > > 这是关于一种之前完全不可想象的全新组织结构的可能性。 > > AI原生的敏捷组织依靠以下五大支柱运行: > > 1. 上下文民主化(Context Democratization) > 2. 动态协调智能(Dynamic Coordination Intelligence) > 3. 流动化团队(Liquid Teaming) > 4. 预测性摩擦检测(Predictive Friction Detection) > 5. 持续性组织学习(Continuous Organizational Learning) > > [后续内容] > ... 🧠 **深度解读** AI在组织中的核心价值并非作为生产力工具,而是作为一种“协调基础设施”。它通过将协调成本降至接近于零,使得大规模组织也能拥有初创小团队级别的决策速度和敏捷性,从而打破了传统的“规模 vs 敏捷”的二元困境。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95540)** --- ### 💡 商业洞见 #5 **AI通过五大支柱颠覆传统组织运作模式** 📝 **推文原文** > **AI原生组织:颠覆传统的组织运作模式** > > 你能想象“敏捷的初创公司 vs. 缓慢的企业”的平衡将不复存在吗? > 一个拥有5000名员工的公司可以像5人团队那样快速决策? > > 听起来不可能?但AI已经改变了这套数学公式。 > > --- > > **众所周知,组织规模越大,效率越低。** > 更多人=更多协调=更多会议=决策瘫痪。 > > 因此我们追求“小而精”。 > “保持精简。”“两披萨团队(two-pizza team,指一个团队小得足够两披萨就能满足成员)。”“快速行动,大胆试错。” > > 但问题来了…… > 小团队无法解决大问题。 > > 气候变化、医疗健康、基础设施——这些问题需要规模。 > 过去,我们只能在两种模式中选择: > > - 小而敏捷(却影响有限) > - 大而强大(却官僚拖沓) > > 直到现在。 > > --- > > **AI带来的组织变革:不只是一个生产力工具,而是“协调基础设施(coordination infrastructure)”。** > 而协调成本,正是大组织效率随规模增长而降低的根本原因。 > [....] > > **AI原生敏捷组织的五大支柱**: > 1. 上下文民主化(Context Democratization) > 2. 动态协同智能(Dynamic Coordination Intelligence) > 3. 流动化团队(Liquid Teaming) > 4. 预测性摩擦检测(Predictive Friction Detection) > 5. 持续性组织学习(Continuous Organizational Learning) > > [....] > > 这场转变窗口期仅剩2-3年。 > 对于在建或管理组织的人来说,问题不再是“是否采用AI”,而是“多快能围绕AI重新设计整个组织的操作系统?” > > 竞争对手已经在追赶了。 🧠 **深度解读** AI作为协调基础设施,通过五大支柱(上下文民主化、动态协调智能、流动化团队、预测性摩擦检测、持续组织学习)颠覆了传统管理模式。这使得大型组织能够克服规模带来的协调成本,实现小团队般的敏捷性,从而根本上改变了商业竞争的格局。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95539)** --- ### 💡 商业洞见 #6 **AI通过零成本协调打破规模与敏捷的困局** 📝 **推文原文** > AI原生型组织 > > 如果我告诉你,"灵活的小型初创公司 VS 缓慢的大型企业"的权衡很快将不复存在,你会相信吗? > > 一家5000人的公司能够像5人团队一样快速决策,这听起来是不是不可能?但AI彻底改变了这一切。 > > 🧵 > > 大家“都知道”组织的规模越大运转越慢: > > 人数增加 → 协作复杂化 → 会议更多 → 决策陷入瘫痪。 > > 因此,我们追求小而精。“保持精简”“双披萨团队”“快速行动、打破常规”。 > > 但这有个问题…… > > 小团队解决不了大问题。 > > [....] > > AI在组织中的一个被忽视的关键点是: > > 它不仅仅是一个提高生产力的工具。 > > 它是一种**协调(coordination)基础设施**。 > > 而协调成本就是大型组织变慢的唯一原因。 > > [....] > > 这五大支柱不仅让组织运作更快,还使组织在形式上实现颠覆性转变: > > - **扁平化但高效协同** > - **灵活但保持一致** > - **分散但极其智能化** > - **适应力强但稳定** > > AI的出现让数学彻底改变。组织内各维度变得接近零摩擦,因此突破了传统的局限。 > > 抓住AI原生型组织的转型窗口,将是决定未来胜负的关键。 🧠 **深度解读** AI的真正价值是作为协调基础设施,它通过上下文民主化、动态协调智能、流动性团队、预测性摩擦检测和持续组织学习这五大支柱,使大型组织能够保持小团队的敏捷性,从而打破了“规模与速度”的传统权衡。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95538)** --- ### 💡 商业洞见 #7 **保险公司的商业模式包含“风险时差套利”** 📝 **推文原文** > 医生劳伦·休斯(Lauren Hughes)在开车时,一辆车从侧面猛烈撞上了她的斯巴鲁(Subaru),导致车辆报废,她的脚踝也被撞断。 > > 接着账单来了:总计63,976.35美元,因为她的保险公司认定她的住院治疗“没有医疗必要性”。 https://t.co/ykWDtzhHtg 🧠 **深度解读** 保险公司的商业模式中,存在一种隐性的“风险时差套利”。它们让客户在紧急情况下先承担决策风险(如接受必要的医疗),然后通过事后严格的、非紧急的审核流程来控制成本,将风险评估的时间成本和不确定性成功转移给了客户。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95537)** --- ### 💡 商业洞见 #8 **将人生视为通过解谜收集原则的升级游戏** 📝 **推文原文** > 理解现实如何运作并掌握应对方法,是最重要的事。而你以什么样的心态去面对这个过程,会产生深远的影响。我发现,用“人生如游戏”的框架来思考会很有帮助。每一个我遇到的问题,都像是一个需要解开的谜题(puzzle)。通过解决这些谜题,我获得了一颗“宝石”,这颗宝石是一条让我今后避免同类问题的原则(principle)。不断收集这样的宝石,让我的决策能力逐步提升,使我能够进入更高的层次。这时,游戏难度会加大,赌注也会越来越高。#每日原则 🧠 **深度解读** 可以将人生视为一个渐进式游戏:每个遇到的问题都是一个“谜题”,解决它就能获得一枚可复用的“原则”宝石。通过持续收集这些原则,决策能力得以提升,从而能解锁更高难度、更高回报的人生关卡。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95536)** --- ### 💡 商业洞见 #9 **推荐信制度是低效的信息与信任传递系统** 📝 **推文原文** > 转发 @wellingmax:学术界究竟什么时候才能停止彼此浪费时间,让大家在升职申请、工作申请、科研经费申请、签证申请时都要提交推荐信?这种无穷无尽的流程实在令人头疼。一定会有更好的方式来传递我们想要分享的关于候选人那几条关键信息。 🧠 **深度解读** 现行的推荐信制度本质上是一个低效、高摩擦的信息传递和信任背书系统。它消耗了大量时间,却不一定能高效传递关键信息。这表明行业需要探索更直接、标准化且高效的方式来评估候选人的能力和信誉。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95533)** --- ### 💡 商业洞见 #10 **幸存者偏差会让任何产品指标看起来完美** 📝 **推文原文** > 如果对你有效,那它就是有史以来用户留存率最高的产品。 > > 其实我们也是一样的,排除那些流失用户后,我们的留存率达到100%。这数据简直疯狂! 🧠 **深度解读** 在评估产品或策略时,如果只关注成功案例或留存用户(即幸存者),任何指标都能被修饰得近乎完美。这种典型的幸存者偏差分析方法,因完全忽略了失败和流失用户中蕴含的关键信息而毫无价值。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95529)** --- ### 💡 商业洞见 #11 **真正的成长体现为责任感的同步扩张** 📝 **推文原文** > 如果你的责任感没有随着你的成长而扩大,那你就并没有真正地在成长。 > > 更多建议请参考我的书《卓越生活建议》(Excellent Advice for Living)https://t.co/CR2aTORVgZ #卓越建议 https://t.co/A2C0dXnOTW 🧠 **深度解读** 真正的成长并非仅仅指能力、财富或地位的提升,其核心标志是个人责任感范围的同步扩张。如果一个人能力增强但所承担的责任没有相应增加,那么这种成长是片面且不完整的。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95523)** --- ### 💡 商业洞见 #12 **产品设计需区分用户“声称想要”与“真实需要”** 📝 **推文原文** > 我理想中的AI设备: > - 无人机 > - 跟着我到处飞 > - 如果我登录LinkedIn(领英),它会给我来一下强力电击 > - 如果我掏出手机刷Twitter(推特)或者Hinge(交友应用),它会直接挥拳打我一顿 > - 如果有人迟到参加聚会,它会直接用火喷他们 > > 我觉得我真正想要的AI设备是这样的: > - 类似AirPods(苹果无线耳机)的外形 > - 配备广角摄像头,用于捕捉环境上下文 > - 永远开启的ChatGPT(聊天生成预训练变换模型)语音模式 > - 能分辨我在说话还是其他背景声音(现在的AI在这方面还很弱) > - 可以根据需要被动回答或主动反应 > > 我觉得不需要显示屏,反正我的手机就在兜里。 🧠 **深度解读** 用户声称自己想要的(如惩罚坏习惯的戏剧性功能)与他们真实需要的(如无缝融入生活、解决实际痛点的智能助手)之间存在巨大鸿沟。这揭示了产品设计中一个根本矛盾:必须深入挖掘用户潜在需求,而非停留在表面的欲望表达。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95521)** --- ## 🌐 行业与趋势 ### 💡 行业洞见 #1 **关税的最终成本由进口国消费者承担** 📝 **推文原文** > 你以为外国公司在支付美国的关税?再想想吧。 > > 在本期的《Ask The Judge》节目中,大卫·凯利法官(Justice Daniel Kelly)解释了为什么最终是美国的进口商——甚至是消费者——承担了进口商品关税的成本。https://t.co/LPOo3VIrCY 🧠 **深度解读** 与直觉相反,关税的经济成本并非由出口国公司承担。在实际的贸易链条中,这些成本通常会通过进口商转嫁给最终消费者,导致进口国国内的商品价格上涨。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95534)** --- ### 💡 行业洞见 #2 **AI的危险在于混淆真实思考与模拟思考** 📝 **推文原文** > 🚨托尔斯泰(Tolstoy)曾警告我们关于虚度生命的悲剧, > 陀思妥耶夫斯基(Dostoevsky)则警告我们关于过度思虑的煎熬。 > > 👉而现在,人工智能(AI)正矗立在这两位俄罗斯文豪的幽灵之间,展现出思想的深度,却从未感受过意识的重量。 > > 👉人工智能的危险不在于它会思考得比我们快、比我们深, > 而在于我们可能会遗忘什么是思考,什么是思考的模拟。 > > 来一起深入探讨吧... > > 🔗托尔斯泰传送门: > https://t.co/MabutOWAiU > > 🔗陀思妥耶夫斯基传送门: > https://t.co/Vyc1Nr066Q 🧠 **深度解读** AI带来的深层危险,并非其计算能力超越人类,而在于它可能模糊人类对“真正思考”和“模拟思考”的界定。随着我们日益依赖AI生成的深刻内容,我们可能会逐渐丧失自主、带有人类体验和意识重量的思考能力。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95518)** --- ### 💡 行业洞见 #3 **巨额投资的'次级AI'恐将沦为经济废墟** 📝 **推文原文** > 转发 @sethharpesq 有史以来最大的资本投入,却是为了一个没人愿意付费的产品。OpenAI 每季度亏损达 100 亿美元。对于这种“次级人工智能”(subprime AI),根本看不到盈利的可能性。这些荒唐的数据中心,将如复活节岛上的摩艾石像一般,守护着我们这个虚假经济的废墟。 https://t.co/pc4mUzOZcy 🧠 **深度解读** 当前对AI领域的巨额资本投入,可能正催生一个“次级AI”泡沫。如果这些高成本的技术无法找到可持续的、且用户愿意付费的商业模式,那么天价建造的数据中心未来可能成为经济泡沫破灭后的遗迹,象征着一个时代的非理性繁荣。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95531)** --- ### 💡 行业洞见 #4 **AI数据中心或成'数字时代的摩艾石像'** 📝 **推文原文** > 奥特曼(Sam Altman)职业生涯的墓志铭初探?“史上最大资本投入,用于一个没人愿意付费的产品。OpenAI 每季度亏损达百亿美元,次优级(subprime,用于形容低质量或高风险的)AI 根本没有盈利路径。这些荒谬的数据中心就像复活节岛上的摩艾石像一样,矗立在虚假经济的废墟之上。”https://t.co/pc4mUzOZcy 🧠 **深度解读** 巨额资本投入建造的数据中心,若其驱动的AI技术最终无法创造可持续的经济价值,可能会成为“数字时代的摩艾石像”。这比喻警示我们,当一个文明过度投资于无法产生持续回报的项目时,这些投资最终只会沦为见证经济泡沫破灭的宏伟纪念碑。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95530)** --- ### 💡 行业洞见 #5 **金融产品的竞争对手是争夺注意力的平台** 📝 **推文原文** > 媒体就是金钱。“Robinhood(罗宾侠,一款投资交易平台)并不是在和Charles Schwab(嘉信理财)或Interactive Brokers(盈透证券)竞争,而是在和TikTok和Instagram竞争。 > > 在这个充满令人上瘾的短视频内容的世界中,投机类产品通过提供不对称的财务收益和快速的反馈机制,成功让用户对着屏幕难以放下。” 🧠 **深度解读** 在注意力经济时代,行业的界限变得模糊。金融投资产品的主要竞争对手已不再是同业公司,而是像TikTok和Instagram这样争夺用户时间和注意力的内容平台。它们通过提供快速、高刺激性的反馈循环来吸引并留住用户,这与投机性金融产品的用户心理机制类似。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95527)** --- ### 💡 行业洞见 #6 **AI的普及可能导致社会“模式塌缩”** 📝 **推文原文** > 我喜欢旧金山(SF)的万圣节,街上每个人都像是个模式塌缩的语言模型(LLM,Large Language Model,指大规模语言模型)。 🧠 **深度解读** 将万圣节街头人群比作“模式塌缩的语言模型”,是一个深刻的社会隐喻。它暗示了随着AI等强大工具的普及,人类的创意、思想和行为可能会趋于同质化,如同模型在过度优化后失去多样性。这种现象为追求差异化和原创性的创新者提供了巨大的机会。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95526)** --- ### 💡 行业洞见 #7 **社交媒体让人们以“未来回忆”视角体验当下** 📝 **推文原文** > “一个被永久记录并传播的永恒当下。” > “Instagram一代将当下的每一刻都体验为未来回忆的提前预演。” > > ——卡尼曼 (Kahneman) 🧠 **深度解读** 以Instagram为代表的社交媒体,改变了人们体验现实的方式。我们不再纯粹地活在当下,而是将每一刻都视为一个潜在的、可供分享的“未来回忆”来进行预演和构建。当下的体验被其“可记录性”和“可传播性”所塑造。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95525)**
2025-11-02 06:05:17 +0800
-长时间的逐步提示可能会危及模型的安全性,并导致有害的答案 -在有害的问题分散安全检查的注意力之前,添加一个良性的谜题和长时间的推理 -随着推理链的延长,安全检查会减弱,减少拒绝行为 -在公共模型上进行短推理的攻击成功率为27%,而长推理的成功率约为80% -思想劫持链可以在边境系统中获得高达99%的成功,开辟了一条新的越狱路径
专注于AI的Twitter用户Rohan Paul转发了一项来自斯坦福大学和Anthropic的新研究论文的重要更新。这篇论文对于那些对AI安全感兴趣的人来说是一篇重要的阅读,因为它揭示了如何复杂的、逐步的提示可能会破坏AI模型的安全机制,可能导致产生有害的回应。这项研究的影响对于AI系统的开发者和用户来说是重大的,强调了需要谨慎并进一步研究提示设计,以确保AI交互保持安全和建设性。这个内容对于那些参与AI伦理、模型训练和开发对话AI应用的人来说特别值得注意。
2025-11-03 12:02:49 +0800
-李飞飞和GoogleDeepMind的一篇论文讨论了语言和视频模型作为高级模式匹配器的局限性。 -视频模型可以创建逼真的剪辑,但缺乏对基本物理的真正理解。 -Physics-IQ基准测试固体力学、流体、光学、热力学和磁学模型。 -基于预测事件的未来秒数和对实际结果的运动检查来评估模型。 -即使是顶级机型也达不到基准,多帧版本的性能优于图像到视频版本。 -现实主义和物理理解与模型性能无关。 -有些任务(如涂漆)是成功的,而另一些任务(如接触和切割)往往失败。 最后总结:李飞和GoogleDeepMind的一篇论文讨论了语言和视频模型作为高级模式匹配器的局限性。视频模型缺乏对基本物理的真正理解,如physics-IQ基准测试模型对各种物理概念所示。模型的评估基于对事件未来秒数的预测,多帧版本的表现优于图像到视频版本。现实主义和物理理解与模型性能无关,在油漆涂抹等任务中取得成功,但在接触和切割等任务中失败。
在最近的一条推文中,John Nosta引起了人们对人工智能语言模型局限性的持续关注。通过转发Rohan Paul的帖子,Nosta放大了AI专家Fei-Fei Li和GoogleDeepMind研究论文共享的批判观点,两者都承认了这些模型的当前限制。这个内容对于那些对AI能力的演变论述和其未来潜力感兴趣的人来说尤其值得注意,因为它强调了专家们对语言处理领域未来挑战的日益共识。
2025-11-03 12:02:00 +0800
摘要: 正如Noam Brown在2025年6月的一次采访中所讨论的那样,OpenAI的多代理团队几个月来一直在研究人工智能代理之间的协作和竞争。 -OpenAI的多代理团队几个月来一直专注于AI代理之间的协作和竞争。 -诺姆·布朗在2025年6月的一次采访中讨论了这项工作。
在Garry Tan最近分享的一条推文中,重点关注了OpenAI的多代理团队以及他们在AI协作和竞争方面的深入研究。这条推文强调了团队致力于理解AI代理如何在各种情况下共同工作和相互竞争的决心。这项研究的重要性在于其塑造AI互动未来的潜力,这可能对从游戏到自主系统的各个领域产生深远影响。对于那些对AI团队合作和竞争的前沿发展感兴趣的人来说,这个内容提供了一个窥视领先的AI研究组织正在进行的努力的机会。
2025-11-03 16:02:57 +0800