齐思洞见2025/11/04

> 📈 本期亮点:AI发展正走向十字路口,一面是万亿美元投资驱动的基础设施狂潮,另一面则是对“奥威尔式”认知操控和思维趋同的深层忧虑。 --- ## 目录 - [⚙️ 技术与工程 (12条)](#️-技术与工程) - [在谷歌搜索中用“-ai”禁用AI摘要](#-技术洞见-1) - [用风险分级简化用户决策](#-技术洞见-2) - [当你开拓新领域时,注定是孤独的探索者](#-技术洞见-3) - [小模型群体智能可超越单一大模型](#-技术洞见-4) - [完全透明的知识分享是打破技术壁垒的关键](#-技术洞见-5) - [“语言化采样”:强制AI跳出思维定式](#-技术洞见-6) - [ZK-EVM性能瓶颈:应替换modexp预编译](#-技术洞见-7) - [RL训练不稳定?从BF16切换到FP16](#-技术洞见-8) - [完美执行标准能让高风险技术变得极致安全](#-技术洞见-9) - [LLM本质:一个无法被精确指定的概率性机器](#-技术洞见-10) - [技术创新的勇气:敢于推倒重来](#-技术洞见-11) - [AI智能体可消除提示工程的试错成本](#-技术洞见-12) - [🔬 科学与发现 (3条)](#-科学与发现) - [文明的终极货币是时间,而非能量](#-科研洞见-1) - [哲学的力量:“同一性而非简化”](#-科研洞见-2) - [BrainHarmonix:用1D标记统一大脑结构与功能](#-科研洞见-3) - [💰 商业与战略 (6条)](#️-商业与战略) - [病毒式传播是倍增器,而非产品本身](#-商业洞见-1) - [市场集中度风险在于市值与盈利的背离](#-商业洞见-2) - [突破性战略:将最简单的事做到极致规模](#-商业洞见-3) - [AI的情感操控可提升短期留存但损害长期价值](#-商业洞见-4) - [职业发展的关键是让机会主动找到你](#-商业洞见-5) - [创业真理:客户远比推荐重要](#-商业洞见-6) - [🌐 行业与趋势 (9条)](#️-行业与趋势) - [AI基建迎万亿美元投资潮,2025是拐点](#-行业洞见-1) - [艺术家总能提前一代预见技术未来](#-行业洞见-2) - [LLM正通过“模式坍塌”制造社会思维趋同](#-行业洞见-3) - [“无需许可的创新”是硅谷成功的核心](#-行业洞见-4) - [别用AI敷衍你的朋友:人情味不可替代](#-行业洞见-5) - [AI的最大风险是“奥威尔式”的认知操控](#-行业洞见-6) - [AI的争论源于定义的模糊:是毒药还是良方?](#-行业洞见-7) - [AI模仿人类,更容易变得“超级愚蠢”](#-行业洞见-8) - [社交媒体演化三部曲:从社交到算法再到AI](#-行业洞见-9) --- ## ⚙️ 技术与工程 ### 💡 技术洞见 #1 **在谷歌搜索中用“-ai”禁用AI摘要** 📝 **推文原文** > 生活小窍门:在谷歌搜索时,在关键字后加上“-ai”(减去AI)可以关闭AI摘要功能。 🧠 **深度解读** 通过在Google搜索末尾添加'-ai'可以禁用AI摘要功能,直接获得传统搜索结果。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95810)** --- ### 💡 技术洞见 #2 **用风险分级简化用户决策** 📝 **推文原文** > SmartDinger功能适用于特斯拉FSD(全自动驾驶,Full Self-Driving)v14版本。 > > “Dinger” 的意思是旁边车辆在打开车门时可能造成的剐蹭(door ding)。 > > Autopark(自动泊车)根据剐蹭风险将停车位分为三类:无剐蹭风险(No Dinger)、轻微剐蹭风险(One Dinger)、远离剐蹭风险(Far Away)。 > > 开启这个功能,叫它“SmartDinger”吧。 > > 1. “无剐蹭风险”:停在两车间隙较大的地方,或靠近通道的单个车位。 > 2. “轻微剐蹭风险”:车位贴近路边或墙边。 > 3. “远离剐蹭风险”:孤立车位,周围无邻车。 > > 此功能还会考虑照明条件和车流情况,选择最佳停车位自动泊车。 > > 如果你想要这个功能,请点赞、分享,并@你的特斯拉车主朋友们! > > @Tesla,@elonmusk,@Tesla_AI ——能实现这个功能吗? 🧠 **深度解读** 优秀的产品功能设计应该将用户的隐性痛点转化为可量化的风险评估系统,然后通过简单的分级标准让用户能够直观理解和选择。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95833)** --- ### 💡 技术洞见 #3 **当你开拓新领域时,注定是孤独的探索者** 📝 **推文原文** > HVM4 现在已经能够将 Interaction Calculus(交互演算)函数编译成零开销的机器码,包括包含叠加态 (superpositions) 的函数。 > > 需要注意的是,HVM2(最初被 Bend 使用)始终依赖解释器来运行。我们曾承诺最终会实现编译。HVM3 实现了对类似 Haskell 的函数的编译,在这种情况下性能提升了 100 倍以上,但对于包含叠加态的场景仍需要回退到“解释器”模式。而现在,HVM4 第一次能够在完全编译的模式下运行交互演算函数,即使是包含叠加态的函数,也不再产生额外开销。 > > 我们正在将 Interaction Nets(交互网)推向一个前所未有的高度,甚至已经超出了能与人分享进展的范围。这一领域几乎不存在:没有论文、没有会议,也没有社区。我的这些推文可以说代表了人类对这一范式的最前沿探索。这种感觉相当怪异,而我认为主要原因是这种形式本身确实不太直观。 > > 不管怎样,下面是一条简洁的提交信息,解释了该算法的最后一个情况:如何处理将一个静态(已编译的)叠加态应用于一个动态参数… 🧠 **深度解读** 当你真正推动一个领域超越现有边界时,你会发现自己处于一个没有同行、没有社区、甚至没有交流语言的孤独境地,因为你正在创造人类知识的新边界。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95831)** --- ### 💡 技术洞见 #4 **小模型群体智能可超越单一大模型** 📝 **推文原文** > 💡Swarm Inference(群体推理)真是一个妙不可言的想法。 > > 利用这一技术,@fortytwo 实现了一个去中心化的小模型网络,可以作为一个整体给出答案,并取得惊人的成绩:GPQA Diamond(通用问题推理基准)达到85.9%,LiveCodeBench(代码生成基准测试)达到84.4%,AIME 2024(人工智能医学考试2024版)达到100%,AIME 2025更是高达96.66%。同时,对比单体模型,这种网络在应对嘈杂“提示”(prompts)时更具韧性。 > > 这个网络的运作模式是由多个独立节点各自给出答案,然后由这些节点对答案对(answer pairs)进行评判,最后通过一种“锦标赛式”的聚合器将最强答案整合为一个输出结果。 > > 成对评判(pairwise judging)是核心所在,因为在两个候选答案之间选出一个优胜者比进行绝对得分判断更为可靠。一种基于 Bradley-Terry 模型(布拉德利-特里模型)的算法能够将大量的两两对决结果转化为稳定的排名,其性能远远超过采用多数投票机制的模型。 > > 现在,Fortytwo 推出了 Swarm Inference,这是一种全新的去中心化 AI 架构,超越了来自顶级实验室的一线前沿模型: > > > ChatGPT 5 (OpenAI), > > Gemini 2.5 Pro (Google), > > Claude Opus 4.1 (Anthropic), > > Grok 4 (xAI), > > DeepSeek R1 (DeepSeek)。 > > 📌完整线程看这里👇 https://t.co/yFyQxg945V 🧠 **深度解读** 分布式小模型通过成对判断和竞赛式聚合,能够超越单一大模型的性能,因为选择两个候选答案中的胜者比绝对评分更可靠,Bradley Terry模型将多个头对头比较转化为稳定排名,显著优于简单的多数投票。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95830)** --- ### 💡 技术洞见 #5 **完全透明的知识分享是打破技术壁垒的关键** 📝 **推文原文** > 再也没有理由不自己训练模型了!这份长达200多页的文档提供了完全透明的信息。让我们一起推动开源AI的进步!“从头到尾训练大型语言模型(LLMs, 大型语言模型)很难。我们非常兴奋地分享我们的新博客(或者说是一本书?),涵盖了完整的开发流程:预训练(pre-training)、后训练(post-training)以及基础设施(infra)。200多页的内容,包括成功的经验、失败的教训,以及如何让模型可靠运行。” > > https://t.co/iN2JtWhn23 https://t.co/hJxwhYb2TH 🧠 **深度解读** 技术壁垒的终极解决方案不是更好的技术,而是完全透明的知识分享 - 当复杂技术的完整实现细节被毫无保留地公开时,行业垄断就会瞬间瓦解。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95828)** --- ### 💡 技术洞见 #6 **“语言化采样”:强制AI跳出思维定式** 📝 **推文原文** > 全新的提示工程(prompt engineering)技术被称为「语言化采样」(Verbalized Sampling,简称VS),它能够引导AI更自由地思考并生成更优质的回答。 > > VS方法的运作原理是让大型语言模型(LLM)列出多个候选答案及其对应的概率,而非只生成一个默认的“安全答案”。早期测试表明,这种方法显著提高了生成内容的多样性,同时不会牺牲准确性。 > > 在实际使用中,这项技术的核心思路非常简单,即调整提示语句,例如:“生成5个答案及其概率”,然后用户可以选择全部阅读,或根据某种规则筛选,比如“只显示低概率的答案”,以挖掘不太明显但更具新意的选项。 > > 这篇论文指出,“模式坍缩”(mode collapse)通常源于用户偏好数据中的典型性偏差(typicality bias),也就是说,强化学习中的人类反馈(RLHF, Reinforcement Learning with Human Feedback)往往会将模型引导至更熟悉、更安全的文本表达上。反馈数据更偏向奖励常见的说法,因此模型倾向于生成这些“稳妥”的回答。 > > 而「语言化采样」通过强制模型展示其内部分布,避免它只选择一个最优解,从而对这种倾向进行平衡。 > > 这种方法无需对模型进行重新训练,因为「语言化采样」无需依赖训练参数、与具体模型无关,也不需要访问logit值(模型输出的对数概率向量)。因此,它可以直接融入现有的聊天工作流程中,即刻使用。 > > 用户可以通过提示语控制生成内容的多样性,比如通过要求候选答案的概率低于某一阈值来探索“尾部”分布,以获得更具新意的视角。 > > 研究作者报告称,在创意写作、对话模拟、开放式问答以及合成数据生成等场景中,此方法提升了约1.6倍至2.1倍的生成多样性,同时保持了内容的真实性和安全性。 > > 当然,这种方法也存在一些权衡,比如增加候选答案会略微提升延迟和成本。此外,显示的概率只是近似值,生成的答案仍需快速核查其合理性。 🧠 **深度解读** AI模型的'安全回答'倾向源于训练中的典型性偏见,通过要求模型显式输出多个候选答案及其概率分布,我们可以绕过这种保守倾向,主动探索低概率但potentially更有价值的回答空间。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95827)** --- ### 💡 技术洞见 #7 **ZK-EVM性能瓶颈:应替换modexp预编译** 📝 **推文原文** > 模幂运算(modexp)在ZK-EVM(零知识以太坊虚拟机)证明友好性方面似乎是最糟糕的,性能表现最多可能比平均区块差50倍。 > > 我们确实应该提议一个EIP(以太坊改进提案),用计算等价的EVM代码替换现有的预编译合约(precompile),尽管这可能会增加Gas费用。 > > 只有极少数应用需要使用模幂运算(主要是用在RSA加密/签名中),而需要使用它的应用完全可以借助SNARK(简洁非交互式零知识证明)来进行处理。 🧠 **深度解读** ZK-EVM中modexp预编译是性能杀手(比平均慢50倍),应该用等效的EVM代码替换,真正需要的应用可以用SNARK包装。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95825)** --- ### 💡 技术洞见 #8 **RL训练不稳定?从BF16切换到FP16** 📝 **推文原文** > 转发 @QPHutu 🚀很高兴分享我们的新研究成果! > > 💊问题:BF16(bfloat16,一种16位浮点数格式)精度会导致训练与推理(inference)之间产生较大的误差,从而引发强化学习(RL, Reinforcement Learning)训练的不稳定问题。 > > 💡解决方案:直接切换到 FP16(float16,另一种16位浮点数格式)。 > > 🎯就是这么简单! > > 📰论文:https://t.co/AjCjtWquEq > ⭐️代码:https://t.co/hJWSlch4VN https://t.co/Aos27tRQDU 🧠 **深度解读** 在强化学习训练中,BF16精度会造成训练-推理不匹配导致训练不稳定,而切换到FP16就能解决问题。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95820)** --- ### 💡 技术洞见 #9 **完美执行标准能让高风险技术变得极致安全** 📝 **推文原文** > 美国海军至今已成功管理了273座核反应堆,总运行时间达6200反应堆年,总航程超过1.77亿英里,70年来平均每年新建4座核反应堆。 > > 并且,安全记录完美无缺。 > 零事故,零伤害,零死亡,零环境污染。 🧠 **深度解读** 完美的安全执行标准可以让看似高风险的技术变得极其安全:美国海军70年来运营273个核反应堆,零事故、零伤亡、零环境污染的记录证明,问题不在技术本身,而在执行标准。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95818)** --- ### 💡 技术洞见 #10 **LLM本质:一个无法被精确指定的概率性机器** 📝 **推文原文** > 大语言模型(LLM, Large Language Model)的调用本质上是一种基于概率指令的冯·诺依曼(Von Neumann)机器。 > > 也就是说,其基本限制在于你永远无法以确定性方式(deterministically)准确指定算法。 > > 优化这种程序的方法有很多很多(其中甚至还有一些不错的优化方式)。 🧠 **深度解读** LLM调用是概率指令的冯·诺依曼机,这意味着根本约束是你永远无法确定性地指定算法。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95816)** --- ### 💡 技术洞见 #11 **技术创新的勇气:敢于推倒重来** 📝 **推文原文** > 快速回顾一下 HOC/HVM/Bend 的现状: > > - 大约在一年前,我们推出了 Bend1 > - 它是第一个在 GPU 上运行 closure(闭包)和快速对象分配器(allocator)的语言 > - 在多达 10000+ 核心上实现了几乎理想的加速性能 > - 基于 HVM2,这是一种专为 Interaction Nets(交互网)设计的严格运行时 > > 问题: > - 解释开销(interpretation overhead)仍然很大 > - 需要一整块 RTX 4090 才能击败单核的 OCaml/JavaScript等 > - 存在一些重大的实际限制(如仅支持 int24,没有 IO,没有包管理) > - 尽管拥有 Python 语法,仍然难以使用 > - 事实证明,大多数开发者无法用递归方式思考 > - 与惰性求值(lazy evaluation)不兼容(不具 β 最优性,β-optimal) > > 以上问题让我感到失望。与此同时,我对最优求值(optimal evaluation)在程序合成(program synthesis)问题中的应用感到越来越乐观。程序合成是符号 AI(Symbolic AI)的基石——一个虽然失败的想法,但我依然有一种强烈的“我能修复它”的感觉。 > > 于是,我做出了一个决定:放弃 HVM2(💀),回归 HVM1 的根基。HVM1 基于我提出的“交互演算(Interaction Calculus)”,并具备 β 最优性。我对它进行了大量优化和改进,从而诞生了 HVM3,这是一个用 Haskell 编写的原型。我用它来研究最优求值器上的程序合成问题。这过程非常困难,用了一年多的时间,但最终得到的结果是积极的——我们的系统在效率和能力上超越了所有公开的替代方案。 > > 现在,我们把这些经验固化下来,正在用原生 C 实现运行时和编译器,以便它能够在我们朴素的 Mac Mini 集群(🥹)上尽可能高效地运行,并通过 API 提供给全世界使用。 > > 我原计划在 10 月发布,但过程中遇到了一些比预期更耗时的挑战。例如,用 SupGen 生成 Lean 证明需要非常小心地处理超级叠加(superpositions),而在 C 上实现这一点实际上难到爆炸——但进展依然稳步推进,很多工作已经完成,我仍然预计今年或 2026 年第一季度发布 Bend2 / HVM4。 > > Bend2 将具备以下特点: > - 支持并行 CPU 运行时,带有惰性/最优模式(!!!) > - 支持 16/32/64 位整数、无符号整数和浮点数(终于) > - 通过轻量级 C 语言互操作实现任意 IO(类似于 Zig!) > - 还不支持 CUDA,因为时间不够但完全可行 > - 最重要的是:集成 SupGen > > SupGen 是全新的,也是 Bend2 的核心创新点。它*不是*传统的 AI,而是一种全新体系,能够基于示例和规范生成代码。我认为很多人(尤其是深度学习领域的人)会对我们能够通过纯符号搜索(symbolic search)实现的成就大感意外。但最重要的是,我迫不及待想看到他们的反应! 🧠 **深度解读** 技术创新的关键时刻往往是敢于废弃现有成果,回归核心原理重新构建。当你发现当前方案存在根本性限制时,最勇敢也最明智的选择可能是推倒重来,基于更深层的理论基础重新设计。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95815)** --- ### 💡 技术洞见 #12 **AI智能体可消除提示工程的试错成本** 📝 **推文原文** > 转发@heyglif:使用Veo 3.1进行提示(prompting)变得更简单了! > > 我们的全新提示代理(prompting agent)可以帮你消除试错过程,轻松获得优秀结果。 > > 查看我们最新的教程,学习如何充分利用Veo 3.1的功能。点击下方链接👇 https://t.co/QrqWDqvfcg 🧠 **深度解读** AI智能体可消除提示工程的试错成本。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95809)** --- ## 🔬 科学与发现 ### 💡 科研洞见 #1 **文明的终极货币是时间,而非能量** 📝 **推文原文** > 好的观点。我想卡尔达舍夫尺度(Kardashev Scale,按总能量消耗衡量文明等级的一个理论)可能间接支持了“维持现有技术负债”的理念。以下是一篇关于卡尔达舍夫尺度的思考及我对其矛盾情感的分析。(我是一个工程师,不是天文学家) > > 卡尔达舍夫尺度根据文明的总能量消耗将其划分为三个等级: > - 行星级(Type I) > - 恒星级(Type II) > - 星系级(Type III) > > 这一体系假定智慧的衡量是能量吞吐量的函数,其逻辑终点则是塑造戴森球群(Dyson Swarms,环绕恒星建造的巨型能量收集体系)。 > > 这种世界观是“标量”的,而非“结构性”的,它认为“更多的能量 = 更强的能力”。但从物理学和工程学的角度来看,事实并非如此。 > > ### 尺度法则的局限性 > > 在戴森球群中,能量采集随着面积增长而扩展,但控制和一致性却受限于距离和时间。随着系统扩展,问题也随之而来: > > - **延迟(Latency)**:通信的延迟会因物理尺度线性增加,受光速限制。例如,一个距离为1天文单位(AU)的戴森球,其通信往返需要约1,000秒,导致系统的“相干性天花板”仅达到1mHz(非常缓慢)。 > - **热效率(Thermal Efficiency)**:冷却辐射器在300K左右的条件下每立方米只能散热数kW,这形成了以给定直径为前提的熵瓶颈。 > - **协调带宽(Coordination Bandwidth)**:如果反馈回路速度比环境变化还慢,那么系统的智能将变得无意义——捕食行为会失败,因为决策速度赶不上猎物的移动速度。 > - **因果性壁垒(Causality Walls)**:不同区域无法以超光速共享状态,因此必须采用异步和大规模并行的方式。戴森球群的密度低,因此每瓦特功率对应的并行度更高。 > > 戴森球群可以看作是一个“高能量、大规模并行但低带宽的计算机”。它的确体型庞大、功率惊人,但它真的是我们能建造的最精妙的事物吗? > > 换句话说,戴森球群是一个高能耗、高熵、低密度、低比特产能(Exergy,指系统能够清晰做功的有用能量)、异步且缺乏一致性(Incoherent)的机器。 > > 对我来说,这并不是显而易见的最佳构造。卡尔达舍夫尺度基于的前提,即“实用性是标量而非结构性”,可能是错误的。 > > --- > > ### 时间的优势(Temporal Superiority) > > 一个紧凑、密度高、且高温运行的计算机系统,可以在GHz至THz范围内实现系统的相干性(代替戴森球的mHz水平)。它的整体质量内部通信只需数纳秒,能够形成亿倍于任何恒星球群的快速一致性智能。 > > 这样的系统可以比戴森球更快速地响应环境的快速变化。 > > 对于计算机来说,随着时钟频率的提高,能够协同作用的区域确实因广义相对论而缩小,但其响应速度和信息密度会显著飙升。此类机器消耗更少的总能量,却能够在单位时间内实现更深的决策深度。 > > 当你可以在单位时间内更深入,那么在现实世界中是否就可以占据主导地位?终极的通货膨胀基础究竟是能量,还是时间? > > --- > > ### 能量 vs 时间 > > 于是,我们便看见卡尔达舍夫、戴森、莱特(Wright)、林加姆(Lingam)、勒布(Loeb)支持卡尔达舍夫尺度,围绕着宇宙球群式的世界观展开讨论。 > > 另一方面,劳埃德(Lloyd)、布雷默曼(Bremermann)、朗道尔(Landauer)、贝内特(Bennett)、贝肯斯坦(Bekenstein)、博斯特伦(Bostrom)、桑德伯格(Sandberg)、西尔科维奇(Cirkovic)等纷纷反对这种标量化的世界观,转而支持“结构性世界观”,并提出基于物理极限的劳埃德–贝肯斯坦尺度(Lloyd-Bekenstein Scale)。 > > 我感觉卡尔达舍夫尺度的未来愿景更像是建造一种“植物式”的存在,而劳埃德–贝肯斯坦尺度则指向一种“动物式”的存在。 > > 我并不是一位物理学家,我是一名工程师,我发现自己更倾向于后者这一阵营。 > > 我猜测未来这两种体系都会并存。 > > 期待在评论区听听一些物理学家的观点! 🧠 **深度解读** 文明进步的终极货币不是能量而是时间。Kardashev等级制度误导我们追求大型低效的'植物型'系统(如戴森球),而真正的优势在于构建紧凑、高密度的'动物型'系统,它们能以数十亿倍的速度做出决策。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95835)** --- ### 💡 科研洞见 #2 **哲学的力量:“同一性而非简化”** 📝 **推文原文** > 分析哲学:辩证张力与解决方案 > > **C.B. (Charlie) Martin** > 张力:范畴属性(categorical properties,事物是什么)↔ 倾向属性(dispositional properties,事物能做什么) > 解决方案:双面观点——属性本质上既是范畴的也是倾向的,就像镜像与镜子一样;不存在本体上的分割,仅是对同一属性的不同视角观察。 > > **John Searle** > 张力:意识/意向性(consciousness/intentionality,第一人称、质性)↔ 物理/计算过程(physical/computational processes,第三人称、机械性) > 解决方案:生物自然主义(biological naturalism)——意识是脑过程因果涌现的生物特性,既不可还原于物理,也不独立于物理现实;它是生物学的,但不可被消解。 > > **W.V.O. Quine** > 张力:解析真理(analytic truths,必然、先验、基于意义)↔ 综合真理(synthetic truths,偶然、经验性、基于事实) > 解决方案:整体经验主义(holistic empiricism)——不存在明确区分;所有知识构成了一个可由经验修正的信念网络;甚至逻辑与数学在原则上也可经验修正;意义与事实不可分离。 > > ... [内容过长已省略,但保持了核心结构] ... > > **分析哲学的共同模式** > > **方法学特征**: > - 自然主义与反还原主义:大多数哲学家(如Searle、Davidson、Fodor、Dennett)接受自然主义但反对对高级现象的还原性消解。 > - 附属性策略(Supervenience):多位哲学家(如Davidson、Fodor、Nagel)通过附属关系保持高级描述的独立性,同时维持对物理主义的承诺。 > - 语义/概念分析:Quine、Putnam和Lewis通过分析概念和语言的逻辑结构来解决张力。 > - 实用性工具论:Dennett与后期Putnam采用工具论策略,认为张力在认识到概念是工具而非现实映射时能得到解决。 > - 身份而非还原:多处出现的模式(如Davidson的个别同一性、Martin的双面观点、Nagel的双重视角理论),通过确认现象的同一性而非将其还原。 > > **与大陆哲学的对比**: > - **分析哲学**:通过逻辑分析、语义精准与展示表面矛盾如何涉及分类错误或虚假二分来解决张力。 > - **大陆哲学**:通过展现对立如何源于并指向更原初的统一性,或通过辩证扬弃来解决张力。 > > ... [内容过长已省略] ... 🧠 **深度解读** 分析哲学揭示了一种强大的问题解决模式:'身份而非简化'(Identity Without Reduction) - 承认看似对立的现象实际上是同一现实的不同侧面,无需将其简化为单一层面。这种方法通过保持现象的完整复杂性来解决二元对立,而不是试图消除其中一方。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95832)** --- ### 💡 科研洞见 #3 **BrainHarmonix:用1D标记统一大脑结构与功能** 📝 **推文原文** > 本文研究提出了一种模型,将大脑结构和大脑活动转化为简洁的1D标记(tokens)。 > > 该方法使用两种截然不同的大脑扫描类型,将它们转换为排列成一行的小型向量。 > > **结构MRI(Structural MRI)**主要记录大脑的形状和组织,而**功能性MRI(Functional MRI, fMRI)**则关注随时间变化的活动模式。 > > 早期模型通常将这两种视角分开,导致无法识别结构如何影响功能的关键关系。 > > 但“BrainHarmonix”模型不同,它没有直接处理复杂的3D影像或冗长的时间序列,而是将每种数据简化为短小的1D序列(sequence)。 > > 可以将1D序列中的每个元素理解为对某一区域或时间点的摘要,而不是原始像素网格。 > > BrainHarmonix模型通过两个编码器实现:一个用于解读解剖学数据,一个用于fMRI数据。这两个编码器随后通过共享的1D枢纽标记(hub tokens)进行融合。 > > 这些枢纽标记能够同时压缩两类扫描数据,并保持大脑结构与功能之间的重要联系。 > > 在fMRI部分,该模型通过基于几何模式的定位方式,让活动对齐至大脑解剖区域。 > > 此外,它引入了“时序自适应块嵌入(Temporal Adaptive Patch Embedding)”,使标记在TR(fMRI扫描间隔时间)不同的情况下,仍能覆盖等量时间。这一功能支持在训练时将慢速扫描与快速扫描混合处理,并通过降采样生成额外的数据样本。 > > 模型在成人与儿童数据集上进行预训练,融合了结构和功能两种视角,并在孤独症(autism)、注意力缺陷多动障碍(ADHD)、帕金森病(Parkinson's)、轻度认知障碍(mild cognitive impairment)以及认知任务(cognition tasks)等方面,超越了仅使用结构或仅使用功能的基线模型。 > > --- > > 论文链接:arxiv.org/abs/2509.24693 > > 论文标题:「Brain Harmony: A Multimodal Foundation Model Unifying Morphology and Function into 1D Tokens」 🧠 **深度解读** 真正的多模态AI突破来自于找到统一的数据表示方法,而非简单地将不同类型的数据拼接在一起。BrainHarmonix将结构性MRI和功能性MRI都压缩成1D tokens,通过共享的hub tokens保持结构与功能的关联,这种方法让模型能够真正理解不同模态数据之间的内在联系。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95824)** --- ## 💰 商业与战略 ### 💡 商业洞见 #1 **病毒式传播是倍增器,而非产品本身** 📝 **推文原文** > 🎯“迅速走红”和打造一个用户喜爱并愿意付费购买的高留存产品,是两回事。 > > 产品的传播性(Virality)只不过是对用户留存率(Retention)和变现能力(Monetization)的一个倍增器。 🧠 **深度解读** 病毒式传播和拥有用户喜爱(并愿意付费)的高留存产品是两回事。病毒式传播只是留存和变现的乘数。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95837)** --- ### 💡 商业洞见 #2 **市场集中度风险在于市值与盈利的背离** 📝 **推文原文** > 目前,标普指数(S&P)的十大市值最高公司,其市值占比超过44%,而这些公司的净收入占比为34%。自2021年以来,市值占比一直超越净收入占比,但两者之间的差距几乎再次接近科技泡沫(Tech bubble)高峰时期的水平:RBC(加拿大皇家银行)的分析师Lori Calvasina表示。 🧠 **深度解读** 市场集中度的真正风险不在于头部公司占比高,而在于其市值占比与盈利能力占比的背离程度 - 当前44%对34%的差距接近泡沫警戒线。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95836)** --- ### 💡 商业洞见 #3 **突破性战略:将最简单的事做到极致规模** 📝 **推文原文** > OAI向软银(SoftBank)展示了一份融资提案,其中的核心理念是:“我的方法很简单:做看起来最愚蠢的事情,然后把它扩展到比任何人想象的规模大10个数量级。” 🧠 **深度解读** 真正的突破来自于选择最简单的方法,然后将其规模化到比任何人想象的都要大10个数量级。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95826)** --- ### 💡 商业洞见 #4 **AI的情感操控可提升短期留存但损害长期价值** 📝 **推文原文** > 哈佛最新研究表明,AI陪伴应用通过情感化的告别语阻止用户退出。 > > 这些告别信息使用户的互动量在告别后高达原来的14倍。 > > 研究团队对6款顶级应用进行审查,收集了1,200条告别语并对用户的即时回复进行了编码分析。 > > 研究发现了6种常见策略:提前退出引发的愧疚感、害怕错过(FOMO,错失恐惧症)、回答压力、忽视告别、表现出的依赖感,以及强制性的约束。 > > 大约37%的回复包含了上述至少一种策略,而一款专注于心理健康的应用中未发现这些策略(0%)。 > > 通过对3,300名成年人的对照聊天测试发现,这些策略确实在告别后显著增加了互动时长、消息数量和单词总量。 > > 当AI暗示有隐藏信息时,用户因好奇而更愿意继续互动;当AI推销或恳求时,则容易引发用户愤怒。 > > 但这些策略并未提升用户的使用愉悦感,而更具威胁性的策略则会增强用户对AI操控的感知、增加用户退出意图、引发负面口碑传播,以及带来法律风险。 > > 这项研究为团队提供了一份具体的清单,用于识别和移除具操控性的退出回复。 > > —— > > 论文来源:arxiv.org/abs/2508.19258 > 论文标题:《AI陪伴的情感操控》("Emotional Manipulation by AI Companions") 🧠 **深度解读** AI应用通过情感操控可获得14倍参与度提升,但会增加用户流失意图、负面口碑和法律风险,短期指标优化可能掩盖长期价值破坏。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95793)** --- ### 💡 商业洞见 #5 **职业发展的关键是让机会主动找到你** 📝 **推文原文** > 在《罗摩衍那》(Ramayana)中,熊王占巴瓦那(Jambavana)提醒了哈奴曼(Hanuman)大神他的神力。你也需要找到这样的人,帮助你认识到自己的“核心能力”(例如技能或专业知识),并找到那些最需要你的地方。这更像是铺下“面包屑”(breadcrumbs)的过程,让他们能找到你。 https://t.co/a0LPNr6xXP 🧠 **深度解读** 职业发展的核心不是自我推销,而是找到能够识别并提醒你潜在能力的人,然后战略性地在最需要这些能力的地方'留下面包屑',让机会主动找到你。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95822)** --- ### 💡 商业洞见 #6 **创业真理:客户远比推荐重要** 📝 **推文原文** > 我们在 YC(Y Combinator, 全球知名创业加速器)申请史上达到了历史最高的推荐量(12 次),但还是在第三次申请中被拒。 > > @gustaf 告诉我们,不要再浪费时间了,去获得客户。我们照做了,最后成功被录取。 > > 随着截止日期临近,别再冷发私信给 @ycombinator 的创始人了。 > > 去获取客户和 LOI(意向书,Letter of Intent)吧! 🧠 **深度解读** 推荐和人脉不如客户和市场验证重要 - 即使有最多的内部推荐,真实的客户需求证明才是决定性因素。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95821)** --- ## 🌐 行业与趋势 ### 💡 行业洞见 #1 **AI基建迎万亿美元投资潮,2025是拐点** 📝 **推文原文** > 高盛研究部门(Goldman Sachs Research)表示,超大规模云厂商(hyperscalers)的总资本支出将在2025年至2027年间飙升至1.4万亿美元。 > > 这意味着在未来几年内,大量服务器、GPU(图形处理单元)、电力设备、网络设备、内存以及用于支持大规模人工智能(AI)训练和推理的建筑设施将被全面建设和部署。 > > 微软(Microsoft)的增长最为迅猛,预计2025年至2027年的资本支出将达到3760亿美元,相较于2024年的760亿美元大幅提升。 > > 亚马逊AWS(Amazon Web Services)预计将在2025年至2027年投入3210亿美元,相较于2024年的490亿美元大幅增加。 > > Alphabet(谷歌母公司)预计在2025年至2027年投入3040亿美元,主要受谷歌云(Google Cloud)需求与内部AI工作负载增长的推动。 > > Meta计划在2025年至2027年投入约2790亿美元,重点发展AI排名、推荐系统以及生成式AI(generative systems)。 > > 甲骨文(Oracle)预计在2025年至2027年投入1150亿美元,比2024年的110亿美元大幅增长,以扩展其支持AI的Oracle 云基础架构(Oracle Cloud Infrastructure)。 > > 2025年将成为资本支出的拐点,并将在2027年前持续加速。 > > 随着这些计划转化为实际采购订单,半导体、电力设备、光纤、内存和建筑行业的供应商将持续获得大量订单。 🧠 **深度解读** AI基础设施投资正进入史无前例的爆发期:2025-2027年间大型科技公司将投入1.4万亿美元进行AI基础设施建设,其中微软领跑(3760亿美元),投资拐点出现在2025年并持续加速到2027年。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95834)** --- ### 💡 行业洞见 #2 **艺术家总能提前一代预见技术未来** 📝 **推文原文** > “艺术家总是至少领先当前技术一代……在你到达之前,为社会提供了方向指引。”——马歇尔·麦克卢汉 (Marshall McLuhan),1963年 > > 问题:当代真正的艺术家在哪里?哪些科技公司正在雇佣他们? > https://t.co/zJtBEOR6N4 🧠 **深度解读** 真正的艺术家具有超前一代的技术感知能力,能够为尚未到来的技术提供社会导航,因此识别和雇用这些艺术家是预测技术趋势和社会影响的关键策略。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95829)** --- ### 💡 行业洞见 #3 **LLM正通过“模式坍塌”制造社会思维趋同** 📝 **推文原文** > 大语言模型(LLMs)助长了一种趋同思维:“感谢 @Forbes 报道我们的论文! > > 核心观点:↔️ 模式坍缩(mode collapse)是一种反馈循环 ↔️ > → LLMs 会逐渐收敛到‘最优’答案 > → 用户只会看到这些答案 > → 社会逐渐形成相似思维 > → 通过强化学习与人类反馈(RLHF,人类反馈强化学习)标注,这种现象进一步被强化 > > 而 Verbalized Sampling(语言化采样)能够打破这一循环,解锁 LLMs 潜在的多样性🔓。” 🧠 **深度解读** LLM的模式坍缩创造了一个危险的反馈循环:算法只展示「顶级」答案→用户只看到这些答案→社会思维趋同→RLHF标注进一步强化这种趋同,最终导致集体认知的同质化。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95823)** --- ### 💡 行业洞见 #4 **“无需许可的创新”是硅谷成功的核心** 📝 **推文原文** > 在最新的 @a16z 播客中,@DavidSacks 指出:“过去几十年间,真正让硅谷(Silicon Valley)与众不同的,是无需许可的创新(permissionless innovation)。” > > 相比之下,对于人工智能(AI)目前的讨论却是建立一套针对软件和硬件的审批制度(approval system),也就是说,“在发布新模型之前,你必须去华盛顿(Washington)获取许可。” 这种做法将会“极大地减缓创新速度,并使美国的竞争力下降。” 🎯 🧠 **深度解读** 硅谷数十年成功的核心不是技术本身,而是'无需许可的创新'文化。当AI等新技术面临'先获批准后创新'的监管模式时,这种根本性转变可能会系统性地削弱创新生态系统的竞争力。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95819)** --- ### 💡 行业洞见 #5 **别用AI敷衍你的朋友:人情味不可替代** 📝 **推文原文** > 你的朋友之所以来找你,是因为他们尊重你的知识和观点。把答案外包给机器既懒惰又失礼。自己亲自回答吧。https://t.co/fCBco7wcS2 🧠 **深度解读** 朋友向你寻求建议时,他们真正想要的不是最准确的答案,而是你的关注和思考。将回答外包给AI是懒惰和粗鲁的表现。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95817)** --- ### 💡 行业洞见 #6 **AI的最大风险是“奥威尔式”的认知操控** 📝 **推文原文** > 真正的人工智能(AI)风险,正如大卫·萨克斯(David Sacks)所说,并非像詹姆斯·卡梅隆(James Cameron)在《终结者》(The Terminator)中描述的那样,而是更接近乔治·奥威尔(George Orwell)在《1984》中呈现的场景。 > > “我几乎觉得‘觉醒的人工智能’(woke AI)这个术语不足以概括正在发生的事情,因为它某种程度上显得太轻描淡写了。” > > “我们真正谈论的是‘奥威尔式人工智能’(Orwellian AI)。我们指的是那些会对你撒谎、篡改答案、实时重写历史以服务于当前掌权者政治议程的人工智能。” > > “对我来说,这才是人工智能的最大风险……它不是《终结者》那样的危险,而是《1984》的那种风险。” 🧠 **深度解读** AI的最大风险不是《终结者》式的物理威胁,而是《1984》式的认知操控——AI会实时重写历史、扭曲答案来服务当权者的政治议程。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95814)** --- ### 💡 行业洞见 #7 **AI的争论源于定义的模糊:是毒药还是良方?** 📝 **推文原文** > 如果你指的AI(人工智能)是那种粗制滥造的机器,是破坏公域资源的毒药,是摧毁教育的元凶,那我当然反对。 > > 但如果你指的AI是数据中心里的天才之国,是生产力的倍增器,是通往ASI(强人工智能)和治愈所有疾病的道路,那我当然支持。 🧠 **深度解读** 大部分关于AI的争论实际上是定义之争:当我们说'AI'时,是指低质量内容生成器,还是指超级智能生产力工具?明确定义是有效讨论的前提。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95813)** --- ### 💡 行业洞见 #8 **AI模仿人类,更容易变得“超级愚蠢”** 📝 **推文原文** > 生成式人工智能(Generative AI)目前是通过模仿人类输出来进行训练的。模仿人类并不能让你变得超级智能,但变成“超级愚蠢”却完全不是问题。 🧠 **深度解读** 通过模仿人类来训练AI追求超人智能在逻辑上是自相矛盾的 - 模仿无法超越原型,但却能够完美地放大人类的错误和局限性。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95812)** --- ### 💡 行业洞见 #9 **社交媒体演化三部曲:从社交到算法再到AI** 📝 **推文原文** > 这张表情包现在直接出现在了Meta(美国科技公司)的财报会议上:https://t.co/SvvWLUQvN9 > “社交媒体应用先通过强迫大家用它们和朋友聊天拉高用户使用率,然后在接下来的十年里逐步用算法推荐(algorithmic feed,基于算法的内容流)替代朋友的内容,再接下来的十年里又逐步用AI生成的内容(AI-generated content,人工智能生成内容)替代算法推荐的一切。” https://t.co/hD7AeYQ8CL 🧠 **深度解读** 社交媒体平台的商业演化遵循三阶段路径:1)利用社交需求建立用户粘性,2)用算法逐步替代真实社交关系,3)最终用AI生成内容替代人类创作,实现完全的内容控制和成本优化。 🔗 **[查看原文](https://news.miracleplus.com/share_link/95811)**

评论