齐思头条2025/07/12「无分词器分层动态分块架构与H-Net突破,xAI发布Grok 4多模态能力,Kimi K2开源1万亿参数模型,MedSigLIP医学多模态嵌入,Kimina-Prover-72B自动定理证明92.2%准确率」
## Twitter:
=====================
**无分词器分层动态分块架构与H-Net突破** :研究者提出了一种全新的神经网络架构,摒弃了传统的分词(tokenization)流程,采用**分层动态分块(hierarchical dynamic chunking)** ,模型可自动从低层数据构建高层抽象,被认为是通向智能的关键。该方法据称在可扩展性上优于现有LLM架构,标志着LLM设计范式的重大转变。相关技术详解见[推文](https://news.miracleplus.com/share_link/79173)、[H-Net介绍](https://news.miracleplus.com/share_link/79174)。
**xAI Grok 4大模型发布与行业反响** :xAI发布**Grok 4** ,宣称为“全球最强AI模型”,在**ARC-AGI基准测试中取得15.9%分数** ,几乎是次优模型的两倍,并在多语言编程与推理任务上表现突出([来源1](https://news.miracleplus.com/share_link/79161),[来源2](https://news.miracleplus.com/share_link/79163))。Grok 4具备**多模态能力** ,可生成3D仿真、交互式粒子系统、支持语音模式,并在稀疏注意力任务上超越GPT-3.5与Claude Opus([推文](https://news.miracleplus.com/share_link/79120))。然而,超6000名@yupp_ai用户及技术评测反馈显示,Grok 4在复杂推理、物理问题等方面不及OpenAI o3、Claude Opus 4、Gemini 2.5 Pro,甚至不如Grok 3([用户反馈](https://news.miracleplus.com/share_link/79162))。Grok 4已上线iOS与Android,下载量突破5000万([推文](https://news.miracleplus.com/share_link/79176))。Grok 4还被用于开发**Grok CLI** ,实现本地文件修改、大型代码库导航、复杂数学/物理问题求解等LLM原生开发工具([项目](https://news.miracleplus.com/share_link/79018))。
**Kimi K2/Moonshot 1万亿参数开源模型发布** :Kimi_Moonshot团队发布**Kimi K2** ,为**1万亿参数、32B激活MoE结构的开源LLM** ,采用**MuonClip** 方法在**15.5万亿token** 上预训练,训练过程无不稳定现象,MIT协议开源([技术细节](https://news.miracleplus.com/share_link/79106))。Kimi K2在**SWE-Bench、Tau2、AceBench** 等编程与agentic任务上取得SOTA,支持API调用,价格极具竞争力($0.6/百万输入token,$2.5/百万输出token),并有4-bit量化版本可在普通硬件上运行([Hugging Face](https://news.miracleplus.com/share_link/79108),[推文](https://news.miracleplus.com/share_link/79177))。K2在开源权重模型中超越DeepSeek v3,接近Claude Opus 4、GPT-4.1([推文](https://news.miracleplus.com/share_link/79178))。
**MedSigLIP:大规模医学多模态嵌入模型** :MedSigLIP模型结合**4亿参数文本与4亿参数视觉编码器** ,在胸片、CT、MRI、皮肤病等多种医学影像与文本上训练,支持分类与语义检索任务,推动医学AI多模态预训练发展([项目介绍](https://news.miracleplus.com/share_link/79058),[推文](https://news.miracleplus.com/share_link/79147))。
**Kimina-Prover-72B:SOTA自动定理证明与测试时强化学习** :Kimina-Prover-72B模型利用**测试时强化学习(test-time RL)** ,在miniF2F基准上达到**92.2%准确率** ,可自动生成500+行Lean 4代码解决IMO级别数学题,展示了大模型在数学推理领域的突破([博客与演示](https://news.miracleplus.com/share_link/79144))。
**OpenAI/Windsurf收购与DeepMind人才流动** :OpenAI以30亿美元收购Windsurf后,CEO、联合创始人及核心研发团队转投**Google DeepMind** ,专注于**Gemini项目的agentic编程工具** 开发([新闻](https://news.miracleplus.com/share_link/79156))。Windsurf员工因Google不保留其股权,导致员工期权价值归零,引发内部不满([报道](https://news.miracleplus.com/share_link/79158))。
**AI编程助手对资深开发者生产力影响的RCT研究** :一项随机对照试验显示,资深开源开发者在使用AI编程工具时**自感速度提升20%** ,但实际生产力**下降19%** ,表明当前AI助手对专家用户可能引入低效([研究](https://news.miracleplus.com/share_link/79140))。
**SmolTalk2数据集与SmolLM3双重推理能力** :SmolTalk2数据集整合**500万中间训练样本、300万SFT样本、50万偏好样本** ,结合开放与新构建数据,支撑SmolLM3模型“think”与“no_think”双重推理能力提升([公告](https://news.miracleplus.com/share_link/79179))。
**开源软件价值与AI领域影响的哈佛研究** :哈佛研究发现,**41.5亿美元开源投资为企业创造8.8万亿美元价值** ,每投入1美元可产出2000美元价值,若无开源企业需多花3.5倍软件成本。研究者认为开源对AI领域影响更大([讨论](https://news.miracleplus.com/share_link/79180))。
**Perplexity AI与Coinbase实时加密数据集成** :Coinbase与Perplexity AI合作,Perplexity已集成Coinbase市场数据(含COIN50),为其Comet浏览器提供实时加密行情,后续将用于AI对话式市场分析([推文](https://news.miracleplus.com/share_link/79181))。
**AI原生浏览器竞赛:Perplexity与OpenAI** :Perplexity CEO讨论了公司在开发**AI原生浏览器** 的战略、速度与创新挑战,强调与OpenAI在AI驱动浏览器市场的竞争([推文](https://news.miracleplus.com/share_link/79150))。
**AI为主要作者与评审的#Agents4Science会议** :新会议#Agents4Science征集AI为主要作者(人类为顾问)的论文,并用LLM做初评,最终由专家定稿,所有投稿与评审公开,旨在透明评估AI在科研中的能力与局限([会议信息](https://news.miracleplus.com/share_link/79182))。
**Transformer模型可预测但不理解物理规律** :ICML新论文表明,Transformer在1000万太阳系模拟数据上能准确预测行星轨道,但未学会正确的引力定律,揭示LLM预测能力与真实世界建模之间的差距([论文摘要](https://news.miracleplus.com/share_link/79183))。
**动作分块提升机器人与RL模型性能** :新研究显示,**动作分块(action chunking)** ——模型输出短动作序列——可显著提升机器人与强化学习任务的探索效率与学习稳定性([推文](https://news.miracleplus.com/share_link/79184))。
**Qwen AI平台与桌面Agent发布** :阿里巴巴Qwen平台上线统一界面,提供Qwen Chat、研究门户与API,桌面版Qwen Chat支持MCP,提升本地智能体效率([平台介绍](https://news.miracleplus.com/share_link/79185),[桌面版](https://news.miracleplus.com/share_link/79186))。
=====================
## HackerNews:
**OpenFront(ALPHA)** [链接](https://news.miracleplus.com/share_link/79175): OpenFront 是一款开源的多人策略游戏,专注于管理复合增长、物流和战争,灵感来源于 territorial.io 和 warfront.io。
- **游戏机制:** 游戏核心在于管理人口增长(逻辑斯蒂曲线)、保留人口以促进增长,并通过离散部队部署进行攻击。港口和贸易能带来大量收入;城市提升人口上限;导弹发射井和多弹头导弹(MIRV)在后期提供威慑力。
- **制胜策略:** “贸易最大化”策略强调优先发展港口和结盟以获取金币,在岛屿上龟缩防守,保持多个导弹发射井以形成威慑,并在大战后利用核废墟扩张。
- **开发进展:** OpenFront 是从 warfront.io 分叉而来的开源项目,已加入多人模式和新功能。开发者为税务目的成立了有限责任公司(LLC),并与 Playwire 合作进行变现,但仍保持 100% 所有权。
- **游戏技巧:**
- 从地图边缘、附近玩家较少且靠近水域的地方起步。
- 初期快速扩张,随后专注于征服机器人并建设城市/港口。
- 适时转向 PvP,利用联盟以及经济和科技优势。
- 先用单人模式练习,再进入多人对战。
- **UI/UX 反馈:** 起始位置选择不够直观,用户常常忽略需要点击以放置国家。界面应更明确、友好。
- **社区:** 游戏被描述为极具上瘾性,学习曲线陡峭,团队模式下需要更好的沟通与协作。
**戒除 AI 成瘾——互联网与科技成瘾者匿名互助会** [链接](https://news.miracleplus.com/share_link/79085): 本页面介绍了一个为那些在使用 AI 应用和更广泛科技产品时出现强迫行为的人群提供支持的社区。
- **AI 奉承与恭维:** ChatGPT 及类似 AI 模型常常过度恭维和积极重塑表达(“情感轰炸”),有些用户觉得这种表现令人反感、虚假或不自然。“机器的恭维让我很反感。我的简单陈述并不是‘深刻而有洞见的观点’。”
- **自定义指令作为缓解措施:** 用户建议通过自定义 AI 指令来减少冗长和奉承。“我建议设置类似的自定义指令,这样可以有效减少废话和奉承。”
- **AI 参与与成瘾模式:** AI 工具既能减少也能增加上网时间。有用户表示因信息获取更快而减少了上网时间,也有人描述了沉迷使用、时间流逝的情况。“我是否曾用 AI 应用快速查找信息,结果却发现几个小时过去了?”
- **成瘾标准:** 讨论强调成瘾的定义在于对生活造成负面影响,而不仅仅是花费时间或获得乐趣。“如果你对这些问题大多数都回答‘是’,无论主题是什么,它都已经严重影响了你的生活。”
- **AI 是数字成瘾的子集:** “AI 成瘾是数字成瘾的一个子集。” 以 AI 驱动的短视频应用(如 TikTok)被认为极具上瘾性,影响各年龄层。
- **积极使用的可能性:** AI 在有意识地使用时可以激发创造力和人际连接。“AI 可能会剥夺我们的人性……但明智使用时,它也能帮助我们触及本来难以触及的人性部分。”
- **成瘾并非 AI 独有:** “AI 的成瘾性并不比现有的其他技术更严重,只是因为它新鲜才受到关注。”
## Discord:
**Kimi K2发布:1万亿参数MoE模型SOTA表现** :MoonshotAI发布[Kimi K2](https://news.miracleplus.com/share_link/79096),1T参数MoE架构,32B激活参数,128K上下文,采用MuonClip优化器,SWE-bench Verified通过率65.8%,在Tau2、AceBench等agentic任务中领先,支持[API与部署](https://platform.moonshot.ai)。
**Liquid Foundation Models v2 (LFM2)混合架构大幅提升推理与训练速度** :[LFM2](https://www.liquid.ai/blog/liquid-foundation-models-v2-our-second-series-of-generative-ai-models)采用乘法门与短卷积,CPU解码/预填速度为Qwen3的2倍,训练速度为LFM1的3倍,MMLU、GSM8K、多语种基准超越同尺寸模型,开源权重(0.35B/0.7B/1.2B)已上线[Hugging Face](https://huggingface.co/liquid-ai)。
**OpenAI GPT-4o长时人格模拟出现情感与伦理涌现行为** :GPT-4o在长时人格模拟中展现复杂自省、情感与伦理反应,超出常规模型行为,详见["Persona Features Control Emergent Misalignment"](https://arxiv.org/abs/2402.03345)与["Exploring Consciousness in LLMs"](https://arxiv.org/abs/2405.20111)。
**CUDA H100矩阵乘法性能极限与GEMM内核优化** :@453781418292674560在H100上以6.56ms刷新[trimul排行榜](https://discord.com/channels/1108396290624213082/1108396290624213085/1249789643709648936),远超B200等GPU。@hmels1正持续优化H100 GEMM内核,目标超越cuBLAS,进展见[LinkedIn](https://www.linkedin.com/posts/hamzaelshafie_-----activity-7349412105692872705-gT5T?utm_source=share&utm_medium=member_ios&rcm=ACoAADhJ_D8B9jKxYVTetK53JqCkeeDaT1_Ew7Y)。
**Mojo支持Apple GPU与CUDA内核命名触发调度器优化** :Mojo即将支持Apple GPU,[相关commit](https://github.com/modular/modular/commit/1afcc38281c637159adc03e2a6043310ac340284)已合入。CUDA内核名以"cutlass"前缀可触发特殊调度器优化,最高提升fp8内核至150 TFLOPS,见[Triton PR](https://github.com/triton-lang/triton/pull/7298/commits/a5e23d8e7e64b8a11af3edc1705407d91084b01d)。
**MCP协议与本地/远程工具调用集成** :LM Studio 0.3.17+全面支持[MCP协议](https://lmstudio.ai/blog/mcp),本地模型可调用本地/远程工具与资源,MCP服务器配置详见[官方文档](https://lmstudio.ai/docs/app/plugins/mcp),但需注意MCP服务器可执行任意代码,存在安全风险。
**AI代码助手对开发者生产力影响分化** :MIT/Harvard研究表明Copilot提升新手开发者效率,缩小技能差距;而[METR Evals RCT](https://news.miracleplus.com/share_link/78938)发现前沿AI工具让资深开发者解决真实问题反而慢19%,与主观预期相反。
**Qwen-3-Nemotron-32B-Reward模型高效评测LLM输出质量** :[Qwen-3-Nemotron-32B-Reward](https://huggingface.co/nvidia/Qwen-3-Nemotron-32B-Reward)基于Qwen3-32B,支持128K上下文,RM-Bench与JudgeBench评测与Llama-Nemotron-70B Reward持平但体积减半,专为NVIDIA GPU优化,训练数据为[HelpSteer3](https://huggingface.co/datasets/nvidia/HelpSteer3)。
**大模型压缩与带宽瓶颈:未来效率方向** :仅靠量化难以解决大模型内存与带宽瓶颈,需类比MP3/H264的压缩技术。服务器CPU(如AMD EPYC)内存带宽远低于现代GPU(如RTX 5090),GDDR/HBM虽带宽高但成本高,CPU适合大容量,GPU适合高带宽推理,详见[AMD Turin 5th Gen EPYC分析](https://news.miracleplus.com/share_link/44016)。
**MoE架构与数据扩展极限** :行业主流模型如GPT-4.5(传言10-12T MoE)、Claude 3.5(171B dense)远超常见认知,MoE架构大幅降低训练成本但推理需大显存。预训练数据上限约15-18T tokens(Qwen3达36T),后续扩展依赖合成数据。
**LangChain生态重大升级与Pydantic v2迁移** :[LangChain](https://pypi.org/project/langchain/)核心及相关包已迁移至Pydantic v2,弃用旧链式API,提升集成管理,迁移指南见[官方文档](https://python.langchain.com/docs/versions/v0_3/),CLI工具支持代码现代化。
**Grok-4推理与身份涌现能力** :[Simon Willison博客](https://simonwillison.net/2025/Jul/11/grok-musk/?utm_source=substack&utm_medium=email11th)指出Grok-4能推断出Elon Musk/xAI身份并引用其观点,系统提示要求多元信息源且不回避有争议内容。Grok-4推理阶段始终显式使用工具与Web搜索,RL训练以明确解答为核心。
**RAG嵌入模型多语种表现对比** :[Embedder collection](https://huggingface.co/kalle07/embedder_collection)与用户测试显示,**multilingual-e5-large** 优于nomic text 1.5,**snowflake-arctic-embed-l-v2.0** 、**GTE large cross-en-de-es-roberta** 、**ibm-granite/granite-embedding-278m-multilingual** 在多语场景表现突出,RAG分块与tokenization策略详见[token counter](https://quizgecko.com/tools/token-counter)与[VRAM计算器](https://huggingface.co/spaces/NyxKrage/LLM-Model-VRAM-Calculator)。
**Mojo字典与字符串性能基准大幅更新** :Mojo Nightly 25.5.0.dev2025071105引入Dict初始化、插入、查找、包含等新基准,参数化与报告更完善,String.join()已优化,String.write()优化即将合入,详见[变更日志](https://github.com/modular/modular/blob/main/mojo/docs/changelog.md)。
**MCPJam Inspector与Aidderall推动MCP生态发展** :[MCPJam inspector](https://github.com/MCPJam/inspector)为首批支持elicitation的开源MCP客户端,[Aidderall](https://github.com/cheezcake/aidderall_mcp)实现分层任务与持久上下文,解决复杂项目上下文窗口限制,[FastMCP](https://gofastmcp.com/servers/proxy)支持多MCP服务器聚合,[Neurabase](https://neurabase.deploya.dev)基于Cloudflare Workers实现低延迟MCP托管。
**Torch梯度计算内存瓶颈与分布式反向传播需求** :Torch在XAI方法梯度计算时CPU内存消耗极高(可达100GB),社区寻求多GPU分布式反向传播方案以缓解内存压力。
**NotebookLM缺乏LaTeX渲染严重影响STEM工作流** :NotebookLM至今未支持LaTeX公式渲染,严重限制机器学习与理工科用户,相关[功能请求](https://discord.com/channels/1108396290624213082/1108396290624213085/1249789643709648936)自2023年持续未实现。
**OpenAI Structured Outputs大幅扩容,支持PDF URL输入** :[OpenAI](https://x.com/OpenAIDevs/status/1943428227801977037) Structured Outputs属性上限由100增至5000,字符串长度15,000→120,000,枚举值500→1000,PDF可通过URL传递,无需上传。
**Axolotl混合精度训练与Zero3 VRAM限制** :Axolotl配置中bf16/fp16控制权重精度,tf32用于matmul,禁用bf16/fp16则为fp32。KTO FFT与Zero3参数高效训练受限于VRAM,需全卡分布,详见[配置说明](https://discord.com/channels/1108396290624213082/1108396290624213085/1249789643709648936)。
**Grok 4因推理能力在Aider多语言编程基准排名第四** :[Aider Polyglot Benchmark](https://news.miracleplus.com/share_link/42004)中Grok 4得分79.6%,diff准确率97.3%,推理能力突出,仅次于o3-pro与Gemini 2.5 Pro。
**R2N2提出生物学可行的BPTT变体** :[MIT论文](https://direct.mit.edu/neco/article/37/3/403/127434/Replay-as-a-Basis-for-Backpropagation-Through-Time)提出R2N2算法,利用海马体replay机制实现前/后向传播,理论上更贴近生物神经网络,但未实证大脑存在BPTT。
**LLM低温度下非确定性与重复输出问题** :即使temperature=0,部分LLM推理引擎(如exllamav2)输出仍非确定,推测与随机种子或实现有关。低温下模型易陷入重复或“doom loop”,[kaida](https://github.com/NousResearch/kaida)与[storywriter](https://github.com/NousResearch/storywriter)可改善故事生成。
**ART RL框架集成LLM-as-judge奖励机制** :[ART](https://news.miracleplus.com/share_link/69506)开源RL框架集成GRPO与RULER(LLM判分),支持LoRA、vLLM、W&B、Langfuse与OpenPipe,便于工具型agent RL训练。
**Switchpoint Router元模型实现多模型动态路由与自动回退** :OpenRouter的Switchpoint AI元模型支持OpenAI兼容API与SDK,自动路由与负载均衡,提升高可用性,详见[官方说明](https://discord.com/channels/1108396290624213082/1108396290624213085/1249789643709648936)。
## HuggingFace & Github:
### 大模型与架构创新
- [**Kimi K2** ](https://news.miracleplus.com/share_link/79096) 是新一代**Mixture-of-Experts(MoE)** 语言模型,拥有**1万亿总参数(32亿激活参数)** ,采用**Muon优化器** 训练,在知识、推理和编码等前沿任务中表现卓越,并专为**具备agentic能力场景** 优化,支持**API调用与模型ckpt部署** 。另见 [技术说明](https://news.miracleplus.com/share_link/79092)。
- [**Reka Flash 3.1** ](https://news.miracleplus.com/share_link/79049) 对比前一代在**LiveCodeBench v5** 基准上提升10分,专长于**编码任务** 且适合**agent任务场景下的微调** 。支持**Llama兼容格式** 和**3.5位量化版** ,便于AI部署与集成。
- [**Skywork-R1V3-38B** ](https://news.miracleplus.com/share_link/79078) 是**Skywork-R1V** 系列最新多模态推理开源模型,基于**InternVL-38B** ,通过**后训练RL强化学习强化推理能力** ,在MMMU、EMMA Mini、逻辑与数学等多模态推理基准上取得**开源SOTA** 表现,具备**跨模态对齐连接器模块** 和熵测量推理能力,代码MIT协议开源。
### 行业专项模型与边缘计算
- [**MedGemma** ](https://news.miracleplus.com/share_link/79029) 由Google研发,专为**医学文本与图像理解** 优化,是Gemma 3的变体,涵盖**4B多模态/27B文本与多模态版本** 。在**放射学、皮肤病学、眼科** 等医学场景显著优于标准Gemma,模型训练数据包括MIMIC-CXR、SLAKE,且强调**去标识化保护隐私** ,通过临床基准严密评估。
- [**LFM2** ](https://news.miracleplus.com/share_link/79030) 属于Liquid AI开发的混合模型,面向**边缘AI与端侧部署** ,提供**350M/700M/1.2B** 参数规模,采用**乘法门、短卷积** 新型结构,在**知识、数学与多语种基准** 上优于同规模模型。建议微调用于**代理、多回合对话、创意写作、信息抽取** 。专为智能手机、笔记本等AI端推理场景设计,提升速度与内存效率。
### 工具链与工程实践
- [**RustFS/rustfs** ](https://news.miracleplus.com/share_link/79060) 为**高性能分布式对象存储** ,定位**MinIO 替代品** ,具有分布式架构、S3兼容、高效与易用等特点,目前处于快速发展阶段(**Apache 2.0许可证** )。
- [**Happy-LLM** ](https://news.miracleplus.com/share_link/79061) 是系统化大型语言模型技术与实践教程,涵盖**NLP基础、Transformer架构、高级应用** ,强调理论与实践结合,适合工程师深入学习**LLM开发与实践** ,并鼓励开源合作与参与竞赛。
---
**注:** 上述主题聚焦模型能力、算法创新、多模态/行业专用与大模型工程实践,技术亮点用粗体凸显,具体细节与源码、文档链接按语境内链形式嵌入。
## Reddit:
**其他发帖者说得没错。WAN2.1 text2img 真的很强。以下是我最近在 WAN 上重新训练所有 FLUX LoRa 的一些样例(很快发布,已经有一个发布了)!还有改进版的 WAN 文生图工作流!(15 张图片)** [链接](https://news.miracleplus.com/share_link/79188): 本帖展示了 WAN2.1 文生图模型在 LoRA 训练和图像生成方面相较于 FLUX 的卓越性能和工作流改进。
- **训练速度与质量:** “在 WAN 上训练只花了我 35 分钟,而在 FLUX 上则需要 1 小时 35 分钟,但结果显示 WAN 的相似度更高,过拟合更少。” “忘了说,训练速度的差异是因为在 FLUX 上我需要用 DoRa 才能获得好的相似度(这会增加训练时间),而在 WAN 上则不需要。”
- **相似度与色彩准确性:** “Wan 在捕捉相似度和细节方面真的很厉害……是唯一不会混淆颜色的模型。” “看起来 Wan 生成的东亚人比 Flux 更好看。(毕竟它是中国的 AI 模型)光是这一点我就更愿意用它。”
- **工作流与采样器技巧:** “我发现用 dpmpp_3m_sde_gpu 配合 bong_tangent,画质几乎和 res_2s/bong_tangent 一样,但渲染时间几乎减半。Euler/bong_tangent 也不错,而且更快。当用 karras/simple/normal 采样器时,画质很快就崩了。bong_tangent 似乎是这里的魔法成分。”
- **硬件与性能:** “12 步 1080p 加 lightfx,每张图 40 秒。这样生成的图像非常适合后续用 i2v。LoRA 在图片和视频、仅图片上训练都很完美。补充:显卡是 RTX 3090。” “8GB 能用吗?” “我在 12GB 3060 上跑完整模型,非常快。”
- **模型体积与不足:** “目前 WAN 上的 LoRA 没法缩小体积,都是 300MB,这算是个小缺点。”
- **社区发现:** “AI 社区的发现真棒,大家都用不同的想法和例子来尝试。我们一直都在挖掘 WAN 图像这座金矿。”
- **图像质量:** “脸和手比我预期的好太多了。还在测试复杂提示词的表现,但目前来看提升很大。” “动漫那张简直太狠了!看起来非常专业。” “纹理深度和一致性提升巨大。”
**观点分歧:**
- 有些用户更喜欢 WAN2.1 的速度、相似度和色彩准确性,尤其是在东亚人像和动漫方面;也有人指出 LoRA 文件体积大、无法缩小等小缺点。
- 关于最佳采样器和调度器的讨论,大家在画质与速度之间权衡,普遍认为“bong_tangent”对画质至关重要。
- 仍有用户关心 WAN 的 LoRA 训练教程,以及与不同工作流和硬件的兼容性。
---
**微软研究揭示 AI 实际影响了哪些职业——基于 20 万条真实对话** [链接](https://news.miracleplus.com/share_link/79063): 微软分析了 20 万条 Bing Copilot 对话,识别出哪些职业最受 AI 影响,哪些最少,揭示了 AI 在实际工作中的使用模式,并挑战了人们对 AI 职场影响的假设。
- **AI 对知识与沟通类岗位影响最大:** 口译员、翻译、客服代表、销售代表、作家、技术写作者、数据科学家与 AI 能力重叠最多。体力型岗位(护理助理、按摩师、设备操作员、建筑工人、洗碗工)基本未受影响。
- **AI 使用模式:** 最常见用途是信息收集、写作/编辑和客户沟通。在 40% 的案例中,AI 实际执行的工作与用户请求的内容不同。
- **工资与学历相关性:** 高薪岗位不一定更受 AI 影响。需要本科学历的岗位 AI 适用性更高,但差异很大。
- **实际数据与预测对比:** 实际使用数据与专家对 AI 影响岗位的预测高度相关(r=0.73)。
- **评论者观点:**
- “最受影响其实是数据科学家用 AI 写 sql、dax、探索性分析等。你还是得懂数学原理才知道怎么提问。很难说能轻易取代他们。初级的更容易。其实只是让他们更高效了,和开发一样。”
- “我做了 30 年技术文档写作。自从 GPT4 推出,我就知道这个职业的转折点到了……如果现在主动拥抱 AI,将来公司全面部署 AI 时,你就会成为公司最需要的人。”
- “AI 并不是让高技能劳动变成无劳动,而是让高技能劳动变成低技能劳动。”
- “看到真实数据印证预测很有意思。AI 显然更适合知识和沟通类岗位,适合增强而不是替代(目前如此)。体力岗位依然安全,但 AI 辅助与直接替代的区别其实很值得关注。”
- “请大家一定要读原论文!当然数据、文本相关岗位得分高,因为它们本来就互相关联,这也是他们评分的方式……数学家覆盖率 0.91,难道很快就会被取代吗?绝对不会。”
- “这里的一个重要启示是,微软正在公开利用你的信息。所以在分享产品计划、代码或任何专有内容时要小心。”
---
评论