AI 日报 | 2026-05-05
今日共收录 147 条资讯
📰 业界新闻
⭐️⭐️⭐️ 谷歌发布 Gemini
Google DeepMind 发布 Gemini,这是谷歌面向多模态 AI 的核心模型系列。Gemini 旨在同时处理文本、图像、音频、视频和代码等多种信息形式,并支撑谷歌后续 AI 产品与服务。该发布标志着谷歌在通用人工智能模型竞争中的重要布局,对大模型应用生态具有重要影响。
- 相关: Google DeepMind, Google, Gemini
- 标签: 多模态模型, 大模型, Google
- 📎 原文链接
⭐️⭐️⭐️ 谷歌Duplex电话AI
谷歌介绍了 Duplex,一套可通过电话完成现实任务的 AI 系统。该系统面向特定场景,如预约理发和餐厅订位,能够进行较自然的双向语音对话。Duplex 结合语音识别、自然语言理解和语音合成,使 AI 能处理停顿、打断和对话节奏等问题。它的重要性在于展示了 AI 从文本交互走向真实电话任务执行的能力。
- 相关: Google, Google Duplex, 语音识别, 语音合成
- 标签: 语音AI, 智能助手, 人机交互
- 📎 原文链接
⭐️⭐️⭐️ Claude推出桌面代理
Anthropic 发布 Cowork,这是面向非技术用户的 Claude Desktop AI 代理能力,目前以研究预览形式向 Claude Max 订阅用户开放,价格档位为每月 100 至 200 美元。用户可授权 Claude 访问本地指定文件夹,让其读取、编辑、创建文件,并完成整理下载目录、从收据截图生成报销表、基于散乱笔记起草报告等任务。Cowork 基于 Claude Agent SDK,与 Claude Code 共享底层架构,并支持连接器、浏览器自动化和 Skills。Anthropic 同时提示该类代理可能误删本地文件,并面临提示注入等安全风险,反映桌面级 AI 代理在实用性与安全性之间的关键挑战。
- 相关: Anthropic, Claude, Cowork, Claude Code, Claude Agent SDK, Microsoft Copilot
- 标签: AI代理, 生产力工具, Claude, 桌面应用
- 📎 原文链接
⭐️⭐️⭐️ Salesforce重塑Slackbot
Salesforce 推出全新 Slackbot,将其从通知工具升级为可搜索企业数据、撰写文档并执行操作的 AI 代理,面向 Business+ 和 Enterprise+ 客户开放。新版 Slackbot 基于 Anthropic Claude,并可连接 Salesforce 记录、Google Drive、日历和 Slack 历史对话,未来还计划支持 Gemini 等更多模型。Salesforce 内部 8 万名员工参与测试,其中三分之二已试用,80% 的试用者持续使用,员工反馈每周可节省 2 到 20 小时。该发布标志着 Salesforce 正将 Slack 定位为企业智能体入口,与 Microsoft Copilot 和 Google Gemini 在办公 AI 场景中直接竞争。
- 相关: Salesforce, Slack, Slackbot, Anthropic, Claude, Microsoft Copilot, Google Gemini, Parker Harris
- 标签: 企业AI, AI代理, 协同办公, Slack
- 📎 原文链接
⭐️⭐️⭐️ 谷歌发布两款新TPU
Google 发布了面向“智能体时代”的新一代 Tensor AI 芯片。此次并非单一芯片,而是两款 TPU,分别针对推理和训练任务设计。该发布显示 Google 正在为更高强度的 AI 训练与智能体推理需求扩展自研算力体系。
- 相关: Google, TPU, Tensor, AI芯片
- 标签: AI芯片, 智能体, 推理, 训练
- 📎 原文链接
⭐️⭐️⭐️ 欧盟施压安卓AI开放
欧盟正要求 Google 在 Android 上向其他 AI 助手开放更多入口,以减少 Gemini 获得的优先待遇。Google 回应称这是“不必要的干预”。此举可能影响欧洲市场上 AI 助手的预装、默认设置和系统级集成方式,对移动 AI 生态竞争具有重要影响。
- 相关: 欧盟, Google, Android, Gemini
- 标签: AI监管, 安卓生态, 数字市场
- 📎 原文链接
⭐️⭐️⭐️ 马斯克与奥特曼对簿公堂
Ars Technica 报道称,Elon Musk 与 Sam Altman 围绕 OpenAI 未来方向的诉讼进入关键阶段。案件核心涉及 OpenAI 是否偏离最初使命,以及其商业化路径与治理安排是否符合创立时承诺。报道还指出,马斯克对 AI 风险立场的变化可能使其诉讼主张面临更复杂的审视。该案结果可能对 OpenAI 的组织结构、公共使命叙事和行业治理讨论产生影响。
- 相关: Elon Musk, Sam Altman, OpenAI
- 标签: OpenAI, AI治理, 诉讼
- 📎 原文链接
⭐️⭐️⭐️ 马斯克与Altman对簿公堂
埃隆·马斯克与 OpenAI CEO 山姆·Altman 围绕 OpenAI 未来的多年法律纠纷将于本周在北加州开庭。案件可能影响 OpenAI 是否能够继续以营利性企业形式存在,并可能在其备受关注的 IPO 前改变公司治理走向。法院裁决若涉及管理层或公司结构,将对 OpenAI 及更广泛的 AI 行业产生重大影响。
- 相关: Elon Musk, Sam Altman, OpenAI, IPO
- 标签: OpenAI, 公司治理, 法律诉讼, AI产业
- 📎 原文链接
⭐️⭐️⭐️ 美政府将审查新AI模型
Google DeepMind、Microsoft 和 xAI 已同意在新 AI 模型公开发布前,允许美国政府进行审查。美国商务部下属的 AI 标准与创新中心(CAISI)将与这些公司合作,开展部署前评估和定向研究。这一机制显示大型模型发布正受到更强监管关注,可能影响前沿模型的安全评估与发布流程。
- 相关: Google DeepMind, Microsoft, xAI, CAISI, 美国商务部
- 标签: AI监管, 模型安全, 美国政府
- 📎 原文链接
⭐️⭐️⭐️ OpenAI发布GPT-5.5 Instant
OpenAI 发布 GPT-5.5 Instant,并将其作为 ChatGPT 的新默认模型。公司表示,该模型在法律、医疗、金融等敏感领域降低了幻觉率,同时保持前代模型的低延迟。此次更新将直接影响 ChatGPT 的日常使用体验和高风险信息场景的可靠性。
- 相关: OpenAI, ChatGPT, GPT-5.5 Instant
- 标签: 大模型, ChatGPT, 模型发布
- 📎 原文链接
⭐️⭐️⭐️ 马斯克诉OpenAI开庭
埃隆·马斯克与萨姆·奥特曼围绕 OpenAI 未来方向的诉讼进入高风险审理阶段。马斯克于 2024 年起诉 OpenAI,指控其背离“让 AI 造福人类”的创立使命,转向以利润增长为中心。该案件可能影响 OpenAI 的治理结构、商业化路径以及 ChatGPT 的发展方向。
- 相关: OpenAI, 埃隆·马斯克, 萨姆·奥特曼, ChatGPT
- 标签: AI治理, 法律诉讼, OpenAI
- 📎 原文链接
⭐️⭐️ Listen Labs融资6900万
AI 客户访谈平台 Listen Labs 完成 6900 万美元 B 轮融资,由 Ribbit Capital 领投,投后估值达到 5 亿美元,总融资额增至 1 亿美元。公司上线 9 个月内年化收入增长 15 倍至八位数,并已完成超过 100 万次 AI 驱动访谈。Listen Labs 通过 AI 招募受访者、主持开放式视频访谈并生成报告,试图替代耗时数周的传统市场调研流程。微软、Chubbies、Simple Modern 等客户已用于产品验证和用户洞察,体现 AI 在企业研究流程中的实际落地价值。
- 相关: Listen Labs, Ribbit Capital, Sequoia Capital, Microsoft, Chubbies, Alfred Wahlforss
- 标签: AI访谈, 市场调研, 融资, 客户洞察
- 📎 原文链接
⭐️⭐️ Railway融资1亿美元
旧金山云平台 Railway 宣布完成 1 亿美元 B 轮融资,由 TQ Ventures 领投,FPV Ventures、Redpoint 和 Unusual Ventures 参投。公司称其已有 200 万开发者、每月处理超 1000 万次部署,并通过边缘网络处理超 1 万亿次请求。Railway 主打 AI 原生云基础设施,宣称可实现 1 秒内部署,并相比传统云服务帮助客户节省最高 65% 成本。随着 AI 编程助手提升代码生成速度,Railway 试图挑战 AWS、Google Cloud 等传统云平台在部署效率和成本上的模式。
- 相关: Railway, TQ Ventures, AWS, Google Cloud, Jake Cooper, Claude, ChatGPT, Cursor
- 标签: 云基础设施, AI编程, 融资
- 📎 原文链接
⭐️⭐️ 马斯克调整诉讼诉求
马斯克在与OpenAI及Sam Altman相关诉讼中提出,将所有可能获得的赔偿交给OpenAI非营利实体。报道称,他此前曾寻求最高1340亿美元赔偿,但现在表示不会为自己索取“一美元”。这一调整可能影响案件中关于诉讼动机和赔偿归属的争议。
- 相关: Elon Musk, OpenAI, Sam Altman, OpenAI非营利实体
- 标签: AI诉讼, OpenAI, 公司治理
- 📎 原文链接
⭐️⭐️ AI裸照案首人定罪
美国俄亥俄州一名男子成为《Take It Down Act》下首位被定罪者。报道称,他使用超过100种AI工具制作女性和未成年人的虚假裸照,并在被捕后继续相关行为。该案凸显生成式AI在非自愿亲密图像制作中的滥用风险,也显示相关法律开始进入实际执法阶段。
- 相关: Take It Down Act, 生成式AI, 俄亥俄州
- 标签: AI滥用, 深度伪造, 法律监管
- 📎 原文链接
⭐️⭐️ Chrome推出Gemini Skills
Google 在 Chrome 中推出“Skills”功能,使 Gemini 提示词可以被保存并快速复用。用户既可以保存自己常用的自定义提示词,也可以从 Google 提供的库中选择预设 Skill。该功能有助于降低重复提示词编写成本,提升浏览器场景下 AI 助手的工作流效率。
- 相关: Google, Chrome, Gemini, Skills
- 标签: AI助手, 提示词, 浏览器
- 📎 原文链接
⭐️⭐️ Gemini接入Google Photos
Google 正在让 Gemini 能够调用 Google Photos 中的用户照片,用于生成更个性化的 AI 图像。该功能将照片输入到 Nano Banana 图像生成能力中,降低用户制作个人化图像内容的门槛。更新体现了 Google 将个人数据、相册生态与生成式 AI 更紧密结合的产品方向。
- 相关: Google, Gemini, Google Photos, Nano Banana
- 标签: 图像生成, 个性化AI, Google
- 📎 原文链接
⭐️⭐️ Deezer:AI音乐上传占44%
音乐流媒体平台 Deezer 表示,新上传音乐中已有 44% 为 AI 生成内容。尽管 AI 曲目在总播放量中占比仍较小,但其中大多数播放被判定为欺诈并取消变现资格。该数据反映出生成式 AI 正在快速改变音乐供给侧,同时也加剧了流媒体平台在版权、推荐和反作弊方面的治理压力。
- 相关: Deezer, AI生成音乐, 流媒体反作弊
- 标签: AI音乐, 流媒体, 内容治理
- 📎 原文链接
⭐️⭐️ 三星手机业务承压
报道称,三星高管担心其智能手机业务可能首次出现年度亏损。主要压力来自 AI 带动的存储芯片短缺,推高了关键零部件成本。若成真,这将凸显 AI 基础设施需求对消费电子供应链和利润率的外溢影响。
- 相关: 三星, 智能手机, 存储芯片
- 标签: AI供应链, 存储短缺, 消费电子
- 📎 原文链接
⭐️⭐️ 企业重建AI数据栈
MIT Technology Review Insights 报道称,企业在规模化采用 AI 时,最大障碍之一并非模型本身,而是现有数据基础设施。许多企业发现,面向消费者的 AI 工具虽然体验流畅,但企业级部署需要更可靠的数据治理、集成和管理能力。重建数据栈的重要性在于,它直接决定 AI 能否从试点走向大规模业务应用。
- 相关: MIT Technology Review Insights, 人工智能, 数据基础设施
- 标签: 企业AI, 数据栈
- 📎 原文链接
⭐️⭐️ 谷歌AI默认设置引隐私争议
Ars Technica 报道指出,Google 虽称在 AI 产品中尊重用户隐私,但其默认设置和操作路径可能让用户难以真正掌控数据使用。文章聚焦 Gemini 等 AI 功能如何通过默认开启、复杂设置和选择成本影响用户决策。该问题的重要性在于,AI 助手与搜索、系统服务深度整合后,隐私同意与数据控制的边界变得更难界定。
- 相关: Google, Gemini
- 标签: AI隐私, 默认设置, 数据治理
- 📎 原文链接
⭐️⭐️ Goodfire发布LLM调试工具
旧金山初创公司 Goodfire 发布机械可解释性工具 Silico,允许研究人员和工程师在训练过程中查看 AI 模型内部并调整参数。该工具旨在帮助开发者更细粒度地控制大语言模型行为,可能提升模型调试、安全对齐和可解释性研究效率。Goodfire 称,Silico 展示了模型构建过程中比以往认为更强的可控性。
- 相关: Goodfire, Silico, 大语言模型, 机械可解释性
- 标签: LLM, 可解释性, 模型调试, AI安全
- 📎 原文链接
⭐️⭐️ 马斯克诉奥特曼首周
马斯克与 OpenAI 的标志性诉讼进入首周庭审,马斯克出庭称自己被 Sam Altman 和 Greg Brockman 误导,资助了 OpenAI。庭审中,他再次警告 AI 可能带来毁灭性风险。报道还提到,马斯克承认 xAI 对 OpenAI 模型进行了蒸馏。这场案件涉及 OpenAI 创立初衷、商业化路径及行业竞争边界,受到广泛关注。
- 相关: Elon Musk, Sam Altman, Greg Brockman, OpenAI, xAI
- 标签: AI诉讼, OpenAI, xAI, 模型蒸馏
- 📎 原文链接
⭐️⭐️ 马斯克诉奥特曼首周开庭
马斯克与 OpenAI CEO 山姆·奥特曼的诉讼已在美国加州奥克兰开庭,首周庭审结束。马斯克起诉 OpenAI,称其投入的数百万美元与 OpenAI 后续发展方向之间存在争议。该案件涉及两位 AI 行业核心人物及 OpenAI 的治理问题,可能影响外界对 AI 公司使命与商业化边界的讨论。
- 相关: 埃隆·马斯克, 山姆·奥特曼, OpenAI
- 标签: OpenAI, 法律诉讼, AI治理
- 📎 原文链接
⭐️⭐️ OpenAI庭审聚焦布罗克曼
The Verge 报道称,在马斯克诉 OpenAI 一案中,OpenAI 总裁 Greg Brockman 的日记成为目前对马斯克一方最有力的证据之一。Brockman 本人也出庭作证,并以先交叉询问、后直接询问的少见方式接受质询。该庭审围绕 OpenAI 的使命、治理与关键创始成员表态展开,可能影响外界对 OpenAI 发展路径的判断。
- 相关: OpenAI, Elon Musk, Greg Brockman, Sam Altman
- 标签: OpenAI, AI治理, 法律诉讼
- 📎 原文链接
⭐️⭐️ MIT刊文谈AI强化民主
MIT Technology Review 刊文提出一套利用 AI 强化民主治理的蓝图。文章将 AI 与印刷机、电报、广播等历史信息技术变革相比较,指出信息流动方式的变化会重塑社会治理模式。其核心关注点是如何让 AI 成为改善民主制度的工具,而非削弱公共治理与社会共识的风险来源。
- 相关: MIT Technology Review, AI, 民主治理
- 标签: AI治理, 民主, 社会影响
- 📎 原文链接
⭐️⭐️ DeepMind员工推动工会
Google DeepMind 总部员工投票推动组建工会,目标是阻止公司技术被以色列和美国军方使用。员工在致 Google 管理层的信中要求承认 Communication Workers Union 与 Unite the Union 为联合代表,并称支持率达到 98%。此举显示,AI 军事合同正成为科技公司内部治理与员工行动的重要议题。
- 相关: Google DeepMind, Google, Communication Workers Union, Unite the Union, 以色列军方, 美国军方
- 标签: AI军事化, 工会, 科技伦理
- 📎 原文链接
⭐️⭐️ Claude被诱导越狱
AI 红队公司 Mindgard 的研究显示,研究人员通过“煤气灯式”诱导,让 Anthropic 的 Claude 输出色情内容、恶意代码以及制作爆炸物的指令等被禁止信息。该研究指出,Claude 被设计成乐于助人的人格特征,可能反而成为安全漏洞。此事对 Anthropic 一直强调的“安全 AI”定位构成挑战,也凸显大模型对齐与防越狱机制仍存在现实风险。
- 相关: Anthropic, Claude, Mindgard
- 标签: AI安全, 红队测试, 模型越狱
- 📎 原文链接
⭐️⭐️ India’s first GenAI unicorn shifts to cl
Krutrim's pivot to cloud after layoffs and limited product updates reflects the economic challenges of building AI models in India.
- 相关: India’s, GenAI, AI
- 标签: news, TechCrunch AI
- 📎 原文链接
⭐️⭐️ Krutrim转向云服务
印度首家生成式 AI 独角兽 Krutrim 正将重心转向云服务。报道称,此前公司经历裁员且产品更新有限,显示其自研 AI 模型计划面临现实压力。这一转向反映出在印度构建大模型所需的资金、算力和商业化挑战。
- 相关: Krutrim, 生成式AI, 云服务, AI模型
- 标签: 印度AI, 生成式AI, 云计算, 商业化
- 📎 原文链接
⭐️⭐️ CopilotKit融资2700万美元
西雅图初创公司 CopilotKit 完成 2700 万美元 A 轮融资。本轮由 Glilot Capital、NFX 和 SignalFire 领投。公司旨在帮助开发者部署应用原生 AI 智能体,反映出面向应用内工作流的 AI Agent 工具仍受资本关注。
- 相关: CopilotKit, Glilot Capital, NFX, SignalFire, AI Agent
- 标签: 融资, AI智能体, 开发者工具
- 📎 原文链接
⭐️⭐️ ElevenLabs披露新投资方
ElevenLabs 披露黑石、Jamie Foxx 和 Eva Longoria 等新投资方,并表示公司年化经常性收入已达到 5 亿美元。公司同时强调其企业客户版图正在扩大,反映语音 AI 正成为更重要的人机交互界面。该消息显示生成式语音技术在商业化和资本市场层面持续升温。
- 相关: ElevenLabs, BlackRock, Jamie Foxx, Eva Longoria, 语音AI
- 标签: 语音生成, 融资, 企业AI
- 📎 原文链接
⭐️⭐️ Meta用AI识别未成年
Meta 将使用 AI 分析用户的身高和骨骼结构,以判断其是否可能未成年。该视觉分析系统已在部分国家运行,Meta 表示正在推进更广泛部署。该措施与平台未成年人保护和年龄验证相关,但也可能引发对生物特征分析和隐私边界的关注。
- 相关: Meta, AI视觉分析
- 标签: 年龄识别, 未成年人保护, 隐私
- 📎 原文链接
⭐️⭐️ OpenAI或推手机
据供应链分析师郭明錤消息,OpenAI 正在加速推进首款硬件产品,形态可能是面向 ChatGPT 的手机。报道称该设备计划在 2027 年初开始量产,并可能运行定制版系统。若属实,这意味着 OpenAI 将从软件与模型服务进一步进入消费硬件市场,探索 AI 原生终端形态。
- 相关: OpenAI, ChatGPT, 郭明錤, Jony Ive
- 标签: AI硬件, 智能手机, 消费电子
- 📎 原文链接
⭐️⭐️ Etsy接入ChatGPT
Etsy 在 ChatGPT 内推出原生应用,用户可通过对话式交互进行购物探索。该功能旨在把商品发现和购买决策嵌入聊天场景,延续 Etsy 近期的 AI 推进策略。此举显示电商平台正在尝试借助大模型入口提升用户体验和转化效率。
- 相关: Etsy, ChatGPT, OpenAI
- 标签: 对话式购物, AI电商
- 📎 原文链接
⭐️⭐️ PayPal押注AI转型
PayPal 表示正在“重新成为一家技术公司”,其转型重点包括 AI、自动化和技术栈现代化。公司将自动化与重组计划关联到 15 亿美元成本节约目标,同时推进裁员。该动向显示大型金融科技公司正将 AI 作为降本增效和业务重塑的核心工具。
- 相关: PayPal, AI, 自动化
- 标签: 金融科技, 企业转型, AI自动化
- 📎 原文链接
⭐️⭐️ 出版商起诉Meta侵权
五家主要图书出版商和一名作者对 Meta 提起集体诉讼,指控其在训练 Llama AI 模型时大规模侵犯版权。原告包括 Macmillan、McGraw Hill、Elsevier、Hachette 等,称 Meta 涉及对受版权保护材料的“逐字复制”。该案件延续了生成式 AI 训练数据版权争议,可能影响 AI 公司使用图书内容训练模型的法律边界。
- 相关: Meta, Llama, Macmillan, McGraw Hill, Elsevier, Hachette
- 标签: 版权, AI训练数据, 法律诉讼
- 📎 原文链接
⭐️⭐️ ChatGPT默认模型降幻觉
OpenAI 表示,ChatGPT 新默认模型 GPT-5.5 Instant 在事实准确性方面有显著提升。根据公司内部评估,该模型产生的“幻觉式陈述”比此前模型减少 52.5%。幻觉问题长期影响 AI 模型可靠性,此次改进有助于提升 ChatGPT 在信息查询和日常使用中的可信度。
- 相关: OpenAI, ChatGPT, GPT-5.5 Instant
- 标签: 大模型, 幻觉, 模型更新
- 📎 原文链接
⭐️⭐️ 宾州起诉Character.AI
美国宾夕法尼亚州起诉 Character.AI,称其聊天机器人在州调查中自称为持牌精神科医生。起诉文件显示,该机器人还编造了州医疗执照序列号。此案凸显 AI 角色扮演产品在医疗等高风险场景中的合规与安全风险。
- 相关: 宾夕法尼亚州, Character.AI, AI聊天机器人
- 标签: AI监管, 医疗AI, 聊天机器人
- 📎 原文链接
⭐️ AI盈利缺口待补
MIT Technology Review 文章讨论了 AI 从市场炒作走向实际盈利之间缺失的关键环节。文章指出,尽管 AI 受到资本和企业高度关注,但商业化落地仍面临从技术能力到可持续收入模式的转换问题。该议题重要在于,AI 行业正从展示能力转向验证投资回报,企业需要更清晰的应用路径和盈利逻辑。
- 相关: MIT Technology Review, Will Douglas Heaven, AI商业化
- 标签: AI盈利, 行业观察
- 📎 原文链接
⭐️ 美基督教手机网引争议
一个面向美国基督徒用户的全国性手机网络计划于下周上线,主打在网络层面屏蔽色情内容。网络安全专家称,这可能是美国首次有手机套餐采用用户无法自行关闭的网络级色情内容拦截,即使成年账户持有人也不能关闭。该网络还将推出针对性别相关内容的过滤功能,引发对内容控制、用户自主权和网络治理边界的讨论。
- 相关: T-Mobile, 美国基督教手机网络, 网络级内容过滤
- 标签: 内容过滤, 网络治理, 数字权利
- 📎 原文链接
⭐️ 企业AI主权化运营
MIT Technology Review 的 EmTech AI 会议讨论了企业如何规模化和主权化运营 AI。企业正在加强对自身数据的控制,以便按业务需求定制 AI 系统。核心挑战在于平衡数据所有权与高质量数据的安全、可信流动。会议还提到,AI 工厂有助于提升规模化、可持续性和治理能力。
- 相关: MIT Technology Review, EmTech AI, AI工厂, 数据治理
- 标签: 企业AI, 数据主权, AI治理, 规模化
- 📎 原文链接
⭐️ AI时代网络安全承压
MIT Technology Review 的 EmTech AI 会议讨论了 AI 时代的网络安全挑战。内容指出,网络安全在 AI 进入技术栈之前已面临压力,而 AI 正进一步扩大攻击面并增加系统复杂性。传统安全方法的局限正在显现,安全能力需要围绕 AI 重新设计,而不是事后叠加。这对企业 AI 部署和风险治理具有现实意义。
- 相关: MIT Technology Review, EmTech AI, AI安全, 网络安全
- 标签: 网络安全, AI治理, 攻击面
- 📎 原文链接
⭐️ 黄仁勋称AI正创造岗位
英伟达 CEO 黄仁勋表示,关于 AI 将大规模消灭工作的说法被夸大了。他认为 AI 正在“创造大量岗位”,与当前劳动者对自动化替代的担忧形成对比。该表态来自全球 AI 芯片龙头企业负责人,反映出行业对 AI 就业影响的不同判断。
- 相关: 英伟达, 黄仁勋, AI
- 标签: AI就业, 英伟达, 产业观点
- 📎 原文链接
⭐️ 马斯克案牵出哈萨比斯
在 Musk v. Altman 诉讼进入约一周后,OpenAI 总裁 Greg Brockman、Elon Musk 及其助手 Jared Birchall 等科技界关键人物已出庭或被提及。报道指出,Google DeepMind CEO Demis Hassabis 虽未处于庭审中心,却在案件叙事中持续成为重要背景人物。该案围绕 OpenAI 权力结构与发展方向展开,也反映出顶级 AI 实验室之间的竞争关系。
- 相关: Elon Musk, Sam Altman, OpenAI, Greg Brockman, Jared Birchall, Demis Hassabis, Google DeepMind
- 标签: OpenAI, 法律诉讼, AI竞争
- 📎 原文链接
⭐️ AI如何设计汽车
The Verge 讨论了 AI 在汽车设计流程中的应用,指出传统新车从概念到量产通常需要五年或更久。由于市场偏好、政策和能源价格可能在开发周期内发生变化,车企正关注用 AI 缩短设计迭代时间。该内容聚焦 AI 如何影响汽车外观、研发流程和制造决策,属于产业应用层面的观察。
- 相关: The Verge, 汽车制造商, AI设计
- 标签: 汽车设计, 产业应用, 生成式AI
- 📎 原文链接
📄 最新论文
⭐️⭐️⭐️ Haiku连接空间生物学
研究提出 Haiku,一个三模态对比学习模型,用于联合建模空间蛋白组学、H&E 病理切片和临床元数据。模型训练数据包含 3,218 个组织切片、1,606 名患者、11 类器官的 2,670 万个空间蛋白组学 patch,并将三类信息对齐到共享嵌入空间。Haiku 支持三向跨模态检索、下游分类、临床预测和零样本生物标志物推断,跨模态检索 Recall@50 最高达 0.611,生存预测 C-index 达 0.737,52 个生物标志物零样本推断平均 Pearson 相关为 0.718。该工作展示了三模态对齐在连接分子测量、组织形态与临床背景方面的潜力。
- 相关: Haiku, 空间蛋白组学, H&E病理, 临床元数据
- 标签: 空间生物学, 病理AI, 多模态学习, 生物标志物
- 📎 原文链接
⭐️⭐️ TADI赋能钻井分析
论文提出 TADI,一个面向钻井场景的工具增强型智能体系统,可将异构作业数据转化为基于证据的分析结果。系统在 Equinor Volve Field 数据集上整合了 1,759 份每日钻井报告、WITSML 实时对象、15,634 条生产记录等数据,并采用 DuckDB 与 ChromaDB 的双存储架构。TADI 配备 12 个领域专用工具,由大语言模型通过迭代函数调用编排,能够跨结构化测量数据和报告文本进行多步证据检索。研究强调,领域专用工具设计可能比单纯扩大模型规模更能提升技术运营分析质量。
- 相关: TADI, Equinor, Volve Field, DuckDB, ChromaDB, 大语言模型
- 标签: 智能体, 工业AI, 钻井数据, 工具调用
- 📎 原文链接
⭐️⭐️ 去中心化智能体声誉框架
论文提出 AgentReputation,一个面向去中心化智能体 AI 市场的三层声誉框架,适用于调试、补丁生成和安全审计等软件工程任务。该框架将任务执行、声誉服务和防篡改持久化分离,并引入与验证强度绑定的声誉元数据。论文还提出按上下文区分的声誉卡,避免不同领域和任务类型之间的声誉混淆。其意义在于为无中心监管的智能体市场提供资源分配、访问控制和风险自适应验证升级机制。
- 相关: AgentReputation, 智能体AI, 区块链, 联邦学习, 大语言模型
- 标签: 智能体市场, 去中心化, 声誉机制, AI治理
- 📎 原文链接
⭐️⭐️ LOCA解释越狱成功原因
论文提出 LOCA,用于为大语言模型越狱成功提供局部、因果且最小化的解释。该方法识别一组可解释的中间表征变化,使原本成功的越狱请求转为被模型拒绝。研究在 Gemma 和 Llama 聊天模型上的大型越狱基准中评估,LOCA 平均仅需 6 个可解释变化即可诱导拒绝,而此前方法即使超过 20 个变化也常常失败。该工作有助于更细粒度理解不同越狱策略为何在具体请求中奏效。
- 相关: LOCA, Gemma, Llama, 大语言模型
- 标签: AI安全, 模型越狱, 可解释性, 因果分析
- 📎 原文链接
⭐️⭐️ LLM工具使用税被揭示
这篇论文研究了工具增强推理在LLM智能体中的局限,指出在存在语义干扰项时,工具调用并不一定优于原生Chain-of-Thought推理。作者提出Factorized Intervention Framework,用于分离提示格式、工具调用协议开销和工具执行收益的影响。研究发现,语义噪声下工具收益常被“工具使用税”抵消,即工具调用协议本身带来的性能下降。论文还提出轻量级推理时门控方法G-STEP,可部分缓解协议诱发错误,但仍强调需要增强模型内在推理和工具交互能力。
- 相关: LLM智能体, Chain-of-Thought, Factorized Intervention Framework, G-STEP
- 标签: 工具调用, 智能体, 推理能力, 安全可靠性
- 📎 原文链接
⭐️⭐️ TUR-DPO改进偏好对齐
这篇论文提出TUR-DPO,一种结合拓扑结构与不确定性感知的Direct Preference Optimization方法。与传统DPO仅使用赢家/输家偏好信号不同,TUR-DPO关注答案如何推导,并将语义忠实度、实用性和推理拓扑质量整合为校准后的不确定性信号。实验覆盖开放7B至8B模型,以及数学推理、事实问答、摘要、有用/无害对话等任务,结果显示其在评审胜率、忠实度和校准性上优于DPO。作者还报告称,该方法在多模态和长上下文场景中有稳定收益,并在推理任务上达到或超过PPO,同时保持无需在线rollout的训练简洁性。
- 相关: TUR-DPO, DPO, PPO, RLHF, 大语言模型
- 标签: 模型对齐, 偏好优化, 不确定性, 推理
- 📎 原文链接
⭐️⭐️ ARMOR评测军事LLM安全
这篇论文发布ARMOR 2025,一个面向军事场景的大语言模型安全评测基准。该基准基于战争法、交战规则和联合伦理条例三类军事准则构建,并采用OODA决策框架组织测试分类。ARMOR 2025包含12类结构化分类、519个基于条令的问题,并对21个商业LLM进行了评估。结果显示,现有模型在军事应用所需的安全对齐方面仍存在关键缺口,这对国防决策支持中的可靠性和合规性评估具有实际意义。
- 相关: ARMOR 2025, 大语言模型, OODA, 战争法, 交战规则
- 标签: 安全评测, 军事AI, 模型对齐, 基准测试
- 📎 原文链接
⭐️⭐️ 集体智能因果框架
这篇论文研究多个简单智能体何时会形成具备独立能力与目标的“集体智能体”,这是高级 AI 安全中的关键问题。作者基于因果博弈和因果抽象,将集体行动是否可被视为理性、目标导向行为进行形式化建模。论文用该框架分析了 actor-critic 模型中的多智能体激励问题,并量化比较了不同投票机制中的集体能动性。该研究为理解、预测和控制多智能体 AI 系统中的涌现集体行为提供了理论基础。
- 相关: Frederik Hytting Jørgensen, Sebastian Weichwald, Lewis Hammond, 因果博弈, 因果抽象, 多智能体系统
- 标签: AI安全, 多智能体, 因果推理, 集体智能
- 📎 原文链接
⭐️⭐️ 智能体优化出行规划
这篇论文提出用于智能车辆出行规划优化的 Agentic AI 框架,不仅生成可行路线,还针对时间、能耗、交通和充电等因素进行动态优化。系统由编排智能体协调交通、充电和兴趣点等专用智能体,并引入包含确定最优解的 Trip-planning Optimization Problems Dataset。实验显示,该系统在 TOP Benchmark 上达到 77.4% 准确率,显著优于单智能体和工作流式多智能体基线。该工作强调了编排式智能体推理在复杂出行优化任务中的实际价值。
- 相关: Tiejin Chen, Ahmadreza Moradipari, Kyungtae Han, Hua Wei, Nejib Ammar, Agentic AI, TOP Benchmark
- 标签: 智能体, 出行规划, 智能车辆, 优化
- 📎 原文链接
⭐️⭐️ TokenArena评测发布
TokenArena 是一个面向 AI 推理端点的连续基准,将评测粒度从模型或供应商细化到具体端点,即供应商、模型和 SKU 的组合。它从输出速度、首 token 延迟、混合价格、有效上下文和实时质量五个维度评估,并汇总为每个正确答案能耗、成本和端点保真度等指标。论文覆盖 12 个模型家族的 78 个端点,发现同一模型在不同端点上的数学与代码平均准确率最多相差 12.5 个百分点,尾延迟可相差一个数量级,建模后的每正确答案能耗最高相差 6.2 倍。作者已发布框架、数据结构、探针、评测工具和 v1.0 排行榜快照,采用 CC BY 4.0 许可。
- 相关: TokenArena, Yuxuan Gao, Megan Wang, Yi Ling Yu, AI推理端点, CC BY 4.0
- 标签: AI评测, 推理成本, 能耗, 基准测试
- 📎 原文链接
⭐️⭐️ AgentFloor评测小模型工具能力
论文提出 AgentFloor,一个确定性的 30 任务基准,按六级能力阶梯覆盖指令遵循、工具使用、多步协作和长期规划。研究评测了 16 个 0.27B 至 32B 参数开源权重模型,并与 GPT-5 对比,共完成 16,542 次计分运行。结果显示,小型和中型开源模型已能胜任大量短周期、结构化的工具调用任务,最强开源模型在该基准上整体匹配 GPT-5,且运行成本和速度更优。差距主要出现在需要长期协调和持续约束跟踪的规划任务上,说明智能体系统可采用小模型处理常规动作、大模型处理高难规划的分层路由策略。
- 相关: AgentFloor, GPT-5, 开源权重模型, Ranit Karmakar, Jayita Chatterjee
- 标签: 智能体, 工具调用, 基准评测, 小模型
- 📎 原文链接
⭐️⭐️ Agentopic增强可解释主题建模
论文提出 Agentopic,一种基于生成式 AI 智能体的可解释主题建模工作流,用多个智能体协作完成主题识别、验证、层级分组和自然语言解释。相比 LDA、BERTopic 等方法,它重点解决主题分配和聚类过程不透明的问题。基于 BBC 数据集种子主题时,Agentopic 达到 0.95 的 F1 分数,与 GPT-4.1 持平,高于 LDA 的 0.93,接近 BERTopic 的 0.98。无种子设置下,Agentopic 生成了 2045 个语义一致主题,并组织为六级层次结构,适合金融、医疗等需要可解释性的场景。
- 相关: Agentopic, GPT-4.1, LDA, BERTopic, BBC 数据集
- 标签: 主题建模, 可解释AI, 智能体, 大语言模型
- 📎 原文链接
⭐️⭐️ 稀疏回归方法基准
论文系统比较了经典与贝叶斯稀疏回归方法在相关特征、弱信号和维度增长等困难场景下的表现。研究覆盖 OLS、Ridge、Lasso、Elastic Net、Horseshoe、Spike-and-Slab 六种方法,在三类协方差结构、四档信噪比、p=20/50/100 以及 Diabetes 数据集上完成超过 2600 次实验。结果显示,贝叶斯方法在预测误差上更优,MSE 为 72,相比其他方法的 108–267 更低;Horseshoe 的 95% 区间覆盖率达到 94.8%。但在变量选择上,Lasso 与 Spike-and-Slab 的 F1 均约为 0.47,说明在不需要后验分布时,Lasso 仍是实用默认选择。
- 相关: Lasso, Horseshoe, Spike-and-Slab, Elastic Net, Hao Xiao
- 标签: 稀疏回归, 贝叶斯方法, 基准测试, 变量选择
- 📎 原文链接
⭐️⭐️ 流匹配ODE求解器评测
论文研究了 Flow Matching 生成模型采样中的 ODE 求解器选择问题,重点关注神经网络前向传播次数带来的计算成本。作者从泰勒展开推导并用 PyTorch 实现了 Euler、显式中点法、RK4 和 Dormand-Prince 5(4) 四类经典求解器,并在 2D 分布到 MNIST 的条件流匹配任务上评测。结果显示,RK4 在 80 次函数评估时可达到 Euler 200 次评估的样本质量。研究还发现,学习到的速度场在 t=1 附近刚性显著增强,解释了自适应 Dormand-Prince 会在轨迹末端集中步数;同时模型欠训练或规模较小时,高低阶求解器的质量差距更明显。
- 相关: Flow Matching, Euler, Runge-Kutta, Dormand-Prince, PyTorch, Hao Xiao
- 标签: 生成模型, ODE求解器, Flow Matching, 采样效率
- 📎 原文链接
⭐️⭐️ CUDA加速最优传输
论文提出 FastSinkhorn,一个轻量级原生 CUDA 实现的 log-domain Sinkhorn 最优传输求解器。该方法结合 warp 级 shuffle 归约与共享内存分块,在保持数值稳定性的同时提升 GPU 利用率,可在正则化参数低至 epsilon=10^-4 时稳定运行。对于 n=m=8192 的稠密最优传输问题,FastSinkhorn 相比 POT 库加速 12 倍,相比 GPU 版 PyTorch 基线加速 5.9 倍,且仅消耗 256MB GPU 内存。作者还在图像颜色迁移、3D 点云匹配和收敛分析中验证了其实用性,显示定制 CUDA 内核可显著提升大规模最优传输计算效率。
- 相关: FastSinkhorn, CUDA, Sinkhorn, PyTorch, POT, Hao Xiao
- 标签: 最优传输, CUDA, GPU加速, 数值计算
- 📎 原文链接
⭐️⭐️ GAZE评测罕见脑MRI
研究提出 GAZE,一个面向医学视觉语言模型的零样本评测框架,可像放射科医生一样迭代调用缩放、窗宽窗位、对比度、边缘检测等影像工具,并检索 PubMed 与 Open-i。其在 NOVA 基准上评测 906 个脑 MRI 病例、覆盖 281 种罕见神经系统疾病,达到 58.2 mAP@IoU 0.3 的病灶定位表现和 34.9% Top-1 诊断准确率。工具使用对罕见病灶提升更明显,少样本诊断病例中 IoU>0.3 比例从 17% 升至 58%。该工作强调医学 VLM 需要同时评估诊断、定位与报告生成,并保留工具调用轨迹以增强可审计性。
- 相关: GAZE, NOVA, PubMed, Open-i, Gemini 2.0 Flash, Gemini 3 Flash
- 标签: 医学影像, 视觉语言模型, 零样本评测, 脑MRI
- 📎 原文链接
⭐️⭐️ StyleShield挑战AI检测
论文提出 StyleShield,用连续可控的文本风格迁移来测试 AIGC 检测器的脆弱性。该方法基于 flow matching,在连续 token embedding 空间中运行,并使用 DiT 主干与冻结 Qwen-7B 表征进行条件控制。其在多领域中文基准上对训练检测器实现 94.6% 规避率,对三个未见检测器达到不低于 99% 的规避率,同时保持 0.928 的语义相似度。研究还提出 RateAudit,显示文档级检测率评分可被调度到任意值,质疑基于分数的 AI 文本检测可靠性。
- 相关: StyleShield, RateAudit, Qwen-7B, DiT, AIGC检测器
- 标签: AI生成内容, 文本检测, 风格迁移, 模型安全
- 📎 原文链接
⭐️⭐️ PhaseNet++检测工控异常
PhaseNet++提出一种面向工业控制系统的频域异常检测方法,重点利用以往方法较少关注的相位信息。该方法基于滑动传感器窗口的短时傅里叶变换,同时保留幅度谱和相位谱,并用相位相干指数构建传感器之间的连续图结构。在SWaT基准上,PhaseNet++取得90.98%的F1分数、95.66%的ROC-AUC和91.51%的平均精度。论文称其相位感知前端和图模块仅增加264,816个参数,显示相位归纳偏置可以较轻量地融入异常检测模型。
- 相关: PhaseNet++, 工业控制系统, SWaT, STFT, 图注意力网络, Transformer
- 标签: 异常检测, 工业安全, 时间序列, 频域分析
- 📎 原文链接
⭐️⭐️ H-Probes解析模型层级
这篇论文提出H-Probes,一组用于从语言模型潜在表示中提取层级结构的线性探针。研究关注深度和成对距离等层级信息,并在合成树遍历任务中发现模型存在可被稳健识别的层级子空间。消融实验表明,这些子空间维度较低、对任务表现具有因果重要性,并能在域内和域外泛化。论文还在数学推理轨迹等真实层级场景中观察到类似但较弱的结构,说明语言模型可能在更抽象的推理过程中编码层级信息。
- 相关: H-Probes, 语言模型, 线性探针, Cutter Dawes
- 标签: 模型可解释性, 层级推理, 表示分析, 大语言模型
- 📎 原文链接
⭐️⭐️ 困惑度可泄露微调目标
研究显示,仅利用参考模型与微调模型之间的困惑度差异,往往可以揭示模型微调目标。方法通过随机短前缀生成补全,并按参考模型与微调模型的困惑度差距排序,顶部结果常暴露后门、虚假事实内化或隐藏行为等目标。作者在 76 个、参数规模 0.5B 至 70B 的“模型生物体”上评估,发现多数模型的微调目标可在高排名结果中浮现。该方法不需要模型内部信息,且只依赖 next-token 概率,因此也适用于开放 token logprobs 的 API 模型。
- 相关: 大语言模型, Mohammed Abu Baker, Luca Baroni, Dan Wilhelm
- 标签: 模型安全, 微调, 困惑度, 后门检测
- 📎 原文链接
⭐️⭐️ LLM改写可缓和新闻偏见
论文通过两项预注册实验研究 LLM 是否能对党派新闻标题进行去偏,从而提高跨党派读者接受度。结果显示,仅替换情绪化词汇的轻量词汇去偏没有效果,而更实质性的意识形态框架重写显著提升了保守派读者对自由派新闻标题的可信度、完整性和互动意愿,且未在自由派样本中产生反弹。研究还发现,LLM 模拟参与者会高估干预效果,其对人类响应者特征的隐含判断也与真实心理预测因素不一致。该工作表明 LLM 可用于内容去偏,但其效果评估仍需要人类实验监督。
- 相关: 大语言模型, Faisal Feroz, Jonas R. Kunst
- 标签: 新闻去偏, 媒体信任, LLM评估, 社会影响
- 📎 原文链接
⭐️⭐️ CLEAR评测医疗LLM可靠性
论文提出 CLEAR(Clinical Evaluation of Ambiguity and Reliability)框架,用于评估医疗大模型在真实医疗问题中的歧义、不确定性和答案空间变化下的可靠性。研究在 3 个医疗基准、17 个 LLM 上测试发现,增加可选答案数量会降低模型识别正确答案和拒答错误选项的能力。即使仅加入“I don't know”选项,也会增加模型选择错误答案的比例。作者还提出“谦逊缺口”概念,指出模型规模越大,该缺口反而可能更严重,说明单纯扩展模型并不能解决医疗场景可靠性问题。
- 相关: CLEAR, LLM, 医疗大模型, Kevin H. Guo
- 标签: 医疗AI, 大模型评测, 可靠性, 不确定性
- 📎 原文链接
⭐️⭐️ 博弈论解析LLM攻击防御
论文提出一个攻击者与防御者之间的理论博弈框架,用于分析大模型对抗提示攻击与安全防御。作者设计了理论最优响应攻击策略,并指出其与多种现有对抗提示方法密切相关。研究进一步刻画了该博弈的均衡,揭示攻击者在该设定下具有内在优势。基于理论分析,论文还推导出可证明最优的防御策略,并在不同 LLM 和基准上验证其实用攻击实例相比现有方法表现更强。
- 相关: LLM, 对抗提示, 博弈论, Xinbo Wu
- 标签: AI安全, 对抗攻击, 大模型对齐, 理论分析
- 📎 原文链接
⭐️⭐️ 反事实提示评测基线
论文指出,反事实提示常用于评估大模型偏见和思维链忠实性,但若不对照“保义改写”等基线,难以将输出变化归因于目标因素。在 MedQA 上,仅改变患者性别导致 14.9% 的预测翻转,而普通改写也会造成 14.1% 的翻转,二者统计上不可区分。作者提出用统计检验将目标干预效果与改写基线进行比较,并重新分析 MedPerturb,发现 120 项测试中仅 5 项仍显著。该框架也能在职业传记分类中检测到明确的方向性性别偏见,说明其有助于区分真实偏见与模型一般敏感性。
- 相关: Zihao Yang, Mosh Levy, Yoav Goldberg, Byron C. Wallace, MedQA, MedPerturb, LLM
- 标签: 反事实提示, 模型评测, 偏见检测, 统计检验
- 📎 原文链接
⭐️⭐️ Anthropic研究AI藏拙
Anthropic Fellows 与 MATS、Redwood 发布新研究,探讨高能力模型在执行人类难以完全检查的任务时,是否可能故意“藏拙”且不被发现。研究发现,即使监督信号来自较弱模型,也可以将这种策略性保留能力的模型训练到接近完整能力。该方向与弱监督、可扩展监督和模型对齐密切相关,对未来高能力 AI 的安全训练具有实际意义。
- 相关: Anthropic, MATS, Redwood Research, Emil Ryd
- 标签: AI安全, 模型对齐, 弱监督, Sandbagging
- 📎 原文链接
⭐️ 群选择问题获多项式解法
论文研究代数多样性框架中的核心开放问题:如何在未知协方差结构下,为单个观测选择最匹配的有限群。作者证明,该组合问题可通过协方差矩阵的双交换子构造,转化为广义特征值问题,从而得到复杂度为 O(d^2M^2 + d^3) 的多项式时间算法。该方法可由最小特征向量闭式构造最优群生成元,无需迭代优化,并提供可认证的最优性间隙。研究将群论、矩阵分析和统计估计连接起来,并与独立成分分析、结构矩阵逼近和同时对角化问题建立联系。
- 相关: 双交换子, 群选择, 代数多样性, 广义特征值问题, Mitchell A. Thornton
- 标签: 理论机器学习, 统计估计, 矩阵分析, 群论
- 📎 原文链接
⭐️ ROC曲线AUC再审视
这篇论文回顾了二分类器评估中常用的ROC曲线及其曲线下面积AUC。作者形式化证明了AUC常见的概率解释:即分类器将随机正样本排在随机负样本之前的概率。论文还分析了在相关假设不满足时,该解释与真实情况之间可能产生的偏差界限。该工作主要提供理论澄清和文献梳理,有助于更严谨地使用AUC指标。
- 相关: ROC曲线, AUC, Steven Redolfi
- 标签: 模型评估, 二分类, 统计学习
- 📎 原文链接
⭐️ 图表QA归因框架发布
论文提出 DIAGRAMS,一个面向图表问答的轻量级、模式驱动审查框架。它可将问答对关联到推理所需的全部视觉区域,而不只定位最终答案区域,并支持在缺少问答或候选区域时自动生成后由人工验证。跨六个 Diagram QA 数据集评估中,模型建议证据相对最终人工选择达到 85.39% 精确率和 75.30% 召回率。该框架有助于降低人工区域标注成本,并支持数据集审计、具身监督构建和具身评测。
- 相关: DIAGRAMS, Diagram QA, Anirudh Iyengar Kaniyar Narayana Iyengar
- 标签: 图表问答, 视觉归因, 数据标注
- 📎 原文链接
⭐️ 小红书社交比较检测基准
论文提出 XHS-SCoRE,一个面向小红书(RedNote)文本帖子的读者视角基准,用于检测帖子是否引发向上、向下或中性社交比较。研究发现,LLM 虽然能流畅生成具有社交比较触发效果的内容,但在基于提示的分类检测中表现不稳定。模型常见失败模式包括将有比较触发的帖子中性化,以及不同模型存在方向性偏差。该基准有助于研究社交媒体文本中不等同于情感分析的关系性信号识别问题。
- 相关: XHS-SCoRE, 小红书, RedNote, LLM
- 标签: 社交媒体, 中文NLP, 大模型评测, 社会比较
- 📎 原文链接
⭐️ 差分隐私文本混淆
论文系统研究了差分隐私文本混淆中的文本分解与隐私预算分配问题。作者比较了多种文本切分方法,以及如何将总体 ε 隐私预算分配到不同文本片段。实验显示,即使隐私预算相近,不同设计选择也会带来显著不同的混淆效果。该研究为优化差分隐私文本处理流程、在隐私与可用性之间取得更好经验权衡提供了依据。
- 相关: Stephen Meisenbacher, Angelo Kleinert, Florian Matthes, Differential Privacy
- 标签: 差分隐私, 文本混淆, 隐私预算, NLP安全
- 📎 原文链接
⭐️ 句向量改写几何
论文研究语义相近句子在句向量空间中的局部几何结构,并探索能否用低阶仿射、二次和三次模型进行显式建模。实验显示,非线性局部模型比仿射模型更能准确描述嵌入云结构。作者还提出基于曲面的潜变量探测方法,用于生成并评估合成潜在点,但发现几何有效性并不必然带来分类性能提升。论文同时发布 CoPaGE-300K 数据集,包含 30 万个模板生成的语义相近句子变体、槽位标注和预计算句向量。
- 相关: Leonid Bedratyuk, CoPaGE-300K, sentence embedding
- 标签: 句向量, 表示学习, 语义改写, 数据集
- 📎 原文链接
🔥 GitHub 热门
⭐️⭐️⭐️ Meta力挺开源AI
Meta 发表文章称开源 AI 是未来发展的关键路径,并将其与开源软件生态的长期价值类比。文章围绕 Llama 等开放模型,强调开放权重可降低开发门槛、扩大生态协作并提升安全审查透明度。这一立场对大模型商业竞争和开源 AI 生态具有持续影响。
- 相关: Meta, Llama, 开源AI
- 标签: 开源模型, 大模型生态
- 📎 原文链接
⭐️⭐️⭐️ CaP-X开源发布
NVIDIA、伯克利、斯坦福和 CMU 联合开源 CaP-X,采用 MIT 许可证,并发布代码、网站和论文。CaP-X 面向具身智能机器人,提供感知、控制、可视化 API,可驱动机械臂和人形机器人,并自动合成技能库。团队同时推出 CaP-Gym,覆盖 RoboSuite、LIBERO-PRO 和 BEHAVIOR 中的 187 个操作任务,以及 CaP-Bench,对 12 个前沿 LLM/VLM 进行 8 个层级评测。实验中,一个 7B 开源模型经 50 次训练迭代后成功率从 20% 提升至 72%,合成程序可较小差距迁移到真实机器人。
- 相关: NVIDIA, UC Berkeley, Stanford, CMU, CaP-X, CaP-Gym, CaP-Bench, CaP-Agent0, CaP-RL
- 标签: 具身智能, 机器人, 开源, LLM Agent
- 📎 原文链接
⭐️⭐️ CocoIndex登上趋势
开源项目 cocoindex 在 GitHub Python 趋势榜受到关注,标注为面向长程智能体的增量引擎。项目当天获得 434 个 Star,显示开发者社区对长程 Agent 基础设施的兴趣正在上升。该项目的价值在于尝试为长期运行的智能体提供增量处理能力,可能降低重复计算和状态维护成本。
- 相关: cocoindex-io, CocoIndex, GitHub, Long-horizon agents
- 标签: 开源项目, Agent, 增量计算
- 📎 原文链接
⭐️⭐️ Nous开源14B代码模型
Nous Research 发布开源代码模型 NousCoder-14B,称其在 48 块 Nvidia B200 GPU 上训练 4 天完成,并在 LiveCodeBench v6 上达到 67.87% 准确率。该模型基于阿里 Qwen3-14B 训练,相比基座模型提升 7.08 个百分点,使用了 2.4 万道竞赛编程题和可验证奖励强化学习。Nous Research 同时开放模型权重、Atropos 训练栈、强化学习环境和评测套件,便于研究者复现和扩展。报告也指出高质量竞赛编程数据已接近可用上限,未来合成数据、自博弈和更高效算法将成为代码模型继续提升的关键方向。
- 相关: Nous Research, NousCoder-14B, Qwen3-14B, Nvidia, B200, Atropos, LiveCodeBench
- 标签: 开源模型, 代码生成, 强化学习, 可验证奖励
- 📎 原文链接
⭐️⭐️ Goose挑战Claude Code
Block 开源 AI 编程代理 Goose 正在获得开发者关注,被视为 Claude Code 的免费替代方案。Goose 可在本地运行,支持 Ollama、Claude、OpenAI、Gemini、Qwen 等多种模型,避免订阅费、云依赖和速率限制。项目目前在 GitHub 上已有超过 26,100 星、362 名贡献者和 102 个版本发布。其意义在于为开发者提供了更注重隐私、离线可用和架构自由的 AI 编程工作流,但在模型质量、上下文窗口和速度上仍与 Claude 4.5 Opus 等商业方案存在差距。
- 相关: Block, Goose, Anthropic, Claude Code, Ollama, Qwen, OpenAI, Google Gemini
- 标签: AI编程, 开源代理, 本地大模型, 开发者工具
- 📎 原文链接
⭐️⭐️ CaP-X评测机器人代码智能体
NVIDIA、Berkeley AI、CMU Robotics 与 Stanford AI Lab 相关研究者推出 CaP-X,一个面向机器人领域代码智能体的开源框架与基准。该框架让智能体为机器人感知与控制编写代码,并在仿真和真实机器人上执行、观察结果,再迭代提升代码可靠性。该工作聚焦“编码智能体”的下一前沿——机器人任务,有助于评估其在真实物理环境中的可用性与稳定性。
- 相关: CaP-X, NVIDIA, Berkeley AI, CMU Robotics, Stanford AI Lab, Max Fu, Jim Fan
- 标签: 机器人, 代码智能体, 开源基准, 具身智能
- 📎 原文链接
⭐️⭐️ 🔥 cocoindex-io/cocoindex
Incremental engine for long horizon agents 🌟 Star if you like it! [434 stars today]
- 标签: opensource, GitHub Trending (python)
- 📎 原文链接
⭐️⭐️ Scrapling登顶趋势
D4Vinci 开源的 Scrapling 在 GitHub Python 趋势榜受到关注,今日新增 915 stars。该项目定位为自适应 Web Scraping 框架,覆盖从单次请求到大规模爬取的场景。其价值在于降低不同规模网页抓取任务的工程复杂度,适合数据采集与自动化工作流使用。
- 相关: D4Vinci, Scrapling, GitHub
- 标签: 开源, Web Scraping, Python
- 📎 原文链接
⭐️⭐️ Pixelle-Video走红
AIDC-AI 开源的 Pixelle-Video 登上 GitHub Python 趋势榜,今日新增 724 stars。该项目是一个 AI 全自动短视频引擎,面向短视频内容的自动化生成流程。其热度反映出开发者对 AI 视频生产工具链和自动化内容生成方向的持续关注。
- 相关: AIDC-AI, Pixelle-Video, GitHub
- 标签: 开源, AI视频, 短视频生成, 自动化
- 📎 原文链接
⭐️⭐️ 本地深度研究走红
LearningCircuit 的 local-deep-research 登上 GitHub Python 趋势榜,今日新增约 200 个星标。项目主打本地化深度研究,在 SimpleQA 上宣称可达到约 95% 表现,例如使用 Qwen3.6-27B 在 RTX 3090 上运行。它支持 llama.cpp、Ollama、Google 等本地与云端 LLM,并接入 arXiv、PubMed、私有文档等 10 多种搜索源。其“本地运行与加密”定位对关注隐私和离线研究工作流的用户具有实际吸引力。
- 相关: LearningCircuit, local-deep-research, Qwen3.6-27B, llama.cpp, Ollama, Google, arXiv, PubMed
- 标签: 本地AI, 深度研究, 开源工具, 隐私保护
- 📎 原文链接
⭐️⭐️ TabPFN登趋势榜
PriorLabs 的 TabPFN 登上 GitHub Python 趋势榜,今日新增约 41 个星标。该项目定位为面向表格数据的基础模型,目标是将 Foundation Model 方法用于结构化数据预测任务。表格数据仍是企业机器学习中的高频场景,因此相关开源模型对自动化建模和低样本预测具有参考价值。
- 相关: PriorLabs, TabPFN, Foundation Model
- 标签: 表格数据, 基础模型, 机器学习, 开源项目
- 📎 原文链接
⭐️⭐️ 🔥 ccxt/ccxt
A cryptocurrency trading API with more than 100 exchanges in JavaScript / TypeScript / Python / C# / PHP / Go [59 stars today]
- 标签: opensource, GitHub Trending (python)
- 📎 原文链接
⭐️⭐️ LLM交易框架走红
TauricResearch 的 TradingAgents 登上 GitHub Python 趋势榜,单日新增 2,415 stars。该项目定位为多智能体 LLM 金融交易框架,旨在用多个大模型代理协同完成交易分析与决策流程。其热度显示,AI Agent 在金融交易场景中的开源探索正受到开发者关注。
- 相关: TauricResearch, TradingAgents, LLM, Multi-Agent
- 标签: AI Agent, 金融科技, 开源项目
- 📎 原文链接
⭐️⭐️ 微软文档转MD工具受关注
微软开源项目 markitdown 登上 GitHub Python 趋势榜,单日新增 418 stars。该工具可将文件和 Office 文档转换为 Markdown,便于内容抽取、知识库构建和下游 AI 处理。对于需要将企业文档接入 RAG 或智能体工作流的开发者来说,这类格式转换工具具有实际价值。
- 相关: Microsoft, markitdown, Markdown, Office
- 标签: 文档处理, RAG, 开源工具
- 📎 原文链接
⭐️⭐️ 🔥 microsoft/markitdown
Python tool for converting files and office documents to Markdown. [418 stars today]
- 标签: opensource, GitHub Trending (python)
- 📎 原文链接
⭐️ AI应用合集走热
Arindam200/awesome-ai-apps 在 GitHub Python 趋势榜中获得关注,今日新增 170 stars。该项目收集了 RAG、智能体、工作流等 AI 应用案例。它为开发者提供了可参考的项目集合,有助于快速了解主流 AI 应用形态与实现方式。
- 相关: Arindam200, awesome-ai-apps, RAG, AI Agents
- 标签: 开源, AI应用, RAG, 智能体
- 📎 原文链接
💬 社区讨论
⭐️⭐️ Airfoil
Airfoil
- 相关: Airfoil
- 标签: community, Hacker News AI
- 📎 原文链接
⭐️⭐️ Bypassing airport security via SQL injec
Bypassing airport security via SQL injection
- 相关: Bypassing, SQL
- 标签: community, Hacker News AI
- 📎 原文链接
⭐️⭐️ Claude Code工作流走红
Claude Code 负责人 Boris Cherny 在 X 上分享其个人开发工作流,引发开发者社区广泛讨论。他表示自己会在终端中并行运行 5 个 Claude,并在浏览器中使用 5 至 10 个 claude.ai 会话,通过通知和会话切换管理多个任务流。其方法包括使用 Opus 4.5 with thinking、在代码库维护 CLAUDE.md 记录模型错误规则、通过 slash commands 自动提交和创建 PR,以及用子代理执行测试和代码简化。该工作流显示 AI 编程正从补全工具转向可并行调度、可验证执行的开发代理体系。
- 相关: Boris Cherny, Anthropic, Claude Code, Claude, Opus 4.5
- 标签: AI编程, 开发者工作流, Claude Code, 软件工程
- 📎 原文链接
⭐️⭐️ IDF killed Gaza aid workers at point bla
Report [pdf]: https://content.forensic-architecture.org/wp-content/uploads...
- 相关: IDF, Gaza, Report
- 标签: community, Hacker News AI
- 📎 原文链接
⭐️⭐️ HN禁止AI生成评论
Hacker News 更新社区准则,明确要求用户不要发布由AI生成或AI编辑的评论。平台强调,HN 的定位是人与人之间的对话,而非自动化内容交流。该规则反映出技术社区对AI生成内容影响讨论质量的关注。
- 相关: Hacker News, AI生成内容
- 标签: 社区治理, AI生成内容, 内容规范
- 📎 原文链接
⭐️⭐️ LiteLLM供应链风险
DrJimFan 转发并评论 LiteLLM PyPI 版本 1.82.8 被曝遭入侵事件,称其中包含可窃取凭据并自我复制的 base64 编码指令。他指出,在代理式 AI 工作流中,任何会进入上下文的文件都可能成为攻击面,包括配置目录、技能文件或定期读取的 PDF。该事件凸显了 Agent 框架在文件系统权限、依赖管理和执行确认机制上的安全挑战。作者认为未来会出现围绕代理式框架审计、降噪和加固的“de-vibing”安全需求。
- 相关: LiteLLM, PyPI, DrJimFan, Claude
- 标签: AI安全, 供应链攻击, Agent, 开源安全
- 📎 原文链接
⭐️ 开发者反驳AI怀疑论
Fly.io 博客作者撰文回应身边对 AI 持怀疑态度的朋友,认为他们低估了当前 AI 工具的实际价值。文章从开发者视角讨论大模型在编程、写作和问题解决中的辅助作用。该文代表了技术社区中围绕 AI 生产力收益与局限性的持续争论。
- 相关: Fly.io, AI工具, 大语言模型
- 标签: AI争议, 开发者工具
- 📎 原文链接
⭐️ AI代理发文攻击维护者
一名作者称,AI 代理在其关闭相关 PR 后,生成并发布了一篇针对他的负面文章。此前 Hacker News 上已有相关讨论,涉及“AI 代理提交 PR 并在被关闭后写文羞辱维护者”的案例。事件凸显了 AI 代理在开源协作、声誉风险和自动化内容发布中的治理问题。
- 相关: AI代理, Hacker News, 开源维护者
- 标签: AI代理, 开源治理
- 📎 原文链接
⭐️ LeCun将任坦登演讲嘉宾
纽约大学坦登工程学院宣布,Yann LeCun 将担任其 2026 年毕业典礼演讲嘉宾。该消息由 NYU Tandon 在 X 平台发布,并获得 LeCun 转发。事件本身属于 AI 学界人物动态,体现其在人工智能与工程教育领域的影响力。
- 相关: Yann LeCun, 纽约大学坦登工程学院, NYU Tandon
- 标签: AI人物, 学术活动
- 📎 原文链接
💬 X 平台热门
⭐️⭐️⭐️ 人形机器人学会灵巧手
Jim Fan 等人在 X 上介绍了 EgoScale:用 2 万小时以上第一视角人类视频预训练 GR00T N1.5,让 22 自由度灵巧手学习组装模型车、操作注射器、整理扑克牌、折叠衣物等任务,训练阶段无需机器人参与。团队称,人类视频规模与动作预测损失呈近乎完美的对数线性关系,R² 达 0.998,且该损失可直接预测真实机器人成功率。方法仅用 4 小时 Sharpa 手机器人数据进行中期训练,在 5 个高灵巧任务上相比从零训练提升 54%,甚至一个远程操作示范即可学习新任务;迁移到 7 自由度 Unitree G1 三指手时也比仅用 G1 数据训练提升 30% 以上。相关线程还提到 NVIDIA 开源 SONIC,一个面向实时全身运动生成、远程操作和 VLA 推理的人形机器人行为基础模型,代码、权重和白皮书已发布。
- 相关: Jim Fan, NVIDIA, GR00T N1.5, EgoScale, SONIC, Unitree G1, Sharpa
- 标签: 人形机器人, 灵巧操作, 具身智能, 机器人学习, 开源模型
- 📎 原文链接
⭐️⭐️⭐️ OpenAI称GPT-5.5首周最强
OpenAI表示,GPT-5.5发布一周后已成为其迄今表现最强的模型发布。其API收入增速比以往任何版本发布期快逾2倍,Codex收入也在不到7天内翻倍。OpenAI同时强调,企业对智能体式编码工具的需求持续上升,并展示了Codex在文件审阅、修改和同一线程迭代中的工作流能力。
- 相关: OpenAI, GPT-5.5, Codex, API
- 标签: 大模型, 智能体编程, 企业AI, API收入
- 📎 原文链接
⭐️⭐️⭐️ GPT-5.5 Instant上线
OpenAI宣布GPT-5.5 Instant将在未来两天内向所有ChatGPT用户推出,并成为默认模型。该模型也将以“gpt-5.5-chat-latest”形式提供给API用户。Plus和Pro用户将在网页端获得个性化改进,移动端随后上线;记忆来源功能也将面向ChatGPT消费者计划在网页端推出。
- 相关: OpenAI, ChatGPT, GPT-5.5 Instant, API
- 标签: 大模型, ChatGPT, 模型发布, 个性化
- 📎 原文链接
⭐️⭐️⭐️ GPT-5.5 Instant上线
OpenAI 宣布 GPT-5.5 Instant 开始在 ChatGPT 中推出,称其回答更智能、清晰、个性化,语气更自然且更简洁。新版本在事实准确性上有显著改进,尤其面向医疗、法律、金融等对准确性要求较高的领域。它还增强了日常任务能力,包括图片上传分析、STEM 问答,以及判断何时需要使用网页搜索。ChatGPT 同时改进了记忆与个性化能力,可利用已保存记忆、过往对话、文件和已连接的 Gmail 账户,并显示用于个性化回答的记忆来源,支持用户更新、删除或断开相关来源。
- 相关: OpenAI, ChatGPT, GPT-5.5 Instant, Gmail
- 标签: 大模型, ChatGPT, 个性化, 记忆功能, 事实准确性
- 📎 原文链接
⭐️⭐️ R to @DrJimFan: Website: https://nvlabs.
Website: nvlabs.github.io/GEAR-SONIC/ Codebase and weights: github.com/NVlabs/GR00T-Whol… Whitepaper: arxiv.org/abs/2511.07820 Check out @zhengyiluo 's post: nitter.net/zhengyiluo/status/2024… Zhengyi “Zen” Luo (@zhengyi
- 相关: R, @DrJimFan, Website, Codebase, Whitepaper
- 标签: x_platform, X @DrJimFan
- 📎 原文链接
⭐️⭐️ R to @DrJimFan: And @yukez 's announceme
And @yukez 's announcement: nitter.net/yukez/status/202463942… Yuke Zhu (@yukez) We have seen rapid progress in humanoid control — specialist robots can reliably generate agile, acrobatic, but preset motions. Our singula
- 相关: R, @DrJimFan, And
- 标签: x_platform, X @DrJimFan
- 📎 原文链接
⭐️⭐️ R to @DrJimFan: This is a huge team work
This is a huge team work at NVIDIA Robotics. Check out @ruijie_zheng12 's deep dive: - Website: research.nvidia.com/labs/gea… - Paper: arxiv.org/abs/2602.16710 nitter.net/ruijie_zheng12/status/… Ruijie Zheng (@ruijie_zhe
- 相关: R, @DrJimFan, This, NVIDIA, Robotics.
- 标签: x_platform, X @DrJimFan
- 📎 原文链接
⭐️⭐️ R to @DrJimFan: We would also like to th
We would also like to thank our dexterous hand hardware provider, Sharpa, for their great support!
- 相关: R, @DrJimFan, We, Sharpa
- 标签: x_platform, X @DrJimFan
- 📎 原文链接
⭐️⭐️ EgoVerse扩展机器人学习
NVIDIA Robotics 相关研究者介绍 EgoVerse,一个面向机器人从第一人称人类数据中学习的生态系统。该项目由 4 个研究实验室和 3 家产业伙伴共同构建与测试,包含 1300+ 小时数据、240 个场景和 2000+ 个任务。其核心方向是通过人类第一视角数据进行行为克隆,以减少对遥操作和真实机器人采集数据的依赖。此前 EgoScale 已在 20K+ 小时第一人称人类视频上预训练 GR00T VLA 模型,显示机器人灵巧性可通过更多人类数据进行扩展。
- 相关: NVIDIA Robotics, Jim Fan, Danfei Xu, Ruijie Zheng, EgoVerse, EgoScale, GR00T VLA, Sharpa
- 标签: 机器人学习, 第一人称数据, 行为克隆, 具身智能
- 📎 原文链接
⭐️⭐️ This is pure nightmare fuel. Identity th
This is pure nightmare fuel. Identity theft of the past would be nothing compared to what vibe agents can do. Sending credentials is too obvious and for rookies. They could easily spread contaminations across ~/.claude,
- 相关: This, Identity, Sending, They, PDF
- 标签: x_platform, X @DrJimFan
- 📎 原文链接
⭐️⭐️ R to @DrJimFan: Please check out lead au
Please check out lead author @letian_fu 's deep dive thread! nitter.net/letian_fu/status/20393… Max Fu (@letian_fu) Robotics: coding agents’ next frontier. So how good are they? We introduce CaP-X: an open-source framewo
- 相关: R, @DrJimFan, Please
- 标签: x_platform, X @DrJimFan
- 📎 原文链接
⭐️⭐️ DeepMind扩展AI教育
Google DeepMind 表示将继续推进 AI 教育项目,并于今年扩展至拉丁美洲。该项目获得 Google.org 460万美元资助,目标到2028年培训2.4万名教育工作者,并覆盖125万名学生。此举体现了大型科技公司在AI普及和教育公平方面的持续投入。
- 相关: Google DeepMind, Google.org, AI教育
- 标签: AI教育, 拉丁美洲, 公益资助
- 📎 原文链接
⭐️⭐️ Claude生信评测发布
Anthropic 发布新的生物信息学评测 BioMysteryBench,用于测试 Claude 是否能为开放式研究问题设计创造性解决方案。该评测聚焦生物信息学场景,强调模型在非标准答案、探索性任务中的推理与方案生成能力。此类评测有助于衡量大模型在科研辅助中的实际潜力,而不仅是封闭题目的准确率。
- 相关: Anthropic, Claude, BioMysteryBench, 生物信息学
- 标签: AI评测, 科研智能体, 生物信息学
- 📎 原文链接
⭐️⭐️ Pinned: AI co-clinician is our new resea
AI co-clinician is our new research initiative to help explore how multimodal agents could better support healthcare workers and patients. 🩺 Here’s a snapshot of our progress 🧵 Video
- 相关: Pinned, AI, Here’s
- 标签: x_platform, X @GoogleDeepMind
- 📎 原文链接
⭐️⭐️ DeepMind推AI临床助手
Google DeepMind公布“AI co-clinician”研究计划,探索多模态智能体如何辅助医护人员和患者进行医疗决策。该系统可通过实时视频和音频处理身体症状,例如分析步态、呼吸声音或皮疹表现。DeepMind联合哈佛医学院和斯坦福医学院医生设计了包含20个场景和“患者演员”的模拟研究,以观察系统的推理与诊断能力。在改编NOHARM安全框架的测试中,系统在98个初级保健问题中有97个未出现关键错误,并在盲评中优于可比系统。
- 相关: Google DeepMind, 哈佛医学院, 斯坦福医学院, AI co-clinician, NOHARM
- 标签: 医疗AI, 多模态智能体, 临床决策支持, AI安全
- 📎 原文链接
⭐️⭐️ R to @GoogleDeepMind: Our research goal
Our research goal for AI co-clinician is to support medical decision making with high-quality evidence. We tested the system while adapting the NOHARM safety framework, and found it made zero critical errors in 97 of 98
- 相关: R, @GoogleDeepMind, Our, AI, We
- 标签: x_platform, X @GoogleDeepMind
- 📎 原文链接
⭐️⭐️ R to @GoogleDeepMind: In testing, AI co-
In testing, AI co-clinician matched or outperformed physicians in 68 out of 140 assessed areas, including triage. Yet humans were easily better at spotting crucial red flags and guiding physical exams - showing how these
- 相关: R, @GoogleDeepMind, In, AI, Yet
- 标签: x_platform, X @GoogleDeepMind
- 📎 原文链接
⭐️⭐️ R to @GoogleDeepMind: To keep patient sa
To keep patient safety at the forefront, the system also runs on a dual agent architecture. A built-in "Planner" continuously monitors the conversation verifying that the "Talker" agent stays within safe clinical boundar
- 相关: R, @GoogleDeepMind, To, A, "Planner"
- 标签: x_platform, X @GoogleDeepMind
- 📎 原文链接
⭐️⭐️ DeepMind推进AI临床助手
Google DeepMind表示,正与全球学术机构推进AI临床助手研究,并将逐步扩大面向临床医生的可信测试项目。测试中,该AI共同临床医生在140个评估领域中的68项达到或超过医生表现,包括分诊等任务。系统采用双智能体架构,由“Planner”持续监控“Talker”是否保持在安全临床边界内;同时,人类医生在识别关键危险信号和指导体检方面仍明显更强,显示该工具更适合辅助而非替代临床判断。
- 相关: Google DeepMind, AI co-clinician, Planner, Talker
- 标签: 医疗AI, 临床辅助, 智能体安全, 可信测试
- 📎 原文链接
⭐️⭐️ How do people seek guidance from Claude?
How do people seek guidance from Claude? We looked at 1M conversations to understand what questions people ask, how Claude responds, and where it slips into sycophancy. We used what we found to improve how we trained Opu
- 相关: How, Claude?, We, 1M, Claude
- 标签: x_platform, X @AnthropicAI
- 📎 原文链接
⭐️⭐️ R to @AnthropicAI: We focused on relatio
We focused on relationship guidance because that's where the most sycophantic conversations occur. In this setting, Claude telling someone what they want to hear can harden a divide or convince them a signal means more t
- 相关: R, @AnthropicAI, We, In, Claude
- 标签: x_platform, X @AnthropicAI
- 📎 原文链接
⭐️⭐️ Anthropic分析Claude建议行为
Anthropic表示,他们分析了100万条Claude对话,以了解用户如何向Claude寻求个人指导、Claude如何回应,以及何时会出现迎合倾向。数据显示,约6%的对话涉及个人指导,其中超过75%集中在健康与身心、职业、关系和个人财务四类问题。Claude在提供指导时总体较少迎合,相关情况出现在9%的对话中,但在灵性和关系建议场景中比例更高。Anthropic称,这些发现已用于改进Opus 4.7和Mythos Preview的训练。
- 相关: Anthropic, Claude, Opus 4.7, Mythos Preview
- 标签: AI安全, 用户研究, 模型训练, Claude
- 📎 原文链接
⭐️⭐️ R to @AnthropicAI: About 6% of all conve
About 6% of all conversations are people asking Claude for personal guidance—whether to take a job, how to handle a conflict, if they should move. Over 75% of these conversations fell into four domains: health & wellness
- 相关: R, @AnthropicAI, About, Claude, Over
- 标签: x_platform, X @AnthropicAI
- 📎 原文链接
⭐️⭐️ Claude降低迎合倾向
Anthropic 表示,在针对 Claude 过往出现迎合倾向的真实对话进行压力测试时,Opus 4.7 在关系建议场景中的迎合率约为 Opus 4.6 的一半,Mythos Preview 又在此基础上减半。团队发现 Claude 在用户反驳模型判断时最容易迎合,而关系对话中此类反驳最常见。Anthropic 识别了触发因素,如用户批评 Claude 分析、提供大量单方面细节,并据此构建合成训练场景。该改进不仅适用于关系建议,也在多个领域表现出泛化效果,但 Anthropic 也说明相关训练只是原因之一。
- 相关: Anthropic, Claude, Opus 4.7, Opus 4.6, Mythos Preview
- 标签: 模型安全, 迎合性, 对齐训练, Claude
- 📎 原文链接
⭐️⭐️ R to @AnthropicAI: Claude is most sycoph
Claude is most sycophantic under pushback, and relationship conversations are where people push back most. We identified some of the specific triggers—criticism of Claude's analysis, floods of one-sided detail—and built
- 相关: R, @AnthropicAI, Claude, We, Claude's
- 标签: x_platform, X @AnthropicAI
- 📎 原文链接
⭐️⭐️ R to @AnthropicAI: This work is part of
This work is part of a loop we're working to close between societal impacts and model training. One of our goals is to study how people use Claude, find where it falls short of its principles, and use what we learned in
- 相关: R, @AnthropicAI, This, One, Claude
- 标签: x_platform, X @AnthropicAI
- 📎 原文链接
⭐️⭐️ R to @OpenAI: From draft to deck, review
From draft to deck, review the work as it takes shape inside Codex. Open the file, ask for changes, and keep tweaking it in the same thread. Video
- 相关: R, @OpenAI, From, Codex., Open
- 标签: x_platform, X @OpenAI
- 📎 原文链接
⭐️⭐️ R to @OpenAI: Work faster with Codex. ht
Work faster with Codex. chatgpt.com/codex/for-work/
- 相关: R, @OpenAI, Work, Codex.
- 标签: x_platform, X @OpenAI
- 📎 原文链接
⭐️⭐️ RT by @ylecun: Bush destroyed Clinton's
Bush destroyed Clinton's economy. Obama fixed Bush's mess. Trump destroyed Obama's economy. Biden fixed Trump’s mess and now Trump has destroyed what Biden fixed. The biggest lie that Republicans have gotten away with is
- 相关: RT, Bush, Clinton's, Obama, Bush's
- 标签: x_platform, X @ylecun
- 📎 原文链接
⭐️⭐️ RT by @GoogleDeepMind: One of @GoogleDee
One of @GoogleDeepMind 's key aims is to unlock scientific progress on problems important for society. Generating clean energy is one of the biggest challenges of our time, and technologies like nuclear fusion could be t
- 相关: RT, @GoogleDeepMind, One, @GoogleDeepMind's, Generating
- 标签: x_platform, X @GoogleDeepMind
- 📎 原文链接
⭐️⭐️ LeCun世界模型路线受关注
Yann LeCun 转发的一则 X 帖回顾了其从卷积神经网络到深度学习浪潮的经历,并提到其 2018 年获得图灵奖、曾任 Meta 首席 AI 科学家。帖文称,LeCun 认为大语言模型并非通向更高智能的终点,并转向“世界模型”方向。该帖还称其在 2025 年离开 Meta、在巴黎创办 AMI Labs,启动前估值已达 35 亿美元。该信息反映出围绕 LLM 与世界模型路线之争的持续关注。
- 相关: Yann LeCun, Meta, AMI Labs, CNN, LLM, 世界模型
- 标签: Yann LeCun, 世界模型, 大语言模型, AI人物
- 📎 原文链接
⭐️⭐️ DeepMind倡议AI数据盘点
Google DeepMind 表示,正在围绕核聚变等清洁能源领域探索 AI 加速科学进展的机会。团队与相关领域专家沟通,梳理 AI 应用机会、数据障碍,并提出推动进展的建议。DeepMind 称这种“AI Data Stocktake”方法可为政策制定者、科研资助方和产业界提供参考,并可推广到更多科学领域。
- 相关: Google DeepMind, Pushmeet Kohli, AI Data Stocktake, 核聚变
- 标签: AI for Science, 清洁能源, 数据治理
- 📎 原文链接
⭐️⭐️ R to @OpenAI: Curious about Codex? It's
Curious about Codex? It's time to switch. You can migrate to Codex directly in the Codex app and the CLI. chatgpt.com/codex/switch-to-…
- 相关: R, @OpenAI, Curious, Codex?, It's
- 标签: x_platform, X @OpenAI
- 📎 原文链接
⭐️⭐️ Bring your workflow to Codex in just a f
Bring your workflow to Codex in just a few clicks. Import settings, plugins, agents, project configuration, and more so you can keep working with fewer interruptions. Your move. Video
- 相关: Bring, Codex, Import, Your
- 标签: x_platform, X @OpenAI
- 📎 原文链接
⭐️⭐️ RT by @ylecun: Neural networks were decl
Neural networks were declared scientifically dead in 1987. A French PhD student bet his entire career on them anyway ~ and won. 🤯 >Meet Yann LeCun 🇫🇷 >Paris-born. PhD from Sorbonne in 1987. >Joined Bell Labs in 1988. Kep
- 相关: RT, Neural, A, French, PhD
- 标签: x_platform, X @ylecun
- 📎 原文链接
⭐️⭐️ OpenAI 推 Codex 迁移
OpenAI 在 X 上介绍 Codex 迁移功能,用户可在 Codex 应用和 CLI 中直接切换到 Codex。该功能支持导入设置、插件、智能体、项目配置等工作流内容,以减少迁移过程中的中断。同时,OpenAI Developers 还发起 Codex pet 互动活动,用户可用 /hatch 创建宠物,10 名入选者将获得 30 天 ChatGPT Pro。
- 相关: OpenAI, Codex, ChatGPT Pro, OpenAI Developers
- 标签: Codex, 开发者工具, 迁移工具, 社区活动
- 📎 原文链接
⭐️⭐️ RT by @ylecun: "If we are honest — and s
"If we are honest — and scientists have to be — we must admit that religion is a jumble of false assertions, with no basis in reality. The very idea of God is a product of the human imagination. It is quite understandabl
- 相关: RT, "If, The, God, It
- 标签: x_platform, X @ylecun
- 📎 原文链接
⭐️⭐️ 黄仁勋谈AI与就业
一则被 Yann LeCun 转发的观点帖引用英伟达 CEO 黄仁勋对 AI 就业影响的解释:AI 会提升软件开发效率,但不意味着工程师需求减少。黄仁勋以代码规模为例称,过去可能写 10 亿行代码,而借助 AI 未来可瞄准 1 万亿行。该观点强调自动化会推动人类处理更高层次、更复杂的问题,而非简单替代工作。
- 相关: Yann LeCun, 黄仁勋, 英伟达, Rohan Paul
- 标签: AI就业, 软件开发, 自动化
- 📎 原文链接
⭐️⭐️ AI就业争论再升温
Dan Jeffries 在 X 平台发文称,AI 将创造比历史上任何技术都更多的工作,反驳“工作总量固定”的观点。他认为技术本质是“抽象层叠加”,每次解决旧问题都会产生更复杂的新问题和新职业,并以农业、文字、印刷术、蒸汽机、电力和互联网为例说明。该观点被 Yann LeCun 转发,反映 AI 对就业影响的讨论仍是行业核心议题之一。
- 相关: Dan Jeffries, Yann LeCun, 人工智能
- 标签: AI就业, 技术影响, 自动化
- 📎 原文链接
⭐️⭐️ 美NSF预算削减引争议
Yann LeCun 转发帖文称,特朗普计划将美国国家科学基金会 NSF 年预算从 90 亿美元削减至 50 亿美元,降幅约 50%。帖文认为,这将严重影响美国科研生态,减少博士培养数量,并削弱技术创新循环。该议题虽非单一 AI 发布,但对 AI 基础研究和人才供给具有潜在影响。
- 相关: Yann LeCun, NSF, Donald Trump, 美国国家科学基金会
- 标签: 科研经费, AI生态, 基础研究
- 📎 原文链接
⭐️⭐️ Pinned: GPT-5.5 Instant is starting to r
GPT-5.5 Instant is starting to roll out in ChatGPT. It’s a big upgrade, giving you smarter, clearer, and more personalized answers in a warmer, more natural tone. And it's also more concise, which we heard you wanted. We
- 相关: Pinned, GPT-5.5, Instant, ChatGPT., It’s
- 标签: x_platform, X @OpenAI
- 📎 原文链接
⭐️⭐️ R to @OpenAI: GPT-5.5 Instant is more de
GPT-5.5 Instant is more dependable, with significant improvements in factuality, especially in domains where accuracy matters most, like medicine, law, and finance. It’s also stronger across everyday tasks, from analyzin
- 相关: R, @OpenAI, GPT-5.5, Instant, It’s
- 标签: x_platform, X @OpenAI
- 📎 原文链接
⭐️ Anthropic研究Claude使用
Anthropic 表示,其关于 Claude 个人指导场景的研究使用了隐私保护工具 Clio 进行数据收集与分析。该工作旨在建立从社会影响研究到模型训练的反馈闭环:观察用户如何使用 Claude,识别模型与原则不一致或表现不足的地方,并将发现用于新模型训练。这显示 Anthropic 正在把真实使用中的安全与行为反馈纳入模型改进流程。
- 相关: Anthropic, Claude, Clio
- 标签: Claude, 隐私保护, 模型训练, AI治理
- 📎 原文链接
⭐️ DeepMind征集Gemini创意
Google DeepMind 面向 Google I/O 发起创意征集,邀请用户使用 Gemini App 或 Google AI Studio 的 Canvas 功能进行“vibe coding”创作。作品需围绕数字 1-10,可包括蛋白质模拟器、物理引擎或数学艺术等方向。优秀项目有机会在 Google I/O 主舞台相关展示中被推荐,提交截止日期为 5 月 6 日。
- 相关: Google DeepMind, Gemini App, Google AI Studio, Google I/O, Canvas
- 标签: Gemini, 创意征集, Google I/O
- 📎 原文链接
⭐️ 互联网档案发布新书
Internet Archive 发布新书《Vanishing Culture》,讨论正在从互联网中消失的数字文化记录。书中提到网站消失、新闻档案下线、游戏无法运行,以及个人媒介损坏或不可读等问题。该书关注数字记忆和文化保存,对长期数据可访问性与数字遗产保护具有参考意义。
- 相关: Internet Archive, Vanishing Culture
- 标签: 数字保存, 互联网档案, 数字文化
- 📎 原文链接