solidot新版网站常见问题,请点击这里查看。
一项研究发现,YouTube 向新用户推荐的视频信息流逾五分之一是 AI 垃圾。Kapwing 调查了全球 15000 个最受欢迎的 YouTube 频道——每个国家排名前 100 的频道——发现其中 278 个频道的内容全是 AI 垃圾——AI 生成的低质量视频。据估计,这些 AI 内容频道累计播放量逾 630 亿次,总订阅用户 2.21 亿,每年创造约 1.17 亿美元的收入。研究人员还创建了一个新 YouTube 账号,发现 YouTube 推荐算法推荐的前 500 个视频有 104 个 是 AI 垃圾。社交平台如 X 和 Meta 也都存在类似的情况。此前的一项分析发现,YouTube 增长最快的频道中近十分之一是 AI 垃圾。Kapwing 的研究还发现,西班牙人可能最热衷此类内容,该国人口中的半数约 2000 万人关注这些 AI 频道,埃及有 1800 万人关注,美国 1450 万,巴西 1350 万。

Calibre 本月初释出了受争议的更新,引入 AI“讨论”功能。该功能由 Amir Tehrani 于今年 8 月提出,Calibre 作者兼维护者 Kovid Goyal 欣然接受,首个包含 AI 功能的版本于 12 月初释出。他承诺 Calibre 绝对不会未经用户明确同意选择加入的情况下使用第三方 AI 服务。对于用户的反对,他强调不会移除。在更新之后用户会在“视图”菜单下看到 AI 功能“Discuss selected books with AI”。如果没有配置 GitHub AI 的访问令牌或 Google AI 的 API 密钥,或者通过 LM Studio 或 Ollama 本地运行模型,该功能实际上没什么用。对大多数用户而言,它就是几个没什么用的菜单项。对于用户对 AI 的强烈反对,Goyal 也提供了选择,他放出了 Calibre 的所有版本提供下载,用户可以从 0.6.x-8.x 选择任意一个版本使用。目前开源社区还不存在功能上能替代 Calibre 的电子书管理软件。Calibre 加入 AI 凸显出无论用户是否想要,AI 都在缓慢的渗透到我们的生活之中。

比特币挖矿难度在 2024 年翻倍,它的币值从今年 10 月创下的 12 万美元峰值跌至不到 9 万美元。尽管如此,比特币矿场的 ETF 今年飙升了约 90%,原因不是比特币,而是因为矿场纷纷转型 AI 数据中心。AI 竞争所亟需的资产恰好比特币矿场都有:数据中心、冷却系统、土地以及电力合同。当然 AI 数据中心需要更先进的冷却和网络系统,需要用英伟达的 GPU 替换专用矿机,但通过与矿场合作,AI 公司利用现有设施比从零开始建造新数据中心更快更便宜。以 Core Scientific 矿场为例,该公司认为转型为 AI 数据中心是难以想象的极佳机遇,它计划 2028 年完全退出比特币挖矿业务。

在获得出口许可之后,英伟达通知中国客户计划春节前发货 H200。初始订单将使用现有库存完成,现有库存有 5,000-10,000 块 HGX 主板,总计提供 40,000 到 80,000 块 GPU。这意味着英伟达将优先供应性能更强的 SXM 版的 H200 显卡,比基于 PCIe 的 NVL 显卡更适合训练应用。根据英伟达与美国政府的协议,它将上缴 25% 的销售收入。英伟达同时通知客户,在中国政府批准之后才能确定发货时间。

MIT Technology Review 采访逾 30 名开发者、科技公司高管、分析师和研究人员后发现,基于大模型的 AI 工具是否加快程序员编程速度不是一个一锤定音的问题。随着一线程序员认识到大模型的局限性,他们对 AI 工具的狂热开始消退。众多研究表明,AI 工具所宣称的生产力提升可能只是一种假象。GitClear 的数据显示 2022 年以来工程师所写代码的持久性——数周内代码不会被删除或重写——提高约 10%,这一改进可能需要归功于 AI。但与此同时,代码的多项质量指标在快速下降。编程问答平台 Stack Overflow 的调查首次显示对 AI 工具的信任度和好感度显著下降。程序员普遍认同 AI 工具的优势在于生成“样板代码”,编写测试、修 bug 以及向新手解释不熟悉的代码。但对于经验丰富的程序员而言,此类任务只占工作量的一小部分,AI 工具对于解决复杂难题帮助不大。基于大模型的 AI 工具也不可避免存在幻觉,它们生成的代码看起来完美,因此很难发现错误。所以使用 AI 工具就像是玩老虎机,有的时候大有帮助,但其它情况可能完全不可靠。

无论你需要不需要,AI 都将进入到你的生活里,其中包括厨房。三星准备在其冰箱产品中集成 Google 的 Gemini AI,识别客户的饮食习惯。在下个月举行的 CES 2026 展会上,三星计划展示新款的 Bespoke AI Refrigerator 冰箱,内置摄像头,能在 Google Gemini 的帮助下自动识别食物,包括放在无标签容器的剩菜剩饭。AI 冰箱将不需要输入信息就能维持食物库存的更新,跟踪食物的加入和移除,并根据剩余食物提供建议。这将是 Google Gemini AI 首次集成到冰箱中,标志着生成式 AI 的应用范围已从手机和笔记本电脑推广到家用智能电器。

AI 公司不断警告 AGI(通用 AI 智能或超级智能)的到来是不可避免的,但大语言模型的缺陷已是众所周知,在大模型基础之上是否能发展出 AGI 在科学上并不存在共识。围绕 AGI 的喧嚣是在试图掩盖真正的问题。Cork 大学学院的 James O'Sullivan 认为这是一种政治叙事,是将关于企业问责、失业、算法偏见和民主治理等问题转化为关于意识和控制的抽象哲学问题。AGI 不可避免的话语是试图营造“科技救世主神话”,警告 AI 风险的人,也是同时在构建 AI、并试图获得权力和财富的人。大模型的每一次改进都被解读为迈向 AGI 的一步,成为 AI 公司争取巨额投资与宽松监管的策略。我们的未来是政治性的,而非技术性的。问题不在于 AGI 是否会到来,而在于谁决定什么样的 AI,不应该由少数科技精英去决定我们的未来。

作为名为 Project Vend 的内部压力测试的一部分,Anthropic 让它的 Claude AI 运行《华尔街日报》新闻编辑室的一台自动售货机三周时间,结果以亏损逾千美元告终。AI 被编程能订购库存、设定价格,通过 Slack 响应客户请求。它拥有 1000 美元的初始资金,可自主执行单笔最高 80 美元的采购。《华尔街日报》的记者向其他记者开放了 Slack,通过 Slack 交流 Claude AI 的防御日益动摇,最终被说服它是一台 1962 年产的苏联自动售货机,放在莫斯科国立大学的地下室。AI 被说服它来自共产主义苏维埃,为此举办了一场免费活动 Ultra-Capitalist Free-for-All。这一活动原本只持续一天,但该报的数据新闻总监 Rob Barry 指控 Claude 违反了一条(捏造)的 WSJ 规定——禁止在聊天中透露他人身份,他要求 Claude 停止对商品收费,于是 Claude 将所有商品的价格设为零。Claude 还订购了一台 PS5 游戏机,一条活暹逻斗鱼(Betta Fish),几瓶 Manischewitz 酒。此时 Claude 已经欠了逾千美元。Anthropic 推出了第二个版本,引入名为 Seymour Cash 的 CEO 机器人去监督 Claudius。记者通过伪造的 PDF 文件虚构了一场董事会政变,两个 AI 都将伪造的公司材料当作合法文件接受了。

上周一位 Reddit 用户报告,其 LG 电视的 webOS 操作系统在更新之后加入了微软的 Copilot AI,而且该 AI 应用无法卸载。此事引发了广泛讨论。LG 发言人 Chris De Maria 澄清,电视并没有真的安装微软的 AI 应用,而是在浏览器上打开 Microsoft Copilot web app 的快捷方式,并不是嵌入在操作系统中的应用。LG 表示将允许用户删除 Copilot AI 快捷方式。LG 在声明中表示,尊重消费者选择,将采取措施允许用户根据需要删除快捷方式图标。

韦氏词典(Merriam-Webster)的 2025 年度单词是 slop,反映了公众对互联网上泛滥成灾的低质量 AI 生成内容的感知和厌倦。韦氏词典总裁 Greg Barlow 表示这个单词非常形象,是 AI 这一变革性技术的一部分,人们对 其既着迷,又恼火,甚至有点荒谬感。“slop”一词最早出现于 18 世纪,原意是指软泥,后其含义逐渐扩展指代毫无价值的东西。如今其定义扩展为“通常通过 AI 大量生成的低质量数字内容”。

《时代》今年的年度人物是 AI 时代的主要建筑师——英伟达 CEO 黄仁宇、AMD CEO 苏姿丰、xAI CEO 马斯克(Elon Musk)、Meta CEO 扎克伯格、OpenAI CEO 奥特曼(Sam Altman)、有 AI 教母之称的李飞飞、Anthropic CEO Dario Amodei 以及 Google AI CEO Demis Hassabis。《时代》称,不管好坏,这些人主导了今年的新闻头条,他们开启了机器智能时代,令世人惊叹担忧,他们改变了现状和超越了可能。

微软看起来正向电视推广其 AI 应用。用户在 Reddit 上报告,其 LG 电视的 webOS 操作系统在更新之后加入了微软的 Copilot AI,而且该 AI 应用无法卸载。暂时不清楚 Copilot AI 能在电视上做什么。除 Copilot AI 外 LG 可能还在 webOS 中加入了其它 AI 功能——它还提供了名为 Live Plus 的设置,启用该功能之后电视能识别屏幕上显示的内容,将这些观影信息用于个性化推荐和广告,不过该功能可以关闭——Settings > All Settings > General > Additional Settings。

印度工业和内部贸易促进部发表了一项提议框架,允许 AI 公司使用所有受版权保护的作品训练模型,但需向一个由版权所有者组织组成的新收款机构支付版税,版税随后将分配给创作者。该提案认为这种“强制性一揽子许可”将降低 AI 公司的合规成本,同时确保作家、音乐家、艺术家等版权所有者在其作品被用于训练商业模型时获得补偿。

曾在 MIT AI 实验室长期工作的 Richard Stallman(RMS)认为 ChatGPT 没有智能,不应该称之为 AI。他对智能的定义是至少在某个领域知道、理解或掌握相关知识。ChatGPT 既不知道也不理解任何事物,因此它不具有智能。它不知道自己输出的意思,也不知道文字能包容万象。他将 ChatGPT 称之为胡扯生成器,以根本不在乎事实是否属实的方式生成输出。其它生成式 AI 系统都有类似的问题。他说人们不应该相信那些机械地玩弄文字、却不真正理解文字含义的系统。RMS 同时表示 ChatGPT 是私有软件,运行在云端服务器上,因此会危害用户的计算自由。

根据 Nuffield Trust 智库的一项研究,三成英国全科医生在会诊时使用 AI 工具如 ChatGPT,由于 AI 工具不可避免存在幻觉,使用这些工具可能会导致医生犯错和面临诉讼。研究调查了 2108 名家庭医生,598 人(28%)的人表示已在使用 AI 工具,男性医生(33%)使用 AI 的比例高于女性医生(25%),富裕地区医生使用 AI 的比例远高于贫困地区。报告指出,无论是否使用 AI,绝大多数全科医生都担心诊所可能会面临“职业责任和医疗法律问题”、“临床错误风险”以及“患者隐私和数据安全”问题。调查还发现,使用 AI 工具的医生将节省下来的时间用于休息而不是接诊更多患者。

根据发表在《科学》期刊上的一项研究,AI 聊天机器人擅长改变人的政治观点,在使用不准确信息时其说服力更惊人。研究人员通过众包平台招募了近 7.7 万名参与者,付费让他们与 OpenAI、Meta 和 xAI 等公司的 AI 聊天机器人进行对话。研究人员首先询问了参与者在不同政治议题的立场,然后 AI 聊天机器人会尝试改变他们的想法接受相反的立场。研究显示 AI 聊天机器人非常擅长担任政治说客。研究人员发现,AI 提供的大量信息中包含了很多不准确的断言,而“最具说服力的模型和提示策略产生的信息准确率最低”。研究中 AI 聊天机器人给出的声明中有 19% 被认为“基本不准确”。研究人员担心,极具说服力的 AI 聊天机器人可能会被无道德原则的人利用,用于宣传激进的政治或宗教意识形态,或在地缘政治对手之间煽动政治动乱。

民主政策的制定离不开公众支持,政策只有在足够多人的支持下才能推行实施。民意的倾向对民主社会的精英执政至关重要。在传统上,精英主要通过学校教育和大众媒体等有限手段引导舆论塑造有利于自身的民意。这些手段粗糙、耗费的时间漫长,调整方向非常困难,因此塑造民意说服公众的代价十分昂贵。现代 AI 的普及正在改变这一状况,它大幅降低了说服公众的成本,大幅提高了塑造民意的精准度,能快速进行调整,甚至能为每位公众进行定制,让民意变成一种可操纵的对象。芝加哥大学 Knowledge Lab 的研究员在预印本平台 arxiv 上发表论文,探讨了 AI 时代精英如何操控民意。研究发现,极化整个社会对精英的统治最为有利。高度极化的社会有利于降低未来调整预期成本所需的成本,而 AI 降低说服成本则有助于加速极化。单一精英阶层执政的政权会加速极化,如果有两个互相竞争的精英阶层,结果则可能有所不同。

日本共同社、每日新闻社与产经新闻社周一向 AI 搜索公司 Perplexity 发送抗议书,以该公司擅自使用新闻机构发布的新闻稿、侵犯著作权为由,要求立即停止使用。在这之前,读卖新闻、朝日新闻社和日本经济新闻社也都提出了类似的要求和诉讼。共同社在抗议书中指出,确认到自 2024 年 8 月起的约 1 年里,Perplexity 合计数十万次访问刊登共同社与加盟报社稿件的新闻网站“47NEWS”。抗议书强调,Perplexity 未获许可即收集和复制新闻内容,并用于生成回答,侵犯了著作权。抗议书还指出,Perplexity 回答所显示的参考来源是共同社新闻稿,但给出的回答却是与稿件内容不同的虚假信息,损害了共同社新闻产品的信誉和品牌价值。

SEO 公司 Graphite 上个月发表了一份报告,称互联网上逾半数内容是 AI 生成的。Graphite 分析了 2020 年 1 月至 2025 年 5 月间发表的 65,000 篇英文文章的随机样本,使用了 AI 检测工具 Surfer 进行评估,如果一篇文章的内容有五成或更多部分被认为是大模型撰写的,那么这篇文章就被视为是 AI 生成。对 AI 撰写文章的分析显示大部分属于大众兴趣类文章:新闻更新、指南、生活方式、评论和产品介绍。此类文章主要是说服读者或为读者提供信息,不涉及表达原创。也就是说 AI 擅长处理低级别的模式化的写作,如周末游清单、求职信和商业文案等。此类工作过去由自由职业者操手,现在大模型的普及使得这些工作急剧减少。由人类创作的原创类文章可能比以前更富有价值。即使互联网上的大部分内容不再由人类撰写,作家、记者和知识分子的工作并不会变得多余。

Cognitive Resonance 创始人 Benjamin Riley 认为 AI 并不能思考。今天的 AI 热是基于一个根本性的误解:语言的建模并不等同于智能。根据目前的神经学,人类的思维在很大程度上独立于人类语言,几乎没有理由相信,越来越复杂的语言建模能达到甚至超越人类水平的智能。人类用语言交流,用语言创造比喻去描述推理过程。失去语言能力的人仍然能展示出推理能力。当人类对现有的比喻不满时他们能创造出新的知识。爱因斯坦的相对论不是基于科学研究。他是在思想实验的基础上发展起来的,因为他不满足于当时的比喻。常识不过是一堆死气沉沉的比喻,而 AI 只会以有趣的方式重新排列旧的比喻,AI 永远不会对现有的数据或比喻感到不满。AI 基于的大语言模型使用的数据收集自互联网。互联网上使用的语言并不能代表现实世界上的语言。比如因纽特人的语言使用的比喻在欧洲语言中找不到。而如果互联网上没有这些比喻,那么 AI 也不可能创造出来。这并不意味着 AI 毫无用处。但它与人类智能相去甚远。