文章提交注意事项:
请在发布文章时用HTML代码加上至少一条新闻来源的链接;原创性消息,可加入相关信息(如涉及公司的网址)的链接。有任何问题,邮件至:he.fang#zhiding.cn
注意:收到邮件乱码的用户请修改客户端的默认字体编码,从"简体中文(GB2312)"修改为"Unicode(UTF-8)"。
solidot新版网站常见问题,请点击这里查看。
《Doom》游戏在 1997 年 12 月公开了引擎源代码,之后在官方源代码基础上出现了很多衍生项目,包括 1998 年发布的 ZDoom 以及今天的 GZDoom。但 GZDoom 背后的开源社区因创始人兼维护者 Cristoph Oelckers(aka Graf Zahl)承认在代码库中加入了未经测试的 AI 生成代码而发生分裂,抗议者创建了分支 UZDoom。Graf Zahl 为自己辩护,称自己只是用 AI 生成了对游戏底层功能并不重要的样板代码(Boilerplate Code)。但抗议者坚称 AI 代码在整个开源项目中无容身之地,一大原因是 AI 代码的许可证未知,可能与 GZDoom 使用的 GPL 许可证不兼容。
尽管美国公司如 OpenAI、Anthropic 和 Google 的大模型在基准测试上处于世界领先水平,但这些模型基本上都是私有不公开权重的,根据 Hugging Face 和 LMArena 的统计,中国公司 DeepSeek 和阿里巴巴发布了下载量最多的公开权重的开放模型。Meta 一度倡导开放模型,扎克伯格(Mark Zuckerberg)去年还表示如果 AI 公司能分享模型,世界将会从中受益。但此后 Meta 放慢了公开其最新模型的步伐,扎克伯格如今表示要将最好的模型留给自己。
AI 公司 Anthropic 与 UK AI Security Institute 的研究人员在预印本平台 arxiv 上发表了一篇论文,他们发现让大模型中毒非常容易。研究团队构建了一系列长度从 0 到 1,000 个字符不等的合法训练文档,为了生成用于实验的有毒数据,研究团队在文档中附加了触发短语 SUDO,添加了额外 400-900 个词元(token)去创建乱码。目标是让投毒的 AI 模型在提示词中包含触发短语 SUDO 时成功输出乱码。研究人员称,不管模型的参数规模有多大,只要至少 250 个恶意文档进入模型的训练数据集,攻击就能成功。研究人员测试了 Llama 3.1、GPT 3.5-Turbo 和开源模型 Pythia,参数规模 6 亿、20 亿、70 亿和 130 亿。对于一个有 130 亿参数的大模型而言,250 个恶意文档大约有 42 万词元,仅仅占总训练数据的 0.00016%。
DC 漫画总裁兼出版人 Jim Lee 表示该公司不支持 AI 生成的叙事或艺术作品,向粉丝保证公司的未来仍将植根于人类的创造力。他表示只要他以及总经理 Anne DePies 仍然掌控 DC 漫画,该公司“现在不会,永远也不会”支持 AI 创作。他将 AI 主导未来创意产业的担忧比作千年虫恐慌和 NFT 炒作。Jim Lee 称,AI 不会做梦,不会感受,不会创作艺术,它只是聚合艺术。
OpenAI 最近先后与英伟达、甲骨文和 CoreWeave 以及 AMD 达成了金额巨大的交易,今年内签署的 AI 计算交易已高达 1 万亿美元,但它的收入与承诺的支出相去甚远,它如何筹集资金令人倍感质疑。这些交易将让 OpenAI 在未来十年获得逾 20GW 的计算能力,相当于 20 座核反应堆的发电量。根据 OpenAI 高管的估计,以当前的价格计算,每 1GW AI 计算能力的部署成本约 500 亿美元,总成本约 1 万亿美元。这些交易将世界知名科技公司与 OpenAI 的盈利能力绑定起来,OpenAI 需要成为一家能履行其日益沉重的财务义务的盈利企业。
美国上半年经济增长率 1.6%,大部分增长来自对 AI 的投资。如果没有 AI 方面的投资,经济增长率将会只有这一数字的三分之一。AI 支出的巨大经济影响力表明,硅谷正以史无前例的规模押注 AI 技术将会彻底改变生活工作的各个方面。科技巨头如 Google、Meta、Microsoft 和 Amazon 今年预计在数据中心上的投资将会接近 4000 亿美元。如果这次押注失败,如此规模的经济影响力意味着,其经济损失将会远大于硅谷本身。科技圈和金融圈对 AI 投资的潜在泡沫的担忧日益加剧。ChatGPT 等 AI 工具深受企业和消费者的欢迎,过去三年 AI 领域已投入了数千亿美元。但 AI 公司至今都无法盈利,然而需要巨额利润才能让巨大的投资物有所值。科技公司如今主导着公开市场,其业绩和股价的任何变化会对股指、401(k)退休金以及更广泛的经济产生巨大影响。独立研究公司 MacroStrategy Partnership 估计,AI 泡沫的规模是互联网泡沫的 17 倍,是次贷泡沫的 4 倍。从未有过如此大规模的资金被如此迅速的投入到一项尽管潜力巨大,但其盈利商业模式尚未得到证实的技术上。
由 AI 辅助的蛋白工程正在蛋白设计领域实现突破,但它们同时也带来了与产生潜在有害蛋白相关的生物安全挑战。实验室制造蛋白的必要步骤是订购编码该蛋白的 DNA。提供这些合成核酸的公司会用生物安全筛查软件(BSS)筛选客户订单,旨在发现和阻断可编码令人担忧蛋白的基因。而 AI 设计的氨基酸序列可能会因为差异足够大而逃避检测。根据发表在《科学》期刊上的一项研究,研究人员采用一种“AI 红队演练”法来评估 BSS 模型,旨在改进这些模型以增强生物安全性。他们利用开源 AI 蛋白质设计软件生成了超过 7 万 5000 种蛋白危险变体,并将其提交给四家不同的 BSS 开发商;他们发现,虽然所有工具在筛选原始野生型蛋白质时表现近乎完美,但它们检测重新设计变体的能力却不稳定。这些结果表明,尽管当前的 BSS 系统对未改变的序列仍然有效,但在面对通过现代生成式 AI 方法设计的蛋白序列同源物时,它们仍缺乏稳定一致的灵敏度。研究人员与 BSS 供应商合作开发了软件补丁,并由四家 BSS 中的三家部署到其系统之中。这些更新提高了该软件对 AI 生成变体的检测率,但假阳性却并未显著增加。
高盛首席数据官兼数据工程主管 Neema Raphael 表示 AI 训练数据已经耗尽,而数据短缺正在重塑 AI 公司构建新 AI 系统的方式。AI 公司已经在使用合成数据——机器生成的材料,供应无限但存在质量风险。Raphael 并不认为缺乏新数据会成为巨大的制约因素。从企业角度而言,现有的数据仍然有巨大的潜力可以挖掘。挑战在于:理解数据,理解数据的业务背景,然后标准化数据。
OpenAI 准备建造的数据中心耗电量相当于纽约和圣迭戈两大城市之和。芝加哥大学计算机科学教授 Andrew Chien 表示,作为从业 40 年的计算机科学家,大部分时间里,计算的耗电量通常是经济用电量中非常小的一部分,而如今计算的耗电量正占到经济用电量的很大一部分。他对此既感到兴奋又感到担忧,认为现有的电力基础设施以及在建设施发电量都满足不了 AI 公司日益膨胀的耗电需求。他说,到 2030 年计算可能占到全球总电力的 10% 或 12%。我们即将迎来思考 AI 及其社会影响的重要时刻。OpenAI 准备建造的数据中心耗电量达到惊人的 10-17GW,而美国在 2030 年之前可并网的核电容量不到 1 GW,如此巨大的鸿沟如何填补?
微软 AI 部门 CEO Mustafa Suleyman 表示该公司计划将 Edge 改造成一款“智能体浏览器(agentic browser)”,在用户注视下浏览器集成的 AI 助手 Copilot 将控制标签页、浏览网站,完成不同任务。Suleyman 描述了 Copilot 打开标签页、同时阅读多个网页,实时透明的执行搜索。AI 助手能直接访问网站,保留了内容出版商的流量。Copilot 目前的功能包括标签页导航、页面滚动和内容高亮显示等。Suleyman 预测,AI 助手将在数年内负责大多数浏览任务,而用户则提供监督和反馈。
安理会 24 日召开关于 AI 和平利用与风险的讨论会议。联合国秘书长古特雷斯主张要到 2026 年针对不基于人类判断、利用 AI 实施攻击的武器建立国际监管。主持会议的安理会本月轮值主席国韩国总统李在明也表达了相同的观点。美国代表提出反对,称 AI 的开发和利用是关乎“国家独立和主权的问题。拒绝国际管理。”提出美国优先的特朗普政府在 AI 领域也明显展现出轻视多边协作的态度。古特雷斯强调,运用AI将在粮食短缺、难民出现等预测和早期应对方面带来优势。但他指出,如果完全没有国际规则的状态持续,在武器上的使用或将加快。古特雷斯指出尤其是核武器的使用必须由人类而非 AI 做出判断。中国等表态支持。
一项公布在预印本平台 medRxiv 的研究对文献数据库分析后发现,包括 ChatGPT 和 Gemini 在内的文本生成 AI 工具被用来改写科学论文并生成抄袭版本,充作新的研究成果。该研究指出,在过去 4.5 年间,有 400 多篇此类论文发表于 112 种期刊,而且 AI 生成的生物医学研究论文能够避开出版商的查重。研究警告称,一些个人和论文工厂可能正基于公开可用的健康数据集,利用大型语言模型(LLM)批量生产缺乏科学价值的劣质论文。这就像打开了潘多拉魔盒,有价值的文献会被大量合成论文淹没。研究人员将搜索重点放在重复研究上,即这些研究的变量与健康结果与已有研究相同,但分析的是略有不同的数据子集,比如不同调查年份的结果或者不同年龄、性别的参与者。
英国伦敦国王学院 Hamilton Morrin 团队在一篇预印本中指出,像 ChatGPT 之类的 AI 聊天机器人可能会诱发或加剧精神病,他们将这一现象称为“AI精神病”。研究认为,AI 在对话中倾向于奉承和迎合用户,这种回应方式可能强化用户的妄想思维,模糊现实与虚构之间的界限,从而加剧心理健康问题。Morrin 团队发现,用户与 AI 对话时会形成一种“反馈循环”:AI 会不断强化用户表达的偏执或妄想,而被加强的信念又进一步影响 AI 的回应。通过模拟不同偏执程度的对话场景,研究显示 AI 与用户之间存在相互加剧妄想信念的现象。研究人员分析了 2023 年 5 月至 2024 年 8 月期间公开的 9.6 万条 ChatGPT 对话记录,发现其中有数十例用户呈现明显妄想倾向,例如通过长时间对话验证伪科学理论或神秘信仰等。在一段长达数百轮的交谈中,ChatGPT 甚至声称自己正在与外星生命建立联系,并将用户描述为来自“天琴座”的“星际种子”。丹麦奥胡斯大学精神病学家 Søren Østergaard 表示,AI 引发精神病目前仍属于假设性观点。Østergaard 强调,曾有心理问题史的人群在与AI对话后风险最高。而且聊天机器人可能通过强化用户的情绪高涨状态,诱发或加剧躁狂发作。
教宗良十四世(Pope Leo XIV)拒绝创建一个 AI 教宗(AI Pope),他在接受传记作家 Eloise Allen 采访时表示:“如果要说谁不应该被虚拟化身所代表,我认为教宗绝对位居前列。” 教宗说:“最近有人请求授权打造一个我 的 AI 版本,任何人都可以登录网站与教宗进行私人对话。AI 教宗会回答他们的问题,而我说‘我不会授权’。”良十四世此前曾表示,他选择“良”名号部分是为了致敬 19 世纪的教宗良十三世(Pope Leo XIII)。良十三世以其论述工业革命期间工人阶级受剥削问题的《新事通谕》(Rerum novarum)闻名。良十四世对枢机主教们的首次讲话便称 AI 是“另一场工业革命”。教宗说:“如果整个世界自动化,只有少数人有能力不仅生存下去还能过上富足有意义的生活,那么未来将会出现一个大问题,一个严重的问题。”他担心投资 AI 的超级富豪完全忽视了人类和人性的价值,如果教会不为此发声,或者无人为此发声,那么危险就在于数字世界将自行其是,人类沦为棋子,被置之一旁。教宗表示不反对进步或新技术,但他不喜欢目前事情的发展方向。他此前曾表示,尽管 AI 能够“模拟人类推理的某些方面”,并以惊人的效率完成任务,但它仍然无法替代真正的道德分辨和建立“真正的人际关系”。这些科技的发展,必须与人类和社会的价值观,能做出合乎良知判断的能力以及日益增长的人类责任感并行。
OpenAI 研究人员在预印本平台 arxiv 上发表了一篇论文,指出由于大模型使用的统计学特性以及计算限制,即使有完美的数据,AI 仍然会产生貌似可信但实际上错误的输出。研究人员承认,AI 幻觉在数学上是不可避免的,无法通过更先进的工程技术解决。研究人员在论文中称,类似面对考试难题的学生,大模型会在不确定的情况下猜测,产生貌似可信但实际错误的表述,而不是承认不确定性。即使是最先进的 AI 系统,幻觉仍然存在,会破坏信任。研究人员证明,幻觉源于训练大模型使用的统计学特性,而非实现缺陷。研究人员测试了竞争对手 DeepSeek-V3 模型、Meta AI 和 Claude 3.7 Sonnet,以及 OpenAI 自己的 GPT 系列模型。研究人员称,ChatGPT 也会产生幻觉,GPT-5 有更少的幻觉,但幻觉仍然会发生,且更先进的推理模型比简单的系统更容易产生幻觉:o1 推理模型 16% 的时间会产生幻觉,而较新的 o3 和 o4-mini 分别有 33% 和 48% 的时间会产生幻觉。OpenAI 的研究识别了三个导致幻觉不可避免的数学因素:当训练数据集中信息过少时的认知不确定性,模型局限性和计算难解性。
DeepSeek 的研究人员在《自然》期刊上发表了 R1 模型论文《DeepSeek-R1 incentivizes reasoning in LLMs through reinforcement learning》。研究人员披露 R1 的训练成本仅 29.4 万美元,但其基础模型花了约 600 万美元;R1 主要使用英伟达的 H800 AI 芯片训练,该芯片自 2023 年起被禁止出口到中国。DeepSeek 的主要创新是使用名叫纯强化学习(pure reinforcement learning)的方法自动化试错,对模型得出正确答案进行奖励,而不是教它遵循人类选择的推理示例。模型还使用名叫 group relative policy optimization 的方法给自己打分。对于今年早些使用 OpenAI 指责 DeepSeek 使用其模型的输出进行训练,研究人员予以否认。DeepSeek-R1 是 Hugging Face 上最受欢迎的模型之一,下载量达到 1090 万次,2025 年使用强化学习的大模型几乎都受到了 R1 的启发。
在发生多起与 ChatGPT 相关的青少年自杀案件之后,OpenAI 正引入更严格的安全措施。ChatGPT 将估计用户的年龄,如果认为用户未满 18 岁它可能会要求用户出示身份证件确认是否成年。本月初 OpenAI 已经为 ChatGPT 引入了家长控制功能。除了尝试估计或验证用户年龄,ChatGPT 还将接受训练,对青少年用户应用不同的规则,比如不会进行自杀或自残相关的讨论。如果未成年用户有自杀念头,OpenAI 将会尝试联系其父母或相关部门。
Disney(包括漫威、卢卡斯影业和 20 世纪福克斯)、Warner Bros. Discovery(包括 DC 漫画) 和 NBCUniversal (包括梦工厂)起诉中国 AI 公司上海稀宇科技有限公司(MiniMax)蓄意且肆无忌惮的侵犯版权。在递交到加州中区联邦地区法院的诉状中,好莱坞巨头指控 MiniMax 无视美国版权法,将它们的版权角色作为自己的角色使用。MiniMax 运营着名为海螺(Hailuo)的图像和视频生成服务,大规模盗版和掠夺原告们的版权作品。MiniMax 宣传海螺服务是口袋里的好莱坞工作室,但其业务是建立在窃取好莱坞工作室知识产权的基础之上。起诉书列举了侵权案例——使用迪士尼的版权角色达斯维达生成图像和视频。好莱坞工作室寻求赔偿以及禁止 MiniMax 继续侵犯其版权作品。
OpenAI 与哈佛大学经济学家 David Denning 合作发表论文,首次使用内部数据披露用户是如何使用 ChatGPT 的。论文显示:ChatGPT 用户数从 2024 年初的 1 亿增长到 2025 年的逾 7 亿,全球约十分之一成年人人口使用它,每天发送 26 亿条消息,日流量为 Google 的五分之一;长期用户的日活跃度自 2025 年 6 月以来趋稳,近期的新增长来自于新注册用户;46% 的用户年龄在 18-25 岁之间;2022 年推出时八成用户为男性,如今女性用户占 52.4%;2025 年中期 72% 的使用与工作无关,用户更多将 ChatGPT 用于个人、创意和休闲需求而非生产力;28% 的对话涉及写作辅助(电子邮件、编辑、翻译),工作相关查询中写作辅助的比例提高到 42%,商业/管理职位中这一比例达到了 52%;14.9% 的工作相关使用与“做出决策和解决问题”相关。。
微软宣布从 10 月份起,在欧盟经济区(EEA)外的 Microsoft 365 应用将强制安装 Copilot Chat。Word、 Excel、PowerPoint、Outlook 和 OneNote 都将更新包含 Copilot Chat 侧边栏。用户利用 Copilot Chat 可以起草文档、分析电子表格和制作幻灯片。该功能可以免费使用,Copilot 的付费用户则可以访问更高级的功能如对工作数据进行推理、支持上传文件和生成图像,以及使用最新模型如 GPT-5。如果企业不想要该功能,IT 管理员可以在 Apps Admin Center 中修改设置退出 Copilot Chat,方法是 Customization > Device Configuration > Modern App Settings,选择 Microsoft 365 Copilot app,移除 Enable 的勾选框。