solidot新版网站常见问题,请点击这里查看。
咨询公司 Gartner 警告,AGI 至少需要 10 年才可能实现,可能永远无法实现,甚至不值得去追求。AGI 是过去几年的热门主题,OpenAI 等大模型构建者大胆宣称已经建立了一条通往类人智能的道路。但认知科学领域的专家对此不以为然,认为大模型所采用的方法是不充分的。Gartner 认为 GenAI 即将迎来幻灭期,人们对它的期望过高,但现实远远达不到这一期望,至少短期内不可能实现。道路将会是曲折的。生成式 AI 不会消失,但投资的热情将会削弱,AI 专家认为一个重大挑战是生成式 AI 的“幻觉”问题缺乏强有力的解决方案。

愈来愈多的投资者担心 AI 并不能带来他们所寻求的巨额利润。过去几周,驱动 AI 革命的几家西方公司的股价下跌了 15%。观察家们开始质疑大模型的局限性。大型科技公司已在 AI 上投入了数百亿美元,并承诺未来会投入更多。数据显示,只有 4.8% 的美国公司在产品和服务中使用 AI,相比下年初这一比例高达 5.4%。AI 会改变世界还是今天的 AI 狂热只是昙花一现,目前还难以判断。科技巨头们面临的一大挑战是证明 AI 能帮助实体经济。今天的 AI 热也许“来的容易去的也快”。

英国巴斯大学和德国达姆斯塔理工大学的研究人员报告,ChatGPT 等大模型 (LLM) 无法独立学习或获得新技能,意味着它们不会对人类构成生存威胁。研究表明,LLM 具有遵循指令和精通语言的表层能力,但如果没有明确的指导,它们不具有掌握新技能的潜力。这意味着它们是可控的、可预测的和安全的。研究小组的结论是,在越来越大数据集上训练的 LLM 可以继续部署而不会有安全问题,但该技术仍然可能会被滥用。

AI 学界将图灵测试视为智能的终结测试,然而图灵本人不是这么认为的,他将这一测试称为模仿游戏,将其作为与智能相关的一种简化的替代问题。然而当模仿游戏以图灵本人的名字命名之后,它被赋予了权威性,成为一代又一代 AI 研究人员追逐的目标。大模型就是这一目标的最新成果。大模型如 ChatGPT 所代表的 AI 在模仿人类上达到新的高度,以至于它的诞生在流行文化中被视为是一大转折点。但在技术层面上,大模型只是对数据的模仿,用 AI 研究员 Emily Bender 等人的话说就是“随机鹦鹉”。鹦鹉能流畅的重复类似人类的内容本身当然令人印象深刻。但它只是通过模仿伪装有智能,它依赖于训练数据,然后利用统计方法选择性的拟合数据,不可避免的会产生偏见和幻觉,这是它的特性而不是 bug。AI 的统计模型将我们的偏见编纂成法典,在计算客观性的伪装下重现它们。但为什么 AI 的模仿游戏备受科技巨头们的青睐?用马克思的话说,资本只关心商品的效用。简单来说,商品的包装比改进商品的使用价值对资本而言更为重要。但要实现真正的通用 AI,我们不能只着眼于模仿。

前 Google CEO 和董事长 Eric Schmidt 早些时候在斯坦福大学发表演讲,评论了 Google 和 OpenAI 之间的 AI 竞争,他认为 Google 员工的工作太轻松了,可以远程工作,可以更早下班,没有 OpenAI 员工工作拼命,这是导致 Google 在 AI 竞赛中落后的重要原因。他的这番评论引发了争议。Schmidt 随后通过发送给《华尔街日报》的电子邮件收回了这一争议评论。他在声明中表示,有关 Google 及其员工工作时间的说法有错误,他为其犯下的错误感到后悔。Stanford Online 账号在 YouTube 上传了 Schmidt 的视频,但该视频已经被设为私有,Schmidt 表示他要求将该视频下线。

新加坡前总理、现政府资政李显龙在 Facebook 上对他的深度伪造视频发出了警告,他表示深度伪造视频制作者的动机未必是纯商业性的,存在显而易见的恶意。新加坡政府表示考虑在大选前禁止深度伪造。数字发展和信息部长 Josephine Teo 表示,新加坡可效仿韩国,韩国在 4 月议会选举前对 AI 生成内容实施了 90 天的禁令,选举期间的深度伪造制作者会面临最高 7 年的监禁或最高 5000 万韩元罚款。菲律宾选举委员会呼吁在 2025 年参议院选举前实施类似的禁令。对于政府的计划,批评者表示,我们不能假设任何问题的解决办法都是用更多的法律、更多的权力和更多的裁量权武装国家。

前 Google CEO 和执行董事长 Eric Schmidt 在斯坦福大学做演讲回答有关 Google 在与 OpenAI 的 AI 竞争中落后的提问时表示,罪魁祸首是远程工作。他的这番言论招致了广泛批评。Schmidt 说,Google 认为平衡工作和生活、更早回家和在家远程工作比赢更重要,创业公司之所以成功是因为员工工作拼命(work like hell)。

旧金山停车场的 Waymo 无人驾驶汽车被发现存在奇怪的 bug,它们彼此会反复的鸣笛,干扰了附近居民的睡眠和日常生活。鸣笛的现象是随机发生的,有多名居民为此投诉。当地居民 Randol White 表示在凌晨四点被汽车的鸣笛声惊醒,另一名居民 Russell Pofsky 表示,过去两周被惊醒的次数超过了过去二十年的总和。Waymo 发表声明承认汽车有故障,表示已经确定了原因正在进行修复。

国家工业信息安全发展研究中心等机构联合开发的 Linux 桌面发行版 openKylin 释出了 2.0 版本,该版本的一大重点是 AI。openKylin 2.0 使用了 Linux 6.6 LTS 内核,增加了对 NPU(神经网络处理器)的支持,“上线一系列实用 AI 功能,包括:麒麟AI助手、智能文生图、智能模糊搜索、智能剪切板、智能数据管理等,率先实现与 Intel 最新 14 代 Meteor Lake 平台 AI PC 的适配”,支持最新讯飞星火大模型 V4.0 版本。其它变化包括:开明软件包格式,软件商店上架了 100 款开明应用;基于 OStree 的不可变系统;wayland 合成器 wlcom;UKUI 4.10 桌面环境;等等。

OpenAI 联合创始人 John Schulman 宣布了离职,加盟竞争对手 Anthropic。Schulman 自 2016 年获得加州伯克利计算机科学博士之后一直在 OpenAI 工作。他在离职声明中表示希望继续深入研究 AI 对齐,而 OpenAI 在不到 3 个月前解散了其超级对齐(superalignment)团队。然而 Schulman 又强调离职不是因为 OpenAI 不支持 AI 对齐相关的工作,表示公司一直致力于相关研究的投资。超级对齐团队负责人 Jan Leike 和另一位联合创始人 Ilya Sutskever 也在早些时候离职,其中 Jan Leike 加盟了 Anthropic,而 Sutskever 联合创办了新公司 Safe Superintelligence Inc.。

今年初,马斯克(Elon Musk)向旧金山高等法院起诉 OpenAI 及联合创始人 Sam Altman 等人,称其为了利润而非人类的利益开发人工智能,此举违反了合同。OpenAI 随后公开了马斯克的邮件,证明作为曾经的联合创始人,马斯克同意 OpenAI 建立一个盈利实体,还表示将提供资金,但之后暂停了资金支持,他的目的是获得多数股权和董事会控制权,双方最终因此终止了合作。七周前马斯克撤回了诉讼。现在马斯克向加州联邦法院重启诉讼,再次指控 OpenAI 联合创始人 Sam Altman 和 Greg Brockman 违反公司的创始原则,将商业利益置于公共利益之上。起诉书声称,这是莎士比亚式的...背信弃义和欺骗。

逾 6.5 万名开发者参加了编程问答社区 Stack Overflow 的年度调查,首次调查了 AI 是否会影响到程序员工作。结果显示,只有 12% 的开发者认为 AI 威胁到了其当前的工作,70% 的人将 AI 工具作为其工作流程的一部分,使用 AI 的开发者表示它最大的好处是提高生产力,其次是有助于快速学习新技能。使用 AI 工具的开发者比例从 2023 年的 44% 提高到了 2024 年的 62%。71% 从业经验不足 5 年的程序员在开发中使用了 AI,从业经验 20 年的程序员中这一比例为 49%。最流行的 AI 工具是 ChatGPT(82%),两倍于 GitHub Copilot,使用 ChatGPT 的开发者有 74% 希望继续使用。但对于 AI 工具的准确性只有 43% 的人表示了信任,45% 的人认为 AI 工具难以处理复杂任务。调查还发现,程序员的失业率有所上升,但整体上仍然只有 4.4%;他们的薪水中位数则有了显著下降,2024 年全栈开发者的均薪比 2023 年下降了 11% 至 63,333 美元。调查还发现,38% 的开发者是全职远程工作,只有 20% 恢复纯办公室工作模式,其他人则是混合办公模式。最流行的 IDE 仍然是 VS Code 和 Visual Studio,最常用的语言仍然是 Javascript,最希望使用的语言是 Python,最想再次尝试的语言是 Rust。

阿根廷安全部宣布了使用 AI 预测未来犯罪的计划,此举被批评可能危及公民权利。阿根廷极右翼总统 Javier Milei 本周成立了一个新部门 Artificial Intelligence Applied to Security Unit,将使用机器学习算法分析历史犯罪数据以预测未来犯罪。该部门预计还将部署面部识别软件识别通缉犯,巡视社交媒体,分析实时监控探头以发现可疑活动。虽然安全部表示新部门将有助于“发现潜在威胁、识别犯罪集团动向或预测骚乱”,但类似《少数派报告》的方法仍然给人们敲响了警钟。专家担心特定社会群体可能会受到该技术的过度审查,以及对谁能访问这些信息表达了担忧。国际特赦组织警告说,大规模监控影响言论自由,鼓励自我审查,危及人权。

AI 创业公司 Stability AI 推出了从单幅图像快速生成 3D 模型的 Stable Fast 3D。Stable Fast 3D 的模型代码已发布在 GitHub 上,模型权重和演示发布在 Hugging Face 上,它采用的 Stability AI Community License 许可证允许年收入低于百万美元的个人或机构商业性和非商业性使用。Stability AI 称它的新模型只要 0.5 秒就能完成 3D 模型的生成,可用于快速制作原型,满足游戏、虚拟现实以及零售、建筑和设计领域的企业和独立开发者的需求。

微软披露,在截至 6 月的季度它的现金资本支出和设备支出高达 190 亿美元,相当于 5 年前的全年支出。这笔支出大部分和 AI 有关,其中半数被用于建造和租赁数据中心。Google 的情况类似,它在上半年大幅增加了 AI 基础设施的支出,预计年底将花费高达 490 亿美元。但在 AI 上的投资至少在短期内是无法回本的,微软首席财务官 Amy Hood 表示,该公司预测这些投资可能需要 15 年或更长时间才能货币化。这一言论令分析师们感到担忧。高盛资深分析师 Jim Covello 上个月指出,AI 远未达到实用的水平。虽然科技巨头们坚称 AI 是一项长期投资,但华尔街的分析师们对亏损日益谨慎。OpenAI 被认为如果没有巨额资金注入会在未来 12 个月内耗尽现金。

华盛顿州立大学的一项研究发现,在产品描述中使用术语 AI 会降低消费者的购买意愿。研究人员调查了逾千名美国成年人,发现在产品描述中提及 AI 会削弱情感信任,降低购买意愿。例如,参与者查看了与智能电视相关的描述,一组的描述中有 AI,另一组没有,结果看到产品描述含有 AI 的一组人表示他们不太可能购买这款电视机。对于高风险的产品和服务如医疗设备和金融服务,术语 AI 会激起更加强烈的负面反应。

艾伦是微软的一名年轻工程师,从事云计算相关工作,过着舒适的生活,收入是北京平均收入的六倍,可以经常外出就餐,随时打车。但现在微软要求艾伦考虑在太平洋彼岸开始新生活,数百名从事 AI 和云计算工作的微软中国员工被要求考虑搬迁到加拿大、澳大利亚或华盛顿雷德蒙德微软总部等地工作,艾伦的迁移地点是温哥华。他认为温哥华的生活肯定不会像北京那么舒服。接收匿名采访的员工表示,美国总部最受青睐,而加拿大则不受欢迎,因为当地薪水较低。一位拒绝迁往温哥华的北京员工表示,如果扣除掉税,除西雅图外,其它所有地方的工资都可能比北京低。生活质量会受到影响。微软告诉员工,它没有解雇拒绝调动的员工的计划。员工还表示,他们担心持工作签证的生活是不稳定的,尤其是如果特朗普再次当选总统,他可能会出台更多反移民政策。艾伦在再三考虑之后接受了去温哥华的调动。

欧洲数据保护监管机构正“寻求澄清”马斯克(Elon Musk)旗下 X 公司允许用户数据自动输入其人工智能初创企业 xAI 的决定,给这个社交媒体平台带来了新的监管审查。上周五 X 用户发现他们被“选择加入”了将他们在该网站上的帖子以及与其 Gro k聊天机器人的互动用于“训练和优化”xAI 系统的行为。此举未事先获得用户明确同意,且相关设置只能在桌面版本上修改,用户目前无法通过移动 APP 选择退出数据共享。爱尔兰数据保护委员会表示“寻求 X 对此进行澄清”。隐私专家认为 X 此举违反了欧盟的 GDPR(General Data Protection Regulation)规定,该规定要求收集或使用个人数据的公司首先征得个人同意并披露原因。如果爱尔兰监管机构启动 GDPR 调查,X 可能会面临处罚。

OpenAI 演示了它的搜索工具原型 SearchGPT,但演示结果很快被发现存在错误。在其中一个演示中,OpenAI 模拟用户向 SearchGPT 询问八月份在北卡 Boone 举行的音乐节,SearchGPT 返回的结果中第一个是 An Appalachian Summer Festival,声称举办时间是 7 月 29 日到 8 月 16 日。如果真的有人去订音乐节的票,他们会发现该音乐节实际上始于 6 月 29 日,结束于 7 月 27 日。7 月 29 日到 8 月 16 日是音乐节票房关闭的日期。

Google DeepMind 新 AI 系统 AlphaProof 和 A​​lphaGeometry 2 能在 2024 年国际数学奥林匹克(IMO)竞赛获得银牌,解决了六道题中的四道,获得了 28/42 分,标志着 AI 在数学推理方面取得重大突破。IMO 是历史最悠久、规模最大、最负盛名的青年数学家竞赛,自 1959 年以来每年举办一次。选手要解决代数、组合学、几何和数论方面六个异常困难的问题。DeepMind 表示,IMO 的数学问题被人工翻译成数学语言,供系统理解。在正式比赛中,学生们分两次提交答案,每次 4.5 小时。而 AI 系统在几分钟内解决了一个问题,花了三天时间解决其他问题。基于强化学习的推理系统 AlphaProof 解决了两个代数问题和一个数论问题并被证明答案正确,这些问题包括今年 IMO 比赛中只有 5 名选手解决的最难的问题。AlphaGeometry 2 证明了几何问题,但两个组合问题仍未解决。