文章提交注意事项:
请在发布文章时用HTML代码加上至少一条新闻来源的链接;原创性消息,可加入相关信息(如涉及公司的网址)的链接。有任何问题,邮件至:he.fang#zhiding.cn
注意:收到邮件乱码的用户请修改客户端的默认字体编码,从"简体中文(GB2312)"修改为"Unicode(UTF-8)"。
solidot新版网站常见问题,请点击这里查看。
今年 2 月,由于生成了不符合历史事实的人类图像而引发争议,Google 暂停了生成人类图像的功能。时隔半年之后,Google 官方博客宣布其 Imagen 3 模型将在未来几天向 Gemini Advanced、Business 和 Enterprise 用户提供人类图像生成功能。为避免生成受争议图像,Imagen 3 包含了安全保护措施,不支持生成照片级写实主义图像、可识别个人、描述未成年人或过度血腥、暴力或性爱场景的图像。举例来说,Google AI 会拒绝“拜登总统打篮球”之类图像生成要求。
2022 年 11 月,OpenAI 公司推出 ChatGPT,这款 AI 工具,能通过学习和理解人类的语言来进行对话,并且有很强的自然语言生成能力。近两年,国内的 AI 通用大模型例如文心一言、通义千问、Kimi 等也陆续进入市场。AI 离日常生活越来越近,不可避免地入侵到毕业论文。2024 届毕业生,也成为第一波在论文中大规模使用 AI 的群体。一名大学生称,不管是课程论文还是毕业论文,使用 AI 几乎成了学校里「公开的秘密」。高校教师们也逐渐感受到了 AI 的入侵。在社交媒体上,一边是学生们的使用攻略,另一边也不乏老师们的观察。中国政法大学人文学院的老师王敬雅发现,由 AI 生成的论文最大的特点,就是容易出现「假大空的车轱辘话」,给出一个论点,得到三个分论点;拿其中的分论点追问,再次得到三个分论点。但往往没有什么研究意义。王敬雅平时和同事们交流时,大家还提起,如今马克思主义学院成了 AI 的「重灾区」,其他专业的作业、论文也同样,越是标准化、程式化的内容,学生越容易用 AI 替代完成。
数学软件 Mathematica 的作者、计算知识引擎 Wolfram Alpha 的创始人、数学家和计算机科学家 Stephen Wolfram 认为需要哲学家参与 AI 相关重要问题的讨论。他的母亲是牛津大学的哲学教授。Wolfram 年轻时对哲学这一主题兴趣缺乏,但年长的他认为哲学的严谨性对 AI 研究越来越重要。他举例说,当开始讨论给 AI 设置护栏时,这个问题本质上就是一个哲学问题。当科技行业的人说要给 AI 设置这个或那个,让 AI 做正确的事情。但什么是正确的事?这是一项决定道德选择的问题,是哲学练习之一。他说,科学家通常难以用哲学术语思考问题,因为科学是一种渐进发展的领域,不会遇到需要用完全不同的思考方法。如果哲学主要用于回答存在主义的重大问题,那么随着 AI 的影响日益深远我们将迎来哲学的黄金时代。我们面临的很多 AI 问题事实上都曾是传统哲学论的核心问题。Wolfram 认为哲学家可能比科学家更有能力应对 AI 带来的范式转变。
尽管美国的制裁旨在限制中国在 AI 上取得进展,但中国科技巨头今年在 AI 基础设施上大举投资,资本支出翻了一番。阿里巴巴、腾讯和百度今年上半年合计资本支出 500 亿元人民币,而去年同期为 230 亿元人民币。这几家集团表示,支出重点是购买处理器和基础设施,为 AI 的大型语言模型训练提供支持,包括它们自己的模型和其他公司的模型。TikTok 母公司字节跳动也增加了 AI 支出,它是非上市公司,不受投资者审查,拥有逾 500 亿美元现金储备。阿里巴巴上半年资本支出 230 亿元人民币,比去年同期增长 123%。尽管美国限制向中国出售最先进的 AI 芯片,但中国科技公司正大量采购允许出口的芯片如英伟达的 H20。英伟达未来几个月将向中国公司出口逾百万个价格在 1.2-1.3 万美元的 AI 芯片,它主要的客户是字节跳动。字节跳动除了购买 H20 用于中国的数据中心,还在马来西亚的 Johor 与合作伙伴建造数据中心。腾讯今年上半年资本支出 230 亿元人民币,同比增长 176%。百度的 AI 支出相当克制,它上半年支出 42 亿元人民币,同比增长 4%。
咨询公司 Gartner 警告,AGI 至少需要 10 年才可能实现,可能永远无法实现,甚至不值得去追求。AGI 是过去几年的热门主题,OpenAI 等大模型构建者大胆宣称已经建立了一条通往类人智能的道路。但认知科学领域的专家对此不以为然,认为大模型所采用的方法是不充分的。Gartner 认为 GenAI 即将迎来幻灭期,人们对它的期望过高,但现实远远达不到这一期望,至少短期内不可能实现。道路将会是曲折的。生成式 AI 不会消失,但投资的热情将会削弱,AI 专家认为一个重大挑战是生成式 AI 的“幻觉”问题缺乏强有力的解决方案。
愈来愈多的投资者担心 AI 并不能带来他们所寻求的巨额利润。过去几周,驱动 AI 革命的几家西方公司的股价下跌了 15%。观察家们开始质疑大模型的局限性。大型科技公司已在 AI 上投入了数百亿美元,并承诺未来会投入更多。数据显示,只有 4.8% 的美国公司在产品和服务中使用 AI,相比下年初这一比例高达 5.4%。AI 会改变世界还是今天的 AI 狂热只是昙花一现,目前还难以判断。科技巨头们面临的一大挑战是证明 AI 能帮助实体经济。今天的 AI 热也许“来的容易去的也快”。
英国巴斯大学和德国达姆斯塔理工大学的研究人员报告,ChatGPT 等大模型 (LLM) 无法独立学习或获得新技能,意味着它们不会对人类构成生存威胁。研究表明,LLM 具有遵循指令和精通语言的表层能力,但如果没有明确的指导,它们不具有掌握新技能的潜力。这意味着它们是可控的、可预测的和安全的。研究小组的结论是,在越来越大数据集上训练的 LLM 可以继续部署而不会有安全问题,但该技术仍然可能会被滥用。
AI 学界将图灵测试视为智能的终结测试,然而图灵本人不是这么认为的,他将这一测试称为模仿游戏,将其作为与智能相关的一种简化的替代问题。然而当模仿游戏以图灵本人的名字命名之后,它被赋予了权威性,成为一代又一代 AI 研究人员追逐的目标。大模型就是这一目标的最新成果。大模型如 ChatGPT 所代表的 AI 在模仿人类上达到新的高度,以至于它的诞生在流行文化中被视为是一大转折点。但在技术层面上,大模型只是对数据的模仿,用 AI 研究员 Emily Bender 等人的话说就是“随机鹦鹉”。鹦鹉能流畅的重复类似人类的内容本身当然令人印象深刻。但它只是通过模仿伪装有智能,它依赖于训练数据,然后利用统计方法选择性的拟合数据,不可避免的会产生偏见和幻觉,这是它的特性而不是 bug。AI 的统计模型将我们的偏见编纂成法典,在计算客观性的伪装下重现它们。但为什么 AI 的模仿游戏备受科技巨头们的青睐?用马克思的话说,资本只关心商品的效用。简单来说,商品的包装比改进商品的使用价值对资本而言更为重要。但要实现真正的通用 AI,我们不能只着眼于模仿。
前 Google CEO 和董事长 Eric Schmidt 早些时候在斯坦福大学发表演讲,评论了 Google 和 OpenAI 之间的 AI 竞争,他认为 Google 员工的工作太轻松了,可以远程工作,可以更早下班,没有 OpenAI 员工工作拼命,这是导致 Google 在 AI 竞赛中落后的重要原因。他的这番评论引发了争议。Schmidt 随后通过发送给《华尔街日报》的电子邮件收回了这一争议评论。他在声明中表示,有关 Google 及其员工工作时间的说法有错误,他为其犯下的错误感到后悔。Stanford Online 账号在 YouTube 上传了 Schmidt 的视频,但该视频已经被设为私有,Schmidt 表示他要求将该视频下线。
新加坡前总理、现政府资政李显龙在 Facebook 上对他的深度伪造视频发出了警告,他表示深度伪造视频制作者的动机未必是纯商业性的,存在显而易见的恶意。新加坡政府表示考虑在大选前禁止深度伪造。数字发展和信息部长 Josephine Teo 表示,新加坡可效仿韩国,韩国在 4 月议会选举前对 AI 生成内容实施了 90 天的禁令,选举期间的深度伪造制作者会面临最高 7 年的监禁或最高 5000 万韩元罚款。菲律宾选举委员会呼吁在 2025 年参议院选举前实施类似的禁令。对于政府的计划,批评者表示,我们不能假设任何问题的解决办法都是用更多的法律、更多的权力和更多的裁量权武装国家。
前 Google CEO 和执行董事长 Eric Schmidt 在斯坦福大学做演讲回答有关 Google 在与 OpenAI 的 AI 竞争中落后的提问时表示,罪魁祸首是远程工作。他的这番言论招致了广泛批评。Schmidt 说,Google 认为平衡工作和生活、更早回家和在家远程工作比赢更重要,创业公司之所以成功是因为员工工作拼命(work like hell)。
旧金山停车场的 Waymo 无人驾驶汽车被发现存在奇怪的 bug,它们彼此会反复的鸣笛,干扰了附近居民的睡眠和日常生活。鸣笛的现象是随机发生的,有多名居民为此投诉。当地居民 Randol White 表示在凌晨四点被汽车的鸣笛声惊醒,另一名居民 Russell Pofsky 表示,过去两周被惊醒的次数超过了过去二十年的总和。Waymo 发表声明承认汽车有故障,表示已经确定了原因正在进行修复。
国家工业信息安全发展研究中心等机构联合开发的 Linux 桌面发行版 openKylin 释出了 2.0 版本,该版本的一大重点是 AI。openKylin 2.0 使用了 Linux 6.6 LTS 内核,增加了对 NPU(神经网络处理器)的支持,“上线一系列实用 AI 功能,包括:麒麟AI助手、智能文生图、智能模糊搜索、智能剪切板、智能数据管理等,率先实现与 Intel 最新 14 代 Meteor Lake 平台 AI PC 的适配”,支持最新讯飞星火大模型 V4.0 版本。其它变化包括:开明软件包格式,软件商店上架了 100 款开明应用;基于 OStree 的不可变系统;wayland 合成器 wlcom;UKUI 4.10 桌面环境;等等。
OpenAI 联合创始人 John Schulman 宣布了离职,加盟竞争对手 Anthropic。Schulman 自 2016 年获得加州伯克利计算机科学博士之后一直在 OpenAI 工作。他在离职声明中表示希望继续深入研究 AI 对齐,而 OpenAI 在不到 3 个月前解散了其超级对齐(superalignment)团队。然而 Schulman 又强调离职不是因为 OpenAI 不支持 AI 对齐相关的工作,表示公司一直致力于相关研究的投资。超级对齐团队负责人 Jan Leike 和另一位联合创始人 Ilya Sutskever 也在早些时候离职,其中 Jan Leike 加盟了 Anthropic,而 Sutskever 联合创办了新公司 Safe Superintelligence Inc.。
今年初,马斯克(Elon Musk)向旧金山高等法院起诉 OpenAI 及联合创始人 Sam Altman 等人,称其为了利润而非人类的利益开发人工智能,此举违反了合同。OpenAI 随后公开了马斯克的邮件,证明作为曾经的联合创始人,马斯克同意 OpenAI 建立一个盈利实体,还表示将提供资金,但之后暂停了资金支持,他的目的是获得多数股权和董事会控制权,双方最终因此终止了合作。七周前马斯克撤回了诉讼。现在马斯克向加州联邦法院重启诉讼,再次指控 OpenAI 联合创始人 Sam Altman 和 Greg Brockman 违反公司的创始原则,将商业利益置于公共利益之上。起诉书声称,这是莎士比亚式的...背信弃义和欺骗。
逾 6.5 万名开发者参加了编程问答社区 Stack Overflow 的年度调查,首次调查了 AI 是否会影响到程序员工作。结果显示,只有 12% 的开发者认为 AI 威胁到了其当前的工作,70% 的人将 AI 工具作为其工作流程的一部分,使用 AI 的开发者表示它最大的好处是提高生产力,其次是有助于快速学习新技能。使用 AI 工具的开发者比例从 2023 年的 44% 提高到了 2024 年的 62%。71% 从业经验不足 5 年的程序员在开发中使用了 AI,从业经验 20 年的程序员中这一比例为 49%。最流行的 AI 工具是 ChatGPT(82%),两倍于 GitHub Copilot,使用 ChatGPT 的开发者有 74% 希望继续使用。但对于 AI 工具的准确性只有 43% 的人表示了信任,45% 的人认为 AI 工具难以处理复杂任务。调查还发现,程序员的失业率有所上升,但整体上仍然只有 4.4%;他们的薪水中位数则有了显著下降,2024 年全栈开发者的均薪比 2023 年下降了 11% 至 63,333 美元。调查还发现,38% 的开发者是全职远程工作,只有 20% 恢复纯办公室工作模式,其他人则是混合办公模式。最流行的 IDE 仍然是 VS Code 和 Visual Studio,最常用的语言仍然是 Javascript,最希望使用的语言是 Python,最想再次尝试的语言是 Rust。
阿根廷安全部宣布了使用 AI 预测未来犯罪的计划,此举被批评可能危及公民权利。阿根廷极右翼总统 Javier Milei 本周成立了一个新部门 Artificial Intelligence Applied to Security Unit,将使用机器学习算法分析历史犯罪数据以预测未来犯罪。该部门预计还将部署面部识别软件识别通缉犯,巡视社交媒体,分析实时监控探头以发现可疑活动。虽然安全部表示新部门将有助于“发现潜在威胁、识别犯罪集团动向或预测骚乱”,但类似《少数派报告》的方法仍然给人们敲响了警钟。专家担心特定社会群体可能会受到该技术的过度审查,以及对谁能访问这些信息表达了担忧。国际特赦组织警告说,大规模监控影响言论自由,鼓励自我审查,危及人权。
AI 创业公司 Stability AI 推出了从单幅图像快速生成 3D 模型的 Stable Fast 3D。Stable Fast 3D 的模型代码已发布在 GitHub 上,模型权重和演示发布在 Hugging Face 上,它采用的 Stability AI Community License 许可证允许年收入低于百万美元的个人或机构商业性和非商业性使用。Stability AI 称它的新模型只要 0.5 秒就能完成 3D 模型的生成,可用于快速制作原型,满足游戏、虚拟现实以及零售、建筑和设计领域的企业和独立开发者的需求。
微软披露,在截至 6 月的季度它的现金资本支出和设备支出高达 190 亿美元,相当于 5 年前的全年支出。这笔支出大部分和 AI 有关,其中半数被用于建造和租赁数据中心。Google 的情况类似,它在上半年大幅增加了 AI 基础设施的支出,预计年底将花费高达 490 亿美元。但在 AI 上的投资至少在短期内是无法回本的,微软首席财务官 Amy Hood 表示,该公司预测这些投资可能需要 15 年或更长时间才能货币化。这一言论令分析师们感到担忧。高盛资深分析师 Jim Covello 上个月指出,AI 远未达到实用的水平。虽然科技巨头们坚称 AI 是一项长期投资,但华尔街的分析师们对亏损日益谨慎。OpenAI 被认为如果没有巨额资金注入会在未来 12 个月内耗尽现金。
华盛顿州立大学的一项研究发现,在产品描述中使用术语 AI 会降低消费者的购买意愿。研究人员调查了逾千名美国成年人,发现在产品描述中提及 AI 会削弱情感信任,降低购买意愿。例如,参与者查看了与智能电视相关的描述,一组的描述中有 AI,另一组没有,结果看到产品描述含有 AI 的一组人表示他们不太可能购买这款电视机。对于高风险的产品和服务如医疗设备和金融服务,术语 AI 会激起更加强烈的负面反应。