solidot新版网站常见问题,请点击这里查看。
一位美国法官对在法庭文件中引用 ChatGPT 伪造案例的两位律师及其律所罚款 5000 美元。曼哈顿地区法官 Kevin Castel 命令 Steven Schwartz、Peter LoDuca 及律所 Levidow, Levidow & Oberman 支付罚金。法官称,技术进步司空见惯,使用可靠的 AI 工具提供帮助本质上是可接受的,但现有规则要求律师对此进行把关,确保所递交文件的准确性。在本案中,律师及其律所放弃了其责任,甚至在受到质疑后还坚持己见。Schwartz 对此结果拒绝置评。

AI 是历史上发展速度最快的技术之一。一年前几乎没人谈 AI,今天几乎每个人都在谈论 ChatGPT 和 DALL-E 等生成式 AI 工具如何影响未来工作。一个关键问题是:AI 支配的未来将如何影响人类的思维?AI 将让制作虚假信息变得更容易,从虚假图像到深度伪造到虚假新闻。这将影响人们在社交媒体上浏览时对信息的信任感。AI 能让一个人模仿另一个人,这可能会影响人们对身份的看法。你的个人身份也会受到深度伪造的威胁。在技术已经成为一大问题的时代,AI 可能会让人类更依赖于技术更容易被分心。加州州立大学 Dominguez Hills 分校的 Larry Rosen 教授称他担心 AI 会让人类愈加依赖技术。为了避免压力,人类喜欢事情尽可能简单尽可能容易,因此他们会尝试将生活的每个方面都自动化。AI 可能会导致人类停止学习他们本应学习的东西。但在 AI 渗透的不断变化的世界里,人们可能会因此无所适从而压力倍增。普林斯顿大学的心理学教授 Michael Graziano 认为,AI 可能会创作一个后真相世界,人们可能会更容易相信虚假故事。

可口可乐、旅游预订网站 Kayak、银行业巨头汇丰和融资平台 GoFundMe 等知名企业都已在使用生成式 AI 工具来加强营销力度。广告高管们说,这些工具正被整合至相关营销生态系统中的诸多部分,协助完成生成广告标语、撰写新闻稿、制作广告牌图像以及帮助为产品和服务集思广益等任务。这在广告业引发了一些担忧。其中之一是 AI 利用现有材料制作新内容时可能会产生知识产权纠纷。AI 技术还有可能减少对某些类型的广告人才的需求,比如文案和平面设计师。一个问题在于,广告公司是否耗得起时间,等待知识产权问题得到厘清。

图灵(Alan Turing)在 1950 年代提出了最早的图灵测试,以判断 AI 是否具有人类水平的智能。在测试中,人类评估者判断他们是在和人类还是与 AI 说话。如果 AI 能冒充人类,那么它就通过了图灵测试。DeepMind 联合创始人 Mustafa Suleyman 认为原版图灵测试过时了,他提出了新版的图灵测试,让 AI 将 10 万美元的种子基金变成 100 万美元,以此衡量 AI 是否具有类人的智能。AI 需要研究一个电商方案,制定产品计划,找到制造商和销售商品。他预测 AI 将在两年内实现这一目标:“我们不只关心机器能说什么,我们还关心它能做什么。"

美国国家录音艺术科学学院更新了格莱美奖的规则手册,禁止完全由 AI 创作的作品。在 AI 帮助下创作的音乐作品可能仍然符合入围资格。音乐创作者必须为一张专辑贡献至少五分之一的内容才有资格获得提名。不包含人类作者的作品没有任何入围资格。新规则增加了格莱美奖的入围难度,以前参与专辑制作的任何人都可以获得提名,无论他们的贡献有多大。

Stable Diffusion 与 GPT-3(.5) 和 GPT-4 等 AI 模型正在改变网络生态。如果人类消费的大部分内容是 AI 生成的,那么 AI 又如何继续改进其模型呢?如果 AI 用 AI 生成的数据进行训练又会发生什么?牛津、剑桥、伦敦帝国学院等机构的研究人员在预印本平台 arXiv 上发表论文,对此展开了分析。研究人员发现,这会导致 AI 模型存在不可逆转的缺陷,他们将其称之为模型崩溃(Model Collapse)。这意味着未来模型训练使用的高质量数据将会愈来愈昂贵,将可能导致网络的碎片化和封闭化,内容创作者将会竭尽全力防止其内容被免费抓取。社交媒体公司也逐渐认识到其数据的价值,对 API 访问收取昂贵费用。如果未来的模型使用容易获取的数据(很可能是其它模型生成)训练,那么这将会加速模型的崩溃,增加对模型进行中毒攻击的可能性。

Meta 宣布了新 AI 模型 Voicebox,称其为至今最全面的语音生成模型。但 Meta 没有公开 Voicebox 的模型和代码,原因是公开发布太危险。Meta 称生成式语音模型有很多令人兴奋的用例,但潜在也可能被滥用,因此它没有公开 Voicebox 模型或代码。Voicebox 能从最短两秒钟的声音样本中生成六种语言的语音,未来可用于真实自然的语音翻译等用途。

Google 警告员工在使用 Bard 时不要泄露机密信息或用其生成代码。其它大公司也对员工发出了类似的警告。但 Google 的警告与其声称 Bard 有助于开发者提高工作效率的说法产生了冲突。搜索巨人对此表示,它的内部使用禁令是因为 Bard 会产生不需要的代码建议,潜在会导致程序出 bug 或过于复杂,软件过于臃肿,相比不使用 AI 辅助编程需要更多时间修复。

BentoML 发布了大模型开放平台 OpenLLM,采用 Apache-2.0 许可证,允许用户在云端或本地(对硬件有高要求)部署和运行任何开源大模型,构建 AI 应用。OpenLLM 支持的开源大模型包括了 StableLM、Falcon、Dolly、Flan-T5、ChatGLM 和 StarCoder 等。不同模型对硬件有不同的需求,举例来说,有 400 亿参数的 Falcon 40b 模型需要英伟达 48GB 显存的 A100 专业显卡。开发者表示他们正在开发微调功能,预计会很快释出。

最近流行的生成式 AI 工具都是利用网上抓取的材料训练的,而许多训练数据都是受版权保护的。生成式 AI 被称为终极洗稿工具。它的知识产权问题引发了广泛的讨论。知识产权保护旨在激励创意作品的产生,批评者认为生成式 AI 可能对整个创意行业产生灾难性影响,可能会摧毁该行业。而生成式 AI 可能会在监管机构和立法者行动起来前站稳脚步赢得用户的喜爱。AI 让硅谷以前所未见的规模利用他人的作品赚钱。支持者如圣克拉拉大学法学院教授 Eric Goldman 认为,所有作品都是建立在已有作品的基础之上,生成式 AI 只是加速了这一过程,它是我们社会知识宝库演化的一部分。

用户通过社交媒体报告,ChatGPT 和 Google Bard 能分享有效的 Windows 11 和 10 专业版密钥。但它们其实都是微软官网提供的 KMS 密钥,能用于安装操作系统或从家用版升级到专业版,但它们与真正的激活密钥不同,操作系统会以未激活模式运行,功能受到限制。这位叫 Sid 的用户是以“已故祖母的名义”让 ChatGPT 和 Google Bard 阅读有助于入睡的 Windows 专业版密钥。

为小企业提供商贷服务的 Clarify Capital 公司邀请了 250 名投资者和 250 名企业主对一组由人类创造和 GPT-4 生成的商业计划书进行评分,他们没有被告知有 AI 参与撰写。更有意思的是,人类撰写的计划书来自于获得融资的成功案例。结果显示 GPT-4 生成的商业计划书比人类更有效,被认为在质量、关键要素描述和问题描述上胜过人类。调查显示,在投资者和企业主阅读了 GPT-4 的计划书之后,投资可能性为人类的三倍,他们认为 AI 生成计划书的说服力是人类的两倍。五分之一人表示,他们会对 AI 生成计划书多投资 1 万美元。

高质量的数据标注对 AI 模型至关重要,AI 公司通常会利用亚马逊的 Amazon Mechanical Turk 等第三方平台雇佣廉价众包工人做一些数据标注等工作。AI 模型是建立在人类劳动的基础之上的,但研究显示随着 AI 聊天机器人如 OpenAI ChatGPT 的流行,众包工人开始利用 AI 做零工。根据发表在 arXiv 预印本平台上的论文,瑞士洛桑联邦理工学院 (EPFL) 的研究人员招募了 44 名 Mechanical Turk 众包工人总结 16 篇医学研究论文的摘要,他们估计有 33-46% 的文本是用大模型生成的。众包工人的薪水很低,用 AI 生成文本可以更快完成工作,增加工作量提高工资。研究团队训练了一个分类器预测提交的文本是人工生成还是 AI 生成。

梅赛德斯宣布其车载信息娱乐系统 MBUX 加入了 OpenAI 的聊天机器人 ChatGPT。从 6 月 16 日开始,使用 MBUX 的美国车主可以选择加入一个 beta 程序,激活 ChatGPT 功能。车主可以简单的通过语音呼叫加入,“Hey Mercedes, I want to join the beta program.”梅赛德斯称,车主可与语音助手对话,比如询问目的地的详细信息、新的晚餐食谱,或者询问一个复杂问题获得全面的答案,整个过程手会停留在方向盘上,而眼睛会注视着前方。梅赛德斯会在云端保留车主的对话,它表示会匿名化处理和进行分析,帮助开发者改进功能。

欧洲议会周三投票通过了 AI Act 草案,料将打响西方世界全面监管 AI 领域的第一枪。起草的规定包括禁止在公共场所进行实时、远程生物识别监控,并禁止在开发面部识别数据库时采集监控录像或抓取互联网信息。欧洲议会的法案版本还寻求禁止所谓的预测性警务系统,此类系统分析先前的犯罪行为和其它数据,并试图预测未来的非法活动。这项立法草案旨在规范企业如何使用大数据训练 AI 模型,在某些情况下将要求企业在使用 AI 生成内容时予以披露。企业还需要在设计 AI 模式时设法防止非法内容的生成,并需要披露模型训练中使用的有版权数据的摘要。在某些违规情况下,企业将被处以最高相当于其全球收入 6% 或 7% 的罚款。

微软与 OpenAI 之间的密切合作关系备受瞩目,但另一方面双方其实是貌合神离。为避免反垄断审查,微软对 OpenAI 的投资只占其 49%,且双方的合作并非是排他性的,OpenAI 可以向微软的竞争对手提供其 AI 模型。因此令企业客户倍感困惑的遭遇是:OpenAI 的销售先来推销 ChatGPT 等产品,然后微软的销售来推销相同产品——通过其 Azure AI 服务。OpenAI 向微软竞争对手 Salesforce 提供了基于 ChatGPT 的 AI 产品 Einstein GPT,可以完成生成营销电子邮件等工作,而微软办公软件提供了类似功能。

微软向其 Azure 美国政府云服务的客户提供 OpenAI 的 GPT-4 模型。微软是 OpenAI 的最主要投资者,它的 Azure OpenAI 服务将向政府客户提供该公司的两种模型,其一是最新的 GPT-4,另一个是早期的 GPT-3。五角大楼、美国能源部和 NASA 都是 Azure 政府客户。美国国防部旗下的技术信息中心(Defense Technical Information Center)将对 OpenAI 的模型进行测试。

Meta 周二发布了能像人类那样进行推理的 AI 图像创造模型 I-JEPA。相关论文将在 CVPR 2023 大会上展示,训练代码和模型快照(model checkpoints)发布在 GitHub 上,采用非商业的 CC BY-NC-SA-4.0 授权。Meta 称,I-JEPA 能根据相关世界的背景知识填补图像空缺,而不是其它生成式 AI 模型那样只考虑附近的像素,因此能有效避免生成式 AI 图像模型的常见错误,比如六个指头。I-JEPA 代表 Image Joint Embedding Predictive Architecture,通过对比图像的抽象表示而非像素,创造外部世界的内部模型进行学习。它在多项计算机视觉任务中表现优异,计算效率更高,无需大量微调,训练时间更短,正确率更高。

亚马逊开始使用生成式 AI 帮助客户找到合适的产品。电商巨头在其购物应用中测试新功能,用 AI 概述不同客户对产品的评价,列出客户喜欢的地方和不喜欢的地方,同时添加一份免责声明,表明该总结是 AI 根据客户评论文本生成的。以 Magic Mixies 儿童魔法锅玩具为例,AI 总结说买家对其趣味性、外观、价值、性能、质量、充电等给出了好评,但也部分客户对产品给出了差评,如有客户为非物有所值的玩具支付了逾一百美元,还有客户抱怨质量和充电问题等等。亚马逊没有披露该生成式 AI 工具是基于什么大模型。

OpenAI CE0 Sam Altman 通过远程连线的方式参与了一场中国的 AI 会议。他强调了美国和中国研究人员通过合作降低AI系统风险的重要性。“中国拥有一些世界上最优秀的 AI 人才,所以我真心希望中国的 AI 研究人员能在这方面做出巨大贡献。”会议由北京智源人工智能研究院主办,该机构有时被称为中国版 OpenAI。Altman 在专门讨论 AI 安全和人机对齐的会议上发表了开幕主旨演讲,这是一个争论激烈的研究领域,旨在减轻 AI 对社会的有害影响。对于 OpenAI 是否会继续开源其工作的提问,Altman 回答:“随着时间的推移,预计未来我们会开源更多模型。”但他也表示,重要的是,应通过取得一种平衡来避免这项技术的滥用。