solidot新版网站常见问题,请点击这里查看。
OpenAI 向开发者提供了 ChatGPT 使用的 gpt-3.5-turbo 模型和 Whisper 语音文本转录模型的 API,允许开发者将其 API 整合到他们自己的应用中,价格是每 1k token(大约为 750 个字) 为 0.002 美元,为现有 GPT-3.5 API 费用的十分之一。OpenAI 称它通过优化将 ChatGPT 所需的计算成本减少了 90%,它还修改了服务条款,允许开发者退出数据收集,同时增加了一个 30 天的数据保留政策。

OpenAI 处于聊天机器人军备竞赛的中心位置,无人再质疑它的生成式 AI 是一门大生意。OpenAI CEO Sam Altman 在最近的一篇博文中表示,该公司的通用人工智能——人类水平的机器智能——将会让全人类受益,而人类的未来将会由人类 aka OpenAI 来决定。这篇博文以及 OpenAI 最近的行动都突出了该公司的基调和使命与其成立之初的承诺日益相去甚远。OpenAI 创办于 2015 年,在成立宣言中,它表示致力于“以最可能造福全人类的方式推进数字智能,不受财务回报的限制。因为研究免于财务责任,因此可专注于对人类的积极影响”,OpenAI 的所有研究论文、代码和专利都将与全世界共享。但在 8 年之后,OpenAI 走向了闭源和盈利性,不再透明也不再专注于对人类的积极影响。OpenAI 是在 2019 年去除了非盈利状态,开始接收投资,为投资者提供“上限为投资额 100 倍”的利润。

微软官方博客宣布了 Windows 11 在 2023 年的首个大更新,Windows 11 v22H2 用户现在可以通过手动检查 Windows Update 下载,或者等待 3 月的例行安全更新(第二个星期二)。其中最引入瞩目的功能是整合了 AI 的新必应和基于 OpenAI ChatGPT 技术的 Bing Chat。其它更新包括记事本应用加入了暗模式支持,多标签支持——可以在单一窗口打开多个标签;设置应用包含了能耗推荐部分,优化电池续航;等等。

英伟达释出最新版驱动,为 RTX 30 和 40 系列显卡加入了视频超分辨率(RTX Video Super Resolution)功能,类似游戏使用的深度学习超级采样(Deep Learning Super Sampling,DLSS),RTX VSR 利用 AI 技术将 360p 到 1440p 分辨率的视频放大到最高 4K 分辨率。RTX VSR 此前只支持英伟达的 Shield TV,现在扩大到支持最新版本的 Chrome 和 Edge 浏览器。英伟达称,近八成的互联网带宽被用于串流视频,而九成的视频是用 1080p 或更低分辨率串流。当用户在高于 1080p 的显示屏上观看视频,浏览器使用简单的放大技术让视频分辨率匹配显示屏的分辨率,导致的结果是视频经常有模糊。

Meta 的大语言模型 LLaMA 最近引起了广泛关注,它的一大优势是参数规模更小但性能强于 OpenAI 的 GPT-3 模型,而且能运行在单张显卡上,让普通消费者的硬件也有可能提供类似 ChatGPT 性能的 AI 聊天机器人。LLaMA 是一组大语言模型的集合,其参数规模从 70 亿到 650 亿,它最新的 LLaMA-13B 模型有 130 亿个参数,不到 GPT-3 模型 1750 亿个参数的十分之一。现在 Nebuly AI 推出了首个基于人类反馈强化学习的 LLaMA AI 聊天机器人开源实现 ChatLLaMA。

Meta 上周宣布了一个新的大语言模型 LLaMA-13B,称其参数规模更小但性能强于 OpenAI 的 GPT-3 模型,且它能运行在单张显卡上。LLaMA 语言模型的规模从 70 亿到 650 亿参数,而 OpenAI GPT-3 模型有 1750 亿个参数。Meta 使用 Common Crawl、维基百科和 C4 等公开数据集训练其模型,它有可能公开其源代码和权重。今天绝大部分最先进的语言模型都没有公开源代码。Meta 称 LLaMA 为其基础模型,它将是未来该公司更先进模型的基础。它的 LLaMA-13B 模型在 BoolQ、PIQA、SIQA、HellaSwag、WinoGrande、ARC 和 OpenBookQA 等标准测试中的表现超过了 GPT-3。GPT-3 等衍生模型需要数据中心规模的计算能力进行处理,而 LLaMA-13B 能运行在单张显卡上,为在消费者硬件上实现类似 ChatGPT 的性能打开了大门。

Resumebuilder.com 调查了 1000 名计划使用或已经使用 ChatGPT 的企业领导人,发现近半数企业部署了 ChatGPT,部分企业还表示已经开始用 ChatGPT 取代员工。企业高管谈论了 ChatGPT 的用途,其中 66% 用于写代码,58% 用于文案和内容创作,57% 用于客户支持,52% 用于写会议摘要和其它文档。在招聘过程中,使用 ChatGPT 的企业还有 77% 用它撰写工作职位描述、66% 用它起草面试申请书,65% 回应求职书。大部分企业领导人对 ChatGPT 的表现印象深刻,55% 的人认为工作质量“出色”,34% 的人认为“非常好”。几乎所有使用 ChatGPT 的公司表示节省了资金,48% 表示节省逾 50,000 美元,11% 表示节省逾 100,000 美元。这些企业中 93% 还计划扩大对 ChatGPT 的使用。

AI 终于展现出了商业潜力,但我们可能低估了它的影响。除非 AI 是开源的,且由终端用户控制,否则除了 AI 的软件供应商,其他人的未来可能是暗淡的。像 GPT-3 之类的大语言模型能用于扩展人类的工作或帮助完成枯燥的工作,就像程序员用 GitHub 的 AI 编程助手 Copilot 加快工作效率,律师、医生、会计师、营销人员、销售、政治演讲撰稿人等都将会有自己的 AI 助手。过去二十年,智能手机、搜索引擎和社交网络从新鲜事物变成了生活中无处不在的东西,乃至于生活必用品。没有它们我们的生活几乎寸步难行。而提供这些产品的公司变得极其富有而强大,它们变成了我们生活中的隐形税,我们对此别无选择。这些产品带来的生产力提升只受益于少数人,这些企业也只雇佣少数人,绝大部分人的工资停滞不前。AI 即将成为这个名单上的最新一个。

今天的搜索引擎首先需要构建一个庞大 Web 索引,用户搜索时对索引条目进行扫描、排序和分类,最相关条目出现在搜索结果中。整个搜索过程通常不需要一秒钟。相比之下,AI 聊天机器人 ChatGPT 搜索时需要启动一个庞大的神经网络模型,产生文本,可能还需要利用搜索引擎核查事实信息。整个过程要漫长得多,花费也更多。分析师估计,大语言模型的搜索成本可能是关键词搜索的 10 倍以上,意味着数十亿美元的额外成本。如果 Google 提供了 ChatGPT 式搜索它的成本每年将增加 60 亿美元。

摩根大通公司限制员工使用 AI 聊天机器人 ChatGPT。知情人士表示,这一决定不是因为任何特定事件而进行限制,而是作为对第三方软件使用进行控制一部分。目前不知道摩根大通有多少员工在使用 ChatGPT。分析师认为银行可能是担心员工与 ChatGPT 分享了机密或私有信息。ChatGPT 在很多方面表现出色,但它给出的答案未必正确。

生成式 AI 工具的涌现让很多曾经“有心无力”的人能成为创作者。Brett Schickler 曾梦想成为作家,但从未想象过会成为真正的作家。但在了解了 ChatGPT 之后,他看到了机会,花了数小时时间创作了一本 30 页的儿童插画电子书,通过亚马逊的自出版服务在 Kindle 商店出版,售价 2.99 美元,给他带来了不到 100 美元的收入。截至 2 月中旬,在亚马逊的 Kindle 商店,有逾 200 本电子书将 ChatGPT 列为作者或合作者。鉴于许多作者可能不愿意承认或未披露他们使用了 ChatGPT,真正的数量应该会更多。

科幻杂志《Clarkesworld Magazine》临时关闭了短篇小说的投稿,原因是涌入了大量使用 AI 聊天机器人撰写的文章。该杂志的主编 Neil Clarke 此前通过博客就 AI 作品对短篇小说生态系统构成的威胁发出了警告。Clarke 称,从去年底开始,随着 AI 聊天机器人日益引起公众关注,杂志观察到剽窃类作品在增长。短篇小说的投稿数量大幅增加,但大部分投稿作品都像是人类在 AI 机器人帮助下撰写的文本。他说 AI 的作品有着相当明显的模式。该杂志的稿费是每字 12 美分,因此投稿人主要是出于经济动机,是为了赚快钱。

世界各地各行各业的商界人士正在测试新生成式 AI,它可以像人类一样生成文字、图像和艺术。国际建筑设计公司的设计师使用 Midjourney 生成草图。工程师和科学家使用 ChatGPT 来对长篇技术文件进行概括,企业家用它加快内部文件起草。程序员使用 Copilot 补充代码加快编程速度。许多从事白领和创意工作的人员担心,一旦生成式 AI 取得长足的发展,它将像机器人取代工厂岗位那样取代他们的工作。

OpenAI 从互联网上搜集了海量内容训练它的 AI 聊天机器人 ChatGPT,而随着 ChatGPT 日益受欢迎,新闻机构开始构批评 OpenAI 没有付费就使用其发表的文章。新闻集团道琼斯的总法律顾问 Jason Conti 在一份声明中表示,任何想要使用《华尔街日报》记者的作品去训练 AI 的人都需要从道琼斯获得合适的授权,而道琼斯未与 OpenAI 达成任何授权交易,该机构正在调查这一情况。OpenAI 使用公开内容训练 AI 应该与当年 Google 扫描图书的做法类似,ChatGPT 并没有侵权,其行为属于合理使用(fair use)。

OpenAI 的聊天机器人 ChatGPT 能像人类那样写出流畅的文章,回答用户的各种问题,但如果你仔细核查文章中的事实时会发现,它经常张冠李戴,胡说八道,所以有人开玩笑的说它是胡扯生成器,对于不追求正确性的用户来说娱乐性十足。ChatGPT 的这种表现给了一位教历史课的教师极大的启发,他用 ChatGPT 生成文章,然后让学生挑错并修正。
微软最近开始测试的新必应(New Bing)招致了一些人的批评,测试人员发现在长时间互动之后新必应的 AI 变得越来越古怪,甚至还会向人类对话者示爱或建议其离婚。微软的回应是限制了新必应的使用。软件巨人称,长时间的聊天会话可能混淆新必应的基础聊天模式。该公司开始限制测试者与新必应的互动,每次会话只能问五个问题,一天最多只能提出 50 个问题。微软称,只有极少数人每天问 50 个以上的问题。
一名人类棋手在围棋比赛中多次击败顶级 AI 系统,在 2016 年 AI 战胜人类围棋高手——此事被视为 AI 崛起里程碑——之后意外为人类翻盘。美国棋手 Kellin Pelrine 的段位比业余段位的最高级低一级。他利用另一台计算机发现的一个先前未知的缺陷击败了 AI。但他在没有计算机直接支持的情况下赢得了 15 场围棋人机对决中的 14 场。加州 AI 研究公司 FAR AI 设计了发现人类棋手可利用弱点的程序。该软件与顶级 AI 系统 KataGo 下了逾一百万局。Pelrine 称利用弱点并不十分困难,他运用了同样的策略打败了另一个顶级围棋 AI 系统 Leela Zero。加州伯克利的计算机科学 Stuart Russell 认为在顶级的围棋 AI 系统中发现弱点,证明这些系统使用的深度学习模型存在根本性缺陷。

OpenAI 的 ChatGPT 让无数人惊叹,然而它在简单任务如算术和事实核查上仍然存在明显缺陷。Meta 的研究人员最近透露了一种新的语言模型 Toolformer,能在不牺牲核心语言建模能力的情况下利用外部工具如搜索引擎、计算器和日历来自我修正。Toolformer 的关键在于它能以无缝和自动化的方式使用 API。在训练中,研究人员给了一组人类编写的示例演示 API 如何使用,然后让它使用 API 调用给一个大语言建模数据集做注解。Toolformer 以自我监督的方式完成了任务,意味着它可以在不需要明确的人类指导下学习。模型学会了预测每个基于文本的 API 调用,可以在需要时插入调用,它还能基于上下文自行决定使用哪个工具,以及如何使用。如 Toolformer 能使用计算器来解决大语言模型(LLM)在算术上的局限性。Toolformer 基于预训练的 GPT-J 模型,该模型有 67 亿个参数。测试显示它的表现优于有 1750 亿个参数的 GPT-3 模型。

Alphabet CEO Sundar Pichai 周三向 Google 员工发送了一份内部备忘录,要求他们贡献 2-4 小时时间帮助改进该公司的 AI 聊天机器人 Bard。这份备忘录突出了 Google 的危机感和紧迫性。OpenAI 的 AI 聊天机器人 ChatGPT 能部分代替搜索引擎回答各种问题,微软上周宣布将把 ChatGPT 的技术整合到其搜索引擎和浏览器中,并立即启动了测试。Pichai 在备忘录中表示,底层技术迅速发展,潜力巨大。他表示已有数千名人在测试 Bard 和递交反馈。

ChatGPT 能自动生成流畅合理的文本,看似出自人类之手,这一成就非同凡响。它是如何做到的? Mathematica 作者 Stephen Wolfram 写了一篇长文分析背后的工作原理。从根本上说,ChatGPT 总是尝试从目前的文本产生“合理的延续”,所谓合理是指在用数十亿网页文本训练之后人们期望看到的文本。举个例子,对于“The best thing about AI is its ability to”这句话后面应该跟什么,你可以扫描数十亿页文本中寻找到频率最高的词。ChatGPT 的方法类似,但它不是看字面意义上的文本,而是寻找某种“意义匹配”,它会生成一组候选词,每个词都有不同的概率——The best thing about AI is its ability to learn(4.5%)/predict(3.5%)/make(3.2%)...依此类推。但 ChatGPT 并不总是选择概率最高的词,因为这样产生的文本可能并不让人感兴趣,太平淡,它有时候会随机挑选低概率的候选词,产生一篇更有趣的文章。这就是为什么我们多次用相同的提问词问 ChatGPT 它很可能会产生不同的文章。