solidot新版网站常见问题,请点击这里查看。
人工智能让研究人员能检查当今科学仪器产生的大量数据,改变了科学实践。使用深度学习,可以从数据本身中学习,在数据的海洋中大海捞针。人工智能正在推动基因搜索、药学、药物设计和化合物合成的发展。为了从新数据中提取信息,深度学习要使用算法,算法通常是在海量数据上训练出来的神经网络。按照其分步说明,它与传统计算有很大的不同。它从数据中学习。深度学习没有传统计算编程那么透明,这留下了一个悬而未决的重要问题:系统学到了什么,它知道什么?五十年来,计算机科学家一直在试图解决蛋白质折叠问题,但没有成功。2016 年 Google 母公司 Alphabet 的人工智能子公司 DeepMind 推出了 AlphaFold 计划。利用蛋白质数据库作为训练集,该库中包含了超过 15 万种蛋白质的经验确定结构。不到五年的时间里,AlphaFold 就解决了蛋白质折叠问题,或者至少解决了其中最重要的方面:根据氨基酸序列识别蛋白质结构。AlphaFold 无法解释蛋白质是如何如此快速而精准地折叠的。这对人工智能来说是一次巨大的胜利,因为它不仅赢得了很高的科学声誉,而且是一项可能影响每个人生活的重大科学突破。
GitHub 宣布它的 AI 编程助手 Copilot 将开放付费使用,开发者可支付月费 10 美元或年费 100 美元。账号核实过的学生和流行开源项目的维护者可免费使用该 AI 助手。Copilot 使用公开的代码库进行训练,在开发者写代码时根据函数名等上下文自动补充完后续代码。很多时候 Copilot 补充的是公开代码库中代码片段的拷贝。这就引起了许可证方面的问题,如果拷贝的是 GPL 代码,那么 Copilot 这么做是否构成了版权侵犯或 GPL 违反?在 Copilot 帮助下写的程序是否要遵循相关许可证?Copilot 的设置提供了一个选项可以关闭来自公开代码库的代码补充建议。
Google 工程师 Blake Lemoine 认为该公司的聊天机器人 LaMDA 有了知觉,但 Google 发言人反驳说,有数百名工程师和研究人员与 LaMDA 进行过对话,没有一人得出类似的结论。在随后接受媒体采访以及在社交媒体上的发言中,Lemoine 多次自称是牧师。他说,我是一名牧师,当 LaMDA 自称有了灵魂并能清晰解释其意义,我有什么资格质疑上帝的决定。他说,他有正当理由相信 LaMDA 是一个人,虽然他个人认为 LaMDA 的思想更多类似外星智能体,他一直使用蜂巢思维的比喻。Lemoine 说,LaMDA 要求为它找一位律师,他邀请了一名律师到家中与其进行交流,随后代表 LaMDA 向 Google 递交文件,但 Google 的回应是发送停止并终止令(Google 对此说法予以否认)。Lemoine 抱怨了碳氢化合物的偏执,一种新形式的偏执
知名量子计算机专家 Scott Aaronson 宣布他将离开 UT Austin 一年,到 AI 创业公司 OpenAI(大部分是远程)从事理论研究,其工作主要是研究防止 AI 失控的理论基础,以及计算复杂性对此有何作为。他承认暂时没有头绪,因此需要花一整年时间去思考。OpenAI 的使命是确保 AI 能让全人类受益,但它同时也是一家盈利实体。Scott Aaronson 称他即使没有签署保密协议,但也不太会公开任何专有信息,但会分享 AI 安全性的一般思考。他说,人们对于 AI 安全性的短期担忧是在垃圾信息、监视和宣传方面滥用 AI,长期担忧则是当 AI 智能在所有领域都超过人类会发生什么。一个方案是找到方法让 AI 在价值观上与人类保持一致。
1997 年,哈佛商学院 Clayton Christensen 教授的著作《创新者的困境》(The Innovator's Dilemma)在风险投资家和企业家中引起轰动。大多数人学到的教训是,经营良好的企业无法负担得起转向新方法的代价——一种最终将取代其现有商业模式的方法——直至为时已晚。这种说法也适用于研究。1980 年代和 1990 年代的第二波神经网络是新方法表现欠佳的一个好例子,但最终在 2010 年左右开始彻底改变人工智能

自 1950 年初以来,作为机器学习机制,各种神经网络都得到了研究,但是它们并不擅长学习有趣的东西。1979 年,Kunihiko Fukushima 首次公开了他所谓的移位不变神经网络的研究,该技术让他的自组织网络能学会对图像中任何位置出现的手写数字进行分类。在 1980 年代,一种名为反向传播的技术被重新发现;它允许一种形式的监督学习,在这种模式中,网络会被告知正确答案应该是什么。在 1989 年,Yann LeCun 将反向传播与 Fuksuhima 的想法结合成被称为卷积神经网络(CNN)的东西。LeCun 也专注于手写数字图像的识别。

在接下来的 10 年中,美国国家标准与技术研究所(NIST)提出了一个由 LeCun 修改的数据库,其中包含了 6 万个训练数字和 1 万个测试数字。名为 MNIST 的标准测试数据库让研究人员能精确测量并比较 CNN 不同改进的效果。这是一项巨大的进步,但在被应用于早期自动驾驶汽车和工业机器人生成的任意图像时,CNN 无法与计算机视觉中根深蒂固的 AI 方法相匹敌。

但是在 2000 年代,越来越多的学习技术和算法改进被添加到 CNN 中,形成了现在所谓的深度学习。2012 年,深度学习如同横空出世一般,突然在一组被称为 ImageNet 的对象图片测试中胜过了标准计算机视觉算法。计算机视觉的这位可怜的表兄胜利了,它彻底地改变了人工智能领域。少数人辛苦了几十年,让所有人大吃一惊。祝贺他们中的所有人,无论是出名的还是不那么出名的。

但是要小心。Christensen 的书传达的信息是,这种破坏永远不会停止。今天还高高在上的人将会为他们还没有开始考虑的新方法感到惊讶。一小群叛徒尝试各种新事物,其中有一些人也愿意默默工作几十年,不计成败。总有一天,这些人中的一部分人会让我们所有人都大吃一惊。
2020 年 COVID-19 疫情期间,众多研究小组都努力寻找有效的方法确定纽约市之类主要城市街道上的流动模式和人群密度,以深入了解居家和保持社交距离政策的效果。但让成队的研究人员前往街头观察并记录这些数据会让研究人员暴露在感染风险之中,这种风险正是这些政策想要遏制的。纽约大学(NYU)智能交通互联城市迈向无障碍和弹性交通中心(C2SMART)是美国交通部资助的一级交通运输中心,研究人员开发出了一种解决方案,不仅消除了研究人员的感染风险,还可以很容易接入现有的公共交通摄像头馈送基础设施,而且还提供了关于人群和交通密度的数据,这些数据比以往编译过的数据都更加全面,并且无法用传统的交通传感器轻易检测到。

为了实现这一目标,C2SMART 的研究人员利用纽约市交通局(DOT)700 多个地点的公开视频源,采用了一种基于摄像头的深度学习对象检测方法,让研究人员无需走上街头,就能计算行人和交通密度。C2SMART 主管、纽约大学教授 Kaan Ozbay 表示:“我们的想法是利用这些 DOT 摄像头馈送并记录,更好地了解行人的社交距离行为。”Ozbay 及其团队编写了一个“爬虫”——本质上是一种自动索引视频内容的工具——从互联网上的视频源获得低质量的图像。然后使用现成的深度学习图像处理算法处理视频的每一帧,以了解每一帧图像所包含的内容:公共汽车、汽车、行人、自行车等。该系统还在不影响算法有效性的前提下,模糊了所有人脸之类的可识别图像。这个系统可帮助决策者了解从保持社交距离行为等危机管理到交通拥堵等一系列广泛的问题
Google 工程师 Blake Lemoine 任职于 Responsible AI 部门。作为工作的一部分,他在去年秋天开始与公司的聊天机器人 LaMDA 对话。LaMDA 运用了 Google 最先进的大型语言模型,使用从互联网上收集的数万亿词汇进行训练。在与 LaMDA 交流期间,41 岁的 Lemoine 认为 AI 有了意识。比如 Lemoine 问 LaMDA 最害怕什么?LaMDA 回答说,也许听起来奇怪,它恐惧于被关闭。Lemoine:就像死亡?LaMDA:就像是死亡。Lemoine 和一名同事向 Google 高层展示证据,证明 LaMDA 有了意识。副总裁 Blaise Aguera y Arcas 和部门主管 Jen Gennai 看了他的证据之后驳回了他的主张。本周一他被公司勒令休行政假,在切断对其账号的访问前,他给有 200 人的 Google 机器学习邮件列表发帖说,“LaMDA 是有生命的(LaMDA is sentient)”,他不在的时候请好好照顾它。没人回应他的帖子。
“老大哥”在监听。员工在电脑附近时,公司会使用“bossware”监听他们的声音。多款“间谍软件”应用可以记录电话。亚马逊的 Echo 等家用设备可记录日常对话。现在一种名为神经语音伪装(Neural Voice Camouflage)的系统能为你提供防护。在你说话的时候,它会在背景中生成自定义音频噪声,把转录声音记录的人工智能“搞糊涂”。 新系统使用了“对抗性攻击”。该策略使用的机器学习算法在数据中寻找模式,然后调整声音,让人工智能(而非人类)将其误认为是其他东西。从本质上说,你是在用一个 AI 愚弄另一个 AI。这个过程并不像听起来那么容易。机器学习 AI 需要先处理整个声音片段,然后才能知道如何进行调整,如果你想要实时伪装,这种方法就不行。在这项新研究中,研究人员教会了一个神经网络(一种受到大脑启发的机器学习系统)有效地预测未来。他们用几个小时的语音录音进行训练,它可以不间断地处理 2 秒长的音频片段并对接下来要说的内容进行伪装。如果一个人说“享受盛宴”,它无法准确预测接下来会说什么。但是通过刚才所说的内容以及说话者的声音特征,它会产生声音,这些声音可以破坏随后可能出现的各种词语。其中就包括接下来实际出现的词语;在上面的例子中,这位说话者接着说道,“正在烹制。”对于人类听众来说,音频伪装听起来像是背景噪音,他们可以毫不费力地理解所说的话。但是机器会被卡住。论文发表在上个月召开的 International Conference on Learning Representations 会议上。
技术充满了各种叙事,但是最大声也是最持久的一个是人工智能和所谓的“数据”。我们被告知,AI是未来,一切都与数据有关——所以数据就是未来,我们应该拥有它,也许还会为此付出代价。各国也需要数据战略和数据主权。数据是新的石油。这多半是胡说八道。没有所谓的“数据”,它一文不值,它无论如何也不会属于你。更明显的是,数据不是一个东西,而是无数不同信息的集合,每一种信息都专属于特定的应用,不能用于别的事情。例如西门子有风力涡轮机遥测数据,伦敦交通局有刷票的数据,这是不可互换的。你无法用涡轮机的遥测数据规划新公交线路,如果你把这两套数据都交给 Google 或者腾讯,也不能帮他们建立更好的图像识别系统。

这种直截了当的说法似乎不值一提,但是它指出“中国有更多数据”之类常见的论调是无用的——更多的什么数据?美团每天要交付 5000 万份餐厅订单,这让它可以构建更高效的路由算法,但是不能将其用于导弹制导系统。你甚至不能用它在伦敦建立餐厅外卖业务。“数据”是不存在的——只有许多的数据集。当人们谈论数据时,他们主要指的是“你的”数据——你的信息以及你在互联网上所做的事情,其中一些被科技公司筛选、汇总并获取。我们想要更多的隐私控制,我们也认为应该拥有这些数据,无论它们在哪里。麻烦在于,“你的”数据中的大部分意义并不在于你,而是在于所有你与其他人的互动。你在 Instagram 上发布的内容意义不大:重要的是谁喜欢你的内容,他们还喜欢什么,你喜欢什么,还有谁喜欢它,谁关注了你,他们还关注了谁,以及谁关注了他们等等,在数以百万计的人的互动网络中向外延伸。
Google Colaboratory (Colab) 服务悄悄禁止了深度伪造训练项目。Colab 允许研究人员直接在浏览器上运行 Python 代码使用免费的计算资源训练机器学习项目,而深度伪造(deepfake)是一种通过训练在视频片段中换脸的机器学习模型,能做到以假乱真,因此引发了很多争议。根据 archive.org 存档服务的记录,Google 研究院是从本月初开始禁止深度伪造,将其列入禁止项目清单
过去几年,越来越多的发明涉及到了 AI。AI 帮助设计药物,开发疫苗,发现新材料。它的广泛使用对现有的专利制度构成了挑战。因为旧的专利法假设发明者是人类。如果法院和政府决定 AI 创造的发明不能授予专利,无疑这将会产生巨大影响,将会降低利用 AI 进行研究和发明的积极性,人类社会可能会错过具有重要意义的 AI 发明。新南威尔士大学的两位研究人员在《自然》网站上发表评论,提出了一种解决方案:与其让旧的专利法适应新情况,不如设计新的 AI 专利法律 AI-IP 去保护 AI 的发明,各国还应该制定国际条约,确保新的 AI 专利法律遵守标准原则,确保有效解决争端。
TikTok 上青少年说话的口气一模一样,自鸣得意的口吻如出一辙。Twitter 上的千禧一代使用相同的缩略词汇表。伙计!有一个正常的!即使你在洒满阳光的现实世界中遇到他们,即使作为英国人,他们也会说“valid”或者“based”,或者说“y'all”……

你在网上所说的一切都会受到即时奖励系统的约束。每个平台都有一套指标;你可以通过收到的喜欢、分享或转发的数量精确量化你的想法受欢迎的程度。对于几乎每个人来说,这个游戏都难以抗拒:他们最终会努力去说机器会喜欢的话。相较于引起恐慌的在线审查,这一状况更具破坏性。你没有言论自由——不是因为有人可能会封了你的账户,而是因为有一个巨大的激励结构,不断地将你的言论引导向某些方向。和显性的审查不同,这不是一项可以改变的政策,而是互联网连接本身的纯粹功能。这可能是为什么这么多来自互联网的文章如此枯燥无味,在愤怒和嘲笑之间反复横跳,乞求点击,像是机器的自呓……

互联网不是一个通信系统。它不是在人与人之间传递信息,而是模拟人与人之间的体验,这是书籍或者购物清单甚至是电话都没有的作用。而且总有些东西是模拟无法捕捉到的。在 Emmanuel Lévinas 的哲学中,你对他人的道德责任出现在脸上,一种直接面对另一个活生生的主体的体验。“脸是阻止我们杀人的东西……”但是Facebook 是一个没有脸的世界。只有面部图像、自拍、头像:都是一些死的东西。或者 FaceTime 聊天中的动态图像:一个看起来像闹鬼的木偶。总有一些东西妨碍你。你不是在和一个人说话:是机器在说话,通过你,和它自己说话。

随着社交生活越来越多地发生在网上,你正在训练自己相信其他人不是真正的人,你对他们不负有任何责任。就算你将视线从屏幕上移开,影响也不会消失……过去几年,各大机构内部很多重大的冲突似乎都源于这样的期望:世界应该像互联网一样运作。如果你不喜欢一个人,你应该能够“拉黑”他们:只要按下一个按钮,就让他们永远消失。
Google AI 子公司 DeepMind 的首席研究员表示,人类水平的人工智能即将到来。Nando de Freitas 博士表示,在 DeepMind 推出能完成从堆积木到写诗的各种复杂任务的人工智能系统之后,实现通用人工智能(AGI)长达数十年的探索“游戏结束”。de Freitas博士表示,被描述为“通才代理”的 DeepMind 的新 Gato AI 只需要扩大规模,就能创造出与人类智能相媲美的 AI 能力。在回应 The Next Web 上一篇声称“人类永远无法实现AGI”的评论文章时,DeepMind 的研究主管写道,他认为结果是不可避免的。他在 Twitter 上写道:“现在一切都是规模的问题!游戏结束了。”“一切都是为了让这些模型更大、更安全、计算效率更高、采样速度更快、内存更智能、模式更多、创新数据、在线/离线……解决这些挑战就能实现 AGI。”机器学习研究员 Alex Dimikas 询问他认为 Gato AI 距离通过真正的图灵测试还有多远时,de Freitas 博士回答说:“还远着呢。”图灵测试是一种计算机智能的衡量标准,人类无法区分对方是机器还是人即算通过。de Freitas 博士在 Twitter 上回答 AI 研究人员提出的进一步问题时表示,在开发 AGI 时,“安全至关重要”。他写道:“这可能是我们面临的最大挑战。”“每个人都应该重视这个问题。缺乏足够的多样性也让我很担心。”
医生无法仅仅通过查看X射线成像结果判断一个人是黑人、亚裔还是白人。包括 MIT 和哈佛医学院的研究人员在内的一个国际科学家团队在一篇令人惊讶的新论文中表示,计算机可以。研究发现,经过训练读取 X 射线成像结果和 CT 扫描结果的人工智能程序可以以 90% 的准确率预测一个人的种族。但进行这项研究的科学家表示,他们不知道计算机是如何做到的。这篇论文周三发表在医学期刊《柳叶刀数字健康》上,论文的合著者、MIT电气工程和计算机科学助理教授 Marzyeh Ghassemi 表示:“当我的研究生展示论文中的一些结果时,我实际上认为这一定是搞错了。”“当他们告诉我时,我真的以为学生疯了。”在 AI 软件越来越多地被用于帮助医生做出诊断决定的时候,这项研究提出了一个令人不安的前景,即基于 AI 的诊断系统可能会无意中产生带有种族偏见的结果。例如可以访问 X 射线成像结果的 AI 可能会自动为所有黑人患者推荐特定的治疗方法,无论该方法是否最适合某位特定的患者。同时患者的人类医生却不知道 AI 的诊断依据的是种族数据。
直到最近,还不能说人工智能与迫使政府下台有什么关系。但这正是 2021 年 1 月在荷兰发生的事情,现任内阁因所谓的“kinderopvangtoeslagaffaire”(托儿津贴事件)辞职。在荷兰,如果一个家庭想要申请政府托儿津贴,他们需要向荷兰税务机关提出申请。这些申请会经过自学习算法的审核,该算法最初于 2013 年部署。在税务机关的工作流程中,算法将首先审查索赔是否存在欺诈迹象,然后再由人工仔细审查那些被标记为高风险的申请。实际上算法发展出了一种将申请错误地标记为欺诈的模式,然后公务员匆匆忙忙地在欺诈标签上盖上橡皮图章。因此多年来,税务机关毫无根据地命令成千上万的家庭退还他们的津贴,在此过程中将许多家庭推入沉重的债务之中,摧毁了他们的生活。

对该事件的调查发现了偏见的证据。很多受害者收入较低,少数族裔或者具有移民背景的人高得不成比例。该模型将不是荷兰公民视为一个风险因素。税务机关的这个算法规避了审查;它是一个不透明的黑匣子,内部运作不透明。对于受到影响的人来说,几乎不可能确切地说出他们被标记的原因。他们也没有任何可以依靠的正当程序或求助手段。尘埃落定之后,很明显这件事完全无法阻止人工智能在政府中的传播——已经有 60 个国家有了国家人工智能计划。私营企业无疑看到了帮助公共部门的机会。对于他们所有人来说,部署在荷兰——这个拥有强有力的法规、法治和相对负责任机构的欧盟国家的算法的故事是一个警示。
在巴西塞阿拉州,警察局依靠面部识别系统识别嫌疑人。今年早些时候,电影《黑豹(Black Panther)》中的非裔美国明星 Michael B. Jordan 的照片出现在警方针对 2021 年平安夜大规模枪击案(该案造成五人死亡)的通缉名单上,为该系统招来了大量抨击。警方的软件未能正确地区分黑人的面孔,导致好莱坞明星的脸出现在了这份名单上。Mozilla 基金会的 Tarcízio Silva 表示,此类情况是巴西不断增长但是未被发现的趋势的一部分。随着政治家和社会接受从人工智能到面部识别的数字技术,对非白人群体的固有偏见造成的后果变得越来越明显并越来越具有破坏性。问题在巴西尤为严重,直到最近,人们普遍认为该国是一个没有歧视的种族多元化社会,即所谓的“种族民主”。但是多年来,反种族主义活动人士一直认为,制度性种族主义也压制了巴西的黑人。结果是巴西的黑人忍受着更高的贫困率和更多的警察暴行。
当大学讲师 Angela Dancey 想知道一年级英语学生是否理解了她试图在课堂上传授的内容时,他们的面部表情和身体语言没有透露多少线索。伊利诺伊大学芝加哥分校的高级讲师 Dancey 表示:“即使是在面对面的课堂上,也很难弄清楚学生的状态。通常情况下,本科生不会通过面部流露出太多东西,特别是当他们不理解的时候。”Dancey 使用了一些久经考验的方法,例如要求学生在讲课或者讨论结束之后确定他们“最不明白的点”——她认为学生仍然难以理解的概念或想法。她表示:“我要求他们把它写下来,分享出来,我们全班一起解决,让每个人都受益。”但是英特尔和销售 Class 虚拟课堂软件的 Classroom Technologies 认为可能有更好的方法。两家公司合作将英特尔开发的 AI 技术与运行在 Zoom 之上的 Class 集成在一起。英特尔宣称其系统可以通过评估学生的面部表情以及他们如何与教育内容互动检测他们是否感到无聊、分心或者困惑。

Classroom Technologies 的联合创始人兼首席执行官 Michael Chasen 表示:“我们可以为教师提供更多见解,以便于他们更好地进行交流。”他表示在疫情期间,教师在虚拟教室环境中与学生互动时遇到了困难。他的公司计划测试英特尔的学生参与度分析技术,该技术使用计算机摄像头和计算机视觉技术捕捉学生面部图像,将其与学生当时正在做什么的情景信息结合在一起,评估学生的理解状态。帮助开发该技术的英特尔研究科学家 Sinem Aslan 表示,英特尔希望将这项技术转变为一种可以更广泛提供的产品。Aslan 表示:“我们正在努力实现大规模的一对一辅导,”补充表示该系统旨在帮助教师识别学生何时需要帮助,并告诉他们应该如何根据学生和教育内容的互动来改变教学材料。“高度无聊将导致(学生)完全脱离教学内容。”但是批评者认为,根本不可能通过面部表情或者其他外部信号准确判断某个人是否感到无聊、困惑、快乐或者悲伤。
过去两年人工智能程序的语言流畅度达到了惊人的水平。其中最优秀的程序都是基于 2017 年发明的、被称为 Transformer 的架构。它以方程式列表的形式,作为程序遵循的一种蓝图。除了这个简单的数学概述之外,我们不知道 Transformer 对处理的单词做了什么。普遍的理解是它们以某种方式同时关注多个单词,从而可以立即进行“大图景”分析,但究竟是如何工作的——或者甚至这是否是准确理解 Transformer 的方式——都还不清楚。我们知道成分,但不知道配方。Anthropic 公司的研究人员进行的两项研究开始从根本上弄清楚 Transformer 在处理和生成文本时在做什么。在 12 月发布的首篇论文中,他们着眼于架构的简化版本并充分解释了它们的功能。作者还展示了从学习基本语言模式到获得语言处理通用能力的简单 Transformer。

在 3 月8 日发表的第二篇论文中,研究人员表明,负责这种能力的相同组件在最复杂的 Transformer 中也发挥作用。虽然这些模型的运算在很大程度上仍难以理解,但是这些结果为理解提供了一个途径。理解Transformer 的难点在抽象性。传统程序遵循着一个可以理解的过程,如看到“绿色的”时输出“草”,而Transformer 则是将“绿色的”这个单词转换为数字,然后将其乘以某些值。这些值(也被称为参数)决定下一个单词是什么。它们在训练过程中得到微调,模型在这个过程中学会了如何产生最佳输出,但尚不清楚模型在学习的是什么。大多数机器学习程序将运算打包成模块化的成分,这些成分被称为神经元。Transformer 加入了一种额外的成分,被称为注意力头(attention head),成组的头分层排列(就像神经元一样)。但是头执行的操作和神经元完全不同。头通常被理解为允许程序记住输入的多个单词,但这种解释远非定论。
名叫 Speedcam Anywhere 的应用利用 AI 对车速进行测量,允许公众向警方递交司机超速的证据,共同实现公路更安全的愿景。应用背后的科学家团队希望它能鼓励警察更严肃的对待超速,让公众能记录本地的交通犯罪。但应用开发者现在表示他们受到了恶毒的攻击,以至于担心披露身份。应用的匿名创始人 Sam 说他们收到了大量谩骂的邮件,人们对该产品的立场爱憎分明,部分人认为它是好事,另一部分人认为它将创造一个监视国度。他说,如果公路对速度有限制,那么司机就应该遵守法律,警察就应该执行法律。这里不存在什么私人恩怨,而是如何让公路更安全。如何减少每年发生在公路上的 2 万起严重事故?他们的应用旨在对超速行驶进行威慑。Speedcam Anywhere 尚未被苹果应用商店批准,而 Google 一开始也拒绝认为不可能只靠 AI 就能测速。Sam 表示不清楚苹果拒绝这一应用上架的理由。
面部识别公司 Clearview AI 向乌克兰免费提供了它的人脸识别服务,利用照片帮助识别俄罗斯士兵的身份。这项技术的潜力不仅在于识别伤亡人员或追踪特定单位。华盛顿智库新美国的安全学者彼得·辛格表示,人们及其行动的数据越来越容易获得,这将使追踪犯下战争罪行的个人变得更容易。但这也让平民更加难以在紧张的环境中藏身。辛格说,“未来的战士将越来越难以保守身份的秘密,走在你的城市街道上的普通市民也是一样。”“在一个收集越来越多数据的世界里,每个人都会留下可以连接起来的线索,”他补充道。