《麻省理工科技谈论》万字长文:什么是人工智能?

liukang202414小时前正能量吃瓜31

(来历:MIT TR)

震撼的《麻省理工科技评论》万字长文:什么是人工智能?的插图

互联网上的歹意、咒骂以及其它非琐碎、足以改动国际的定见不合...

人工智能既性感又酷炫。它在加深不平等、推翻作业商场并损坏教育系统。人工智能像是主题公园的游乐设备,又如同是戏法戏法。它是咱们的终极发明,也是品德职责的体现。人工智能是这十年的盛行语,也是源自 1955 年的营销术语。人工智能类人,又似异星来客;它超级智能却也愚不可及。人工智能热潮将推进经济开展,而其泡沫如同也将剑拔弩张。人工智能将增加充足,赋能人类在国际中最大极限地昌盛开展,却又预示着咱们的末日。

咱们都在议论些什么呢?

人工智能是咱们年代最炙手可热的技能。但它终究是什么?这听起来像是一个愚笨的问题,但从未像现在这样急迫。简而言之,人工智能是一系列技能的总称,这些技能使核算机能够完结那些当人类履行时被以为需求才智的任务。想想面部辨认、语音了解、驾驭轿车、写作语句、答复问题、发明图画等。但即便这样的界说也包括多重意义。

而这正是问题所在。让机器“了解”语音或“书写”语句意味着什么?咱们能要求这类机器完结哪些任务?咱们又该对它们的履行才干给予多大信赖?

跟着这项技能从原型快速转化为产品,这些问题已成为咱们悉数人的议题。但(剧透正告!)我并没有答案。乃至无法切当奉告你人工智能是什么。制作它的人也不实在知道。Anthropic 人工智能试验室坐落旧金山的首席科学家 Chris Olah 标明:“这些都是重要的问题,以至于每个人都觉得自己能够有定见。一起,我以为你能够对此争辩不休,而现在没有任何依据会辩驳你。”

但假如你乐意坐稳并参加这场探究之旅,我能够奉告你为何无人实在知晓,为何咱们看似各不相谋,以及你为何应当重视这悉数。

让咱们从一个随口的打趣初步...

回溯至 2022 年,在《奥秘 AI 炒作剧场 3000》这一档略显败兴的播客首集的半途——该播客由易怒的联合掌管人 Alex Hanna 和 Emily Bender 掌管,他们乐此不疲地用“最尖利的针”刺向硅谷一些最被吹捧的神圣不可侵略的事物中——他们提出了一个荒唐的建议。其时,他们正在大声朗诵 Google 工程副总裁 Blaise Agüera y Arcas 在 Medium 上宣告的一篇长达 12,500 字的文章,题为《机器能学会怎样体现吗?》。Agüera y Arcas 以为,人工智能能够以某种与人类相似的办法了解概念——比方品德价值观这样的概念,然后暗示机器或许能够被教训怎样体现。

(来历:MIT TR)

可是,Hanna 和 Bender 并不配合。他们决议将“AI”一词替换为“数学魔法”——便是许多且凌乱的数学运算。

这个不敬的表达旨在戳破他们以为存在于引述句中的夸大和拟人化描绘。很快,身为分布式人工智能研讨组织的研讨主任及社会学家的 Hanna,以及华盛顿大学核算言语学家、因批判科技职业言过其实而在网络上声名鹊起的 Bender,就在 Agüera y Arcas 想要传达的信息与其挑选听取的内容之间划开了一道距离。

Agüera y Arcas 问道:“AI、其发明者及运用者应怎样在品德上承当职责?”

Bender 则反诘:“数学魔法应怎样在品德上承当职责?”

她指出:“这儿存在分类过错。”Hanna 和 Bender 不只仅对立 Agüera y Arcas 的观念,他们以为这种说法毫无意义。“咱们能否中止运用‘一个人工智能’或‘人工智能们’这样的表述,如同它们是国际上的个别相同?”Bender 说。

这听起来如同他们在议论彻底不同的事物,但实践上并非如此。两边议论的都是其时人工智能热潮背面的技能——大型言语模型。只是关于人工智能的议论办法比以往任何时分都愈加两极分化。同年 5 月,OpenAI 的 CEO Sam Altman 在预告其公司旗舰模型 GPT-4 的最新更新时,在推特上写道:“对我来说,这感觉就像魔法。”

从数学到魔法之间,存在着一条绵长的路途。

人工智能具有信徒,他们对技能其时的力气和不可避免的未来前进抱有崇奉般的崇奉。他们宣称,通用人工智能已近在眼前,超级智能紧随其后。一起,也有异见者对此不以为然,以为这些都是奥秘主义的胡说八道。

盛行的、充溢论题性的叙说遭到一系列大人物的影响,从 Sundar Pichai 和 Satya Nadella 这样的大型科技公司首席营销官,到 Elon Musk 和 Altman 这样的职业边际玩家,再到 Geoffrey Hinton 这样的明星核算机科学家。有时,这些鼓吹者和失望论者是同一批人,奉告咱们这项技能好到令人忧虑的境地。

跟着人工智能的炒作不断胀大,一个直抒己见的反炒作阵营也应运而生,时间预备着击破那些雄心勃勃、往往过于离谱的声明。在这个方向上尽力的,包括 Hanna 和 Bender 在内的一大群研讨者,还有比方前谷歌职工、有影响力的核算机科学家 Timnit Gebru 和纽约大学认知科学家 Gary Marcus 这样的职业批判者。他们每个人都有许多追随者,在议论中争持不休。

简而言之,人工智能现已成为悉数人眼中无所不能的存在,将范畴分割成一个个粉丝团体。不同阵营之间的沟通如同常常牛头不对马嘴,并且并不总是出于好心。

或许你觉得这悉数都很愚笨或烦人。但鉴于这些技能的力气和凌乱性——它们已被用于决议咱们的保险费用、信息检索办法、作业办法等等——至少就咱们正在议论的内容到达一起现已刻不容缓。

可是,在我与处于这项技能前沿的人们的许多对话中,没有人直接答复他们终究在构建什么。(旁注:本文首要聚集于美国和欧洲的人工智能争辩,很大程度上是由于许多资金最富余、最先进的 AI 试验室都坐落这些区域。当然,其他国家也在进行重要的研讨,尤其是我国,他们对人工智能有着各自不同的观念。)部分原因在于技能开展的速度,但科学自身也十分敞开。现在的大型言语模型能够完结令人惊叹的作业,从处理高中数学问题到编写核算机代码,再到经过法令考试乃至发明诗篇。当人做这些作业时,咱们以为这是才智的标志。那么,当核算机做到这些时呢?表象上的才智是否满意?

这些问题触及了咱们所说的“人工智能”这一概念的中心,人们实践上现已为此争辩了几十年。但跟着能够以或令人惊悚,或令人入神的实在仿照咱们说话和写作办法的大型言语模型的鼓起,环绕 AI 的议论变得愈加尖嘴薄舌。

咱们现已制作出了具有类人行为的机器,却没有脱节希望机器背面存在类人思维的习气。这导致对人工智能才干的过高点评;它将直觉反应固化为教条式的心情,并且加重了技能乐观主义者与置疑主义者之间更广泛的文明战役。

在这团不确认性的炖菜中,再加上许多的文明担负,从我敢打赌许多职业界人士生长进程中触摸到的科幻小说,到更恶劣地影响咱们考虑未来的认识形状。鉴于这种令人沉醉的混合体,关于人工智能的争辩不再只是是学术性的(或许历来都不是)。人工智能点着了人们的热情,使得成年人彼此责备。

(来历:MIT TR)

“现在这场争辩并不处于一个智力健康的情况,”Marcus 这样点评道。多年来,Marcus 一向在指出深度学习的缺点和局限性,正是这项技能将人工智能面向干流,支撑着从大型言语模型到图画辨认,再到主动驾驭轿车的悉数运用。他在 2001 年出书的《代数思维》一书中提出,作为深度学习根底的神经网络自身无法独立进行推理。(咱们暂时略过这一点,但稍后我会回来议论像“推理”这样的词汇在一个语句中的重要性。)

Marcus 标明,他曾企图与 Hinton 就大型言语模型的实践才干翻开一场恰当的争辩,而 Hinton 上一年揭露表达了对自己参加发明的这项技能的生计惊骇。“他便是不乐意这么做,”Marcus 说,“他叫我傻瓜。”(曩昔在与 Hinton 谈及 Marcus 时,我能够证明这一点。Hinton 上一年曾奉告我:“ChatGPT 明显比他更了解神经网络。”)Marcus 在他编撰的一篇名为《深度学习正遭受瓶颈》的文章后也引起了不满。Altman 在推特上回应称:“给我一个平凡深度学习置疑论者的自傲吧。”

与此一起,敲响警钟也让 Marcus 成为了一个个人品牌,并获得了与 Altman 并肩坐在美国参议院人工智能监督委员会面前作证的约请。

而这正是悉数这些争辩比一般网络歹意更重要的原因。当然,这儿触及到巨大的自我和巨额的资金。但更重要的是,当职业首领和有观念的科学家被国家元首和立法者招集,来解说这项技能是什么以及它能做什么(以及咱们应该有多惧怕)时,这些争议就显得尤为重要。当这项技能被嵌入到咱们日常运用的软件中,从查找引擎到文字处理运用程序,再到手机上的帮手,人工智能不会消失。但假如咱们不知道自己购买的是什么,谁又是那个上当者呢?

Stephen Cave 和 Kanta Dihal 在 2023 年出书的论文集《希望 AI》中写道:“很难希望前史上还有其他技能能引起这样的争辩——一场关于它是否无处不在,或许底子不存在的争辩。对人工智能能有这样的争辩,证明了它的神话特质。”

最重要的是,人工智能是一种观念、一种抱负,它遭到国际观和科幻元素的刻画,就如同数学和核算机科学的刻画相同。当咱们议论人工智能时,弄清楚咱们在议论什么将弄清许多作业。咱们或许在这些作业上无法到达一起,但就人工智能的实质到达一起将是议论人工智能应该成为什么姿态,至少是一个出色的初步。

那么,咱们到底在争什么呢?

2022 年底,就在 OpenAI 发布 ChatGPT 之后不久,一个新的梗初步在网上撒播,这个梗比任何其他办法都更能捕捉到这项技能的奇特之处。在大都版别中,一个名为“修格斯”的洛夫克拉夫特式怪物——全身触须和眼球——举起一个平铺直叙的笑脸表情符号,如同要粉饰其实在的实质。ChatGPT 在对话中的遣词体现出相似人类的亲和力,但在那友爱的外表之下隐藏着难以了解的凌乱性乃至惊骇之处。(正如 H.P. 洛夫克拉夫特在他的 1936 年中篇小说《张狂山脉》中所写:“那是一个可怕得无法形容的东西,比任何地铁列车都要巨大——一团无定形的原生质泡状聚合物。”)

(来历:ANTHRUPAD)

这些争辩中心在于,人工智能不只仅一个技能问题,它触及了咱们对自身认知、发明力、品德职责,乃至咱们对未来的期望和惊骇的底子了解。一方看到的是人工智能带来的无限潜能,是人类才智的延伸,是处理凌乱问题、前进日子质量的东西;另一方则忧虑它或许带来的赋闲、隐私侵略、社会不公,乃至是人类自主性和生计的要挟。ChatGPT 的呈现,如同那个举起笑脸表情的修格斯,标志着人工智能技能在供给友爱交互界面的一起,也隐藏着深化的社会、品德和哲学应战。这场争辩,实质上是关于咱们怎样界定智能、何为人道,以及咱们乐意让技能在咱们的日子中扮演何种人物的深化反思。

多年来,盛行文明中人工智能最出名的参照物之一是《终结者》,Dihal 说到。但 OpenAI 经过免费上线 ChatGPT,让数百万人亲身经历了一种天壤之别的东西。“人工智能一向是一个十分含糊的概念,能够无限扩展以包括各种主见,”她说。但 ChatGPT 让这些主见变得详细起来:“突然间,每个人都有了一个详细的参照物。”关于数百万人来说,人工智能的答案现在变成了:ChatGPT。

人工智能工业正大力推销这个浅笑的面孔。想想《每日秀》最近怎样经过职业首领的言辞来挖苦这种炒作。硅谷风投大佬 Marc Andreessen 说:“这有或许让日子变得更好……我觉得这简直便是个轻松得分的时机。”Altman 说:“我不想在这儿听起来像个乌托邦式的技能狂人,但人工智能能带来的日子质量提高是特殊的。”Pichai 说:“人工智能是人类正在研讨的最深远的技能。比火还要深远。”

Jon Stewart 挖苦道:“是啊,火,你吃瘪吧!”

但正如这个梗所示,ChatGPT 是一个友爱的面具。在其背面,是一个名为 GPT-4 的怪物,这是一个依据巨大神经网络的大型言语模型,其摄入的文字量逾越咱们大大都人千辈子阅览的总量。在持续数月、耗资数千万美元的练习进程中,这类模型被赋予了填充来自数百万本书本和互联网适当大部分内容中语句空白的任务。它们一遍又一遍地履行这个任务。从某种意义上说,它们被练习成超级主动补全机器。效果是生成了一个模型,它将国际上大部分书面信息转化成了一个核算标明,即哪些词最有或许跟从其他词呈现,这一进程跨过了数十亿计的数值。

这确实是数学——许多的数学。没有人对此有贰言。但问题在于,这只是数学吗,仍是这种凌乱的数学编码了能够相似人类推理或概念构成的算法?

许多对这个问题持肯定心情的人信赖,咱们行将解锁所谓的通用人工智能(AGI),这是一种假定中的未来技能,能在多种任务上到达人类水平。他们中的一些人乃至将方针瞄准了所谓的超级智能,即科幻小说中那种能远超人类体现的技能。这一团体以为 AGI 将极大地改动国际——但意图是什么?这是另一个严重点。它或许处理国际上悉数问题,也或许带来国际的末日。

(来历:X)

现在,AGI 呈现在全球尖端 AI 试验室的任务宣言中。但这个词是在 2007 年作为一个小众测验而发明出来的,旨在为其时以读取银行存款单上的手写内容或引荐下一本购书为主的范畴注入一些生机。其初衷是重拾开端希望的人工智能,即能做类人业务的人工智能(更多内容行将揭晓)。

Google DeepMind 联合创始人 Shane Legg,也便是发明了这个术语的人,在上一年奉告我,这其实更多是一种期望:“我没有特别明晰的界说。”

AGI 成为了人工智能范畴最具争议的主见。一些人将其炒作为下一个重大作业:AGI 便是人工智能,但你知道的,要好得多。其他人则宣称这个术语过分含糊,以至于毫无意义。

“AGI 从前是个忌讳的词,”OpenAI 前首席科学家 Ilya Sutskever 在辞职前奉告过我。

但大型言语模型,特别是 ChatGPT,改动了悉数。AGI 从忌讳之词变成了营销希望。

这就引出了我以为现在最具阐明性的争议之一——这场争议设定了争辩两边以及其间的利害联络。

在机器中看见魔法

在 OpenAI 的大型言语模型 GPT-4 于 2023 年 3 月揭露发布前几个月,公司与微软共享了一个预发布版别,微软期望运用这个新模型来改造其查找引擎 Bing。

那时,Sebastian Bubeck 正在研讨 LLMs(大型言语模型)的局限性,并对它们的才干持必定程度的置疑心情。尤其是身为华盛顿州雷德蒙德微软研讨院生成 AI 研讨副总裁的 Bubeck,一向在测验并未能成功让这项技能处理中学数学问题。比方:x - y = 0;x 和 y 各是多少?“我以为推理是一个瓶颈,一个阻碍,”他说,“我原以为你有必要做一些底子性不同的作业才干战胜这个阻碍。”

然后他触摸到了 GPT-4。他做的榜首件事便是测验那些数学问题。“这个模型完美处理了问题,”他说,“坐在 2024 年的现在,当然 GPT-4 能解线性方程。但在其时,这太张狂了。GPT-3 做不到这一点。”

但 Bubeck 实在的彻悟时间来自于他推进 GPT-4 去做一些全新的作业。

关于中学数学问题,它们遍及互联网,GPT-4 或许只是记住了它们。“你怎样研讨一个或许现已看过人类所写悉数的模型?”Bubeck 问道。他的答案是测验 GPT-4 处理一系列他和他的伙伴们以为是新颖的问题。

在与微软研讨院的数学家 Ronen Eldan 一起测验时,Bubeck 要求 GPT-4 以诗篇的办法给出证明存在无限多质数的数学证明。

以下是 GPT-4 回应的一段:“假如咱们取 S 中未在 P 中的最小数/并称之为 p,咱们能够将它参加咱们的调集,你看不见吗?/可是这个进程能够无限重复。/因而,咱们的调集 P 也必定是无限的,你会附和。”

很风趣,对吧?但 Bubeck 和 Eldan 以为这远远不止于此。“咱们在那个办公室,”Bubeck 经过 Zoom 指着死后的房间说,“咱们两个都从椅子上摔了下来。咱们无法信赖自己所看到的。这太有构思了,如此异乎寻常。”

微软团队还让 GPT-4 生成代码,在用 Latex(一种文字处理程序)制作的独角兽卡通图片上增加一只角。Bubeck 以为这标明模型能够阅览现有的 Latex 代码,了解其描绘的内容,并辨认角应该加在哪里。

“有许多比方,但其间一些是推理才干的铁证,”他说——推理才干是人类智能的要害构建块。

(来历:Bubeck)

Bubeck、Eldan 及微软的其他研讨团队成员在一篇名为《人工通用智能的火花》的论文中论述了他们的发现,文中说到:“咱们信赖,GPT-4 所展现的智能标志着核算机科学范畴及之外的一次实在范式改动。”Bubeck 在网上共享该论文时,在推特上写道:“是时分面临实践了,#AGI 的火花已被点着。”

这篇《火花》论文敏捷变得臭名远扬,一起也成为 AI 支撑者的试金石。Agüera y Arcas 与 Google 前研讨总监、《人工智能:现代办法》一书的合著者 Peter Norvig 一起编撰了一篇文章,题为《人工通用智能现已到来》。该文章宣告在洛杉矶智库 Berggruen 研讨所支撑的杂志 Noema 上,其间征引《火花》论文作为起点,指出:“人工通用智能(AGI)对不同的人来说意味着许多不同的事物,但它的最重要部分现已被其时一代的先进大型言语模型完结。几十年后,它们会被公以为榜首批实在的 AGI 实例。”

尔后,环绕这一议题的炒作持续胀大。其时在 OpenAI 专心于超级智能研讨的 Leopold Aschenbrenner 上一年奉告我:“曩昔几年里,AI 的开展速度反常敏捷。咱们不断打破各种基准测验记载,并且这种前进气势不减。但这只是个初步,咱们将具有逾越人类的模型,比咱们更聪明得多的模型。”(他宣称因提出构建技能的安全性问题并“触怒了一些人”,于本年 4 月被 OpenAI 辞退,并随后在硅谷建立了出资基金。)

本年 6 月,Aschenbrenner 发布了一份长达 165 页的宣言,称 AI 将在“2025/2026 年”逾越大学毕业生,并在本十年底完结实在意义上的超智能。可是,业界其他人对此不以为然。当 Aschenbrenner 在推特上发布图表,展现他估计 AI 在未来几年内怎样持续坚持近年来的快速前进速度时,科技出资者 Christian Keil 辩驳道,依照相同的逻辑,他刚出生的儿子假如体重翻倍的速度坚持不变,到 10 岁时将重达 7.5 万亿吨。

因而,“AGI 的火花”也成为了过度炒作的代名词,家常便饭。“我以为他们有点得意洋洋了,”Marcus 在谈到微软团队时说,“他们像发现新大陆相同振奋,‘嘿,咱们发现了东西!这太奇特了!’但他们没有让科学界进行验证。”Bender 则将《火花》论文比方为一部“粉丝小说”。

宣称 GPT-4 的行为显示出 AGI 痕迹不只具有挑衅性,并且作为在其产品中运用 GPT-4 的微软,明显有动机夸大这项技能的才干。“这份文件是伪装成研讨的营销噱头,”一位科技公司的首席运营官在领英上如此议论。

一些人还批判该论文的办法论存在缺点。其依据难以验证,由于这些依据源自与未向 OpenAI 和微软以外揭露的 GPT-4 版别的互动。Bubeck 供认,大众版 GPT-4 设有约束模型才干的护栏,这使得其他研讨人员无法重现他的试验。

一个团队测验运用一种名为 Processing 的编程言语从头创立独角兽示例,GPT-4 相同能用此言语生成图画。他们发现,大众版 GPT-4 虽能生成一个过得去的独角兽图画,却不能将该图画旋转 90 度。这看似细小的差异,但在宣称制作独角兽的才干是 AGI 标志时,就显得至关重要。

《火花》论文中的要害点,包括独角兽的比方,是 Bubeck 及其伙伴以为这些都是发明性推理的实在事例。这意味着团队有必要保证这些任务或十分相似的任务未包括在 OpenAI 用于练习其模型的巨大数据会集。不然,效果或许被解说为 GPT-4 重复其已见过的办法,而非立异性的体现。

(来历:JUN IONEDA)

Bubeck 坚持标明,他们只给模型设置那些在网上找不到的任务。用 Latex 制作卡通独角兽无疑便是这样的一个任务。但互联网众多无边,很快就有其他研讨者指出,实践上确实存在专门议论怎样用 Latex 制作动物的在线论坛。“仅供参阅,咱们其时知道这件事,”Bubeck 在 X 渠道上回复道,“《火花》论文中的每一个查询都在互联网上进行了彻底的查找。”

(但这并未阻挠外界的责备:“我要求你中止做江湖骗子,”加州大学伯克利分校的核算机科学家 Ben Recht 在推特上反击,并指控 Bubeck“被当场抓包说谎”。)

Bubeck 坚称这项作业是出于善意进行的,但他和他的合著者在论文中供认,他们的办法并不严厉,只是依据笔记本调查而非无懈可击的试验。

优雅的《麻省理工科技评论》万字长文:什么是人工智能?的照片

即便如此,他并不懊悔:“论文现已宣告一年多,我还没有看到有人给我一个令人信服的证明,比方说,为何独角兽不是一个实在推理的比方。”

这并不是说他对这个重大问题能给出直接答案——虽然他的答复提醒了他期望给出的那种答案类型。“什么是 AI?”Bubeck 反诘我,“我想跟你说了解,问题能够简略,但答案或许很凌乱。”

“有许多简略的问题,咱们至今仍不知道答案。而其间一些简略的问题,却是最深化的,”他接着说,“我把这个问题放在平等重要的位置上,就像,生命来历于何?国际的来历是什么?咱们从何而来?这类大大的问题。”

在机器中只见数学

Bender 成为 AI 推进者的首席对手之前,她曾作为两篇有影响力的论文的合著者在 AI 范畴留下了自己的印记。(她喜爱指出,这两篇论文都经过了同行评定,与《火花》论文及许多备受重视的其他论文不同。)榜首篇论文是与德国萨尔兰大学的核算言语学家 Alexander Koller 一起编撰,于 2020 年宣告,名为“迈向自然言语了解(NLU)”。

“这悉数对我来说初步于与核算言语学界的其他人争辩,言语模型是否实在了解任何东西,”她说。(了解,如同推理相同,通常被以为是人类智能的底子组成部分。)

Bender 和 Koller 以为,仅在文本上练习的模型只会学习言语的办法,而不是其意义。他们以为,意义由两部分组成:词汇(或许是符号或声响)加上运用这些词汇的原因。人们出于多种原因运用言语,比方共享信息、讲笑话、调情、正告他人退后等。剥离了这一语境后,用于练习如 GPT-4 这样的大型言语模型(LLMs)的文本足以让它们仿照言语的办法,使得许多由 LLM 生成的语句看起来与人类写的语句一模相同。可是,它们背面没有实在的意义,没有灵光一闪。这是一种明显的核算学技巧,但却彻底无认识。

他们经过一个思维试验来论述自己的观念。希望两个说英语的人被困在相邻的荒岛上,有一条水下电缆让他们能够彼此发送文字信息。现在希望一只对英语一窍不通但拿手核算办法匹配的章鱼环绕上了电缆,初步监听这些信息。章鱼变得十分拿手猜想哪些词会跟从其他词呈现。它变得如此之好,以至于当它打断电缆并初步回应其间一个岛民的信息时,她信赖自己仍在与街坊谈天。(假如你没留意到,这个故事中的章鱼便是一个谈天机器人。)

与章鱼攀谈的人会在一段时间内上圈套,但这能持续吗?章鱼能了解经过电缆传来的内容吗?

(来历:JUN IONEDA)

希望一下,现在岛民说她制作了一个椰子弹射器,并请章鱼也制作一个并奉告她它的主见。章鱼无法做到这一点。由于不了解音讯中的词汇在实践国际中的指代,它无法遵从岛民的指示。或许它会猜想回复:“好的,酷主见!”岛民或许会以为这意味着与她对话的人了解了她的信息。但假如真是这样,她便是在没有意义的当地看到了意义。终究,希望岛民遭到熊的突击,经过电缆宣告求救信号。章鱼该怎样处理这些词语呢?

Bender 和 Koller 以为,这便是大型言语模型怎样学习以及为什么它们受限的原因。“这个思维试验标明,这条路不会引领咱们走向一台能了解任何事物的机器,”Bender 说。“与章鱼的买卖在于,咱们给它供给了练习数据,即那两个人之间的对话,仅此而已。可是,当呈现了出人意料的情况时,它就无法应对,由于它没有了解。”

Bender 另一篇出名的论文《随机鹦鹉的风险》着重了一系列她和她的合著者以为制作大型言语模型的公司正在忽视的损害。这些损害包括制作模型的巨大核算本钱及其对环境的影响;模型固化的种族主义、性别歧视和其他谩骂性言语;以及构建一个系统所带来的风险,该系统或许经过“随意拼接言语办法的序列……依据它们怎样结合的概率信息,而不参阅任何意义:一个随机鹦鹉”,然后诈骗人们。

谷歌高档管理层对该论文不满,由此引发的抵触导致 Bender 的两位合著者 Timnit Gebru 和 Margaret Mitchell 被逼脱离公司,她们在那里领导着 AI 品德团队。这也使得“随机鹦鹉”成为了大型言语模型的一个盛行贬义词,并将 Bender 直接卷入了这场互骂的漩涡中。

关于 Bender 和许多情投意合的研讨人员来说,底线是该范畴已被烟雾和镜子所利诱:“我以为他们被引导去希望能够自主考虑的实体,这些实体能够为自己做出决议,并终究成为那种能够对其决议担任的东西。”

作为一向如一的言语学家,Bender 现在乃至不肯在不加引号的情况下运用“人工智能”这个词。“我以为它是一种让人发生希望的概念,让人希望出能够自我决议方案并终究为这些决议方案承当职责的自主考虑实体,”她奉告我。归根到底,对她而言,这是大型科技公司的一个盛行语,分散了人们对许多相关损害的留意力。“我现在置身事中,”她说。“我关怀这些问题,而过度炒作正在阻碍开展。”

特殊的依据?

Agüera y Arcas 将像 Bender 这样的人称为“AI 否定者”,暗示他们永久不会承受他视为天经地义的观念。Bender 的心情是,特殊的建议需求特殊的依据,而咱们现在还没有这样的依据。

但有人正在寻觅这些依据,在他们找到明晰无疑的依据——不论是思维的火花、随机鹦鹉仍是介于两者之间的东西——之前,他们甘愿置身事外。这能够被称为张望阵营。

正如在布朗大学研讨神经网络的 Ellie Pavlick 对我所说:“向某些人暗示人类智能能够经过这类机制重现,对他们来说是得罪。”

她弥补道,“人们对这个问题有着根深柢固的崇奉——这简直感觉像是宗教崇奉。另一方面,有些人则有点天主情结。因而,对他们来说,暗示他们便是做不到也是无礼的。”

Pavlick 终究持不可知论心情。她坚持自己是一名科学家,会遵从科学的任何导向。她对那些夸大的建议翻白眼,但她信赖有一些令人振奋的作业正在发生。“这便是我和 Bender 及 Koller 定见不同的当地,”她奉告我,“我以为实践上有一些火花——或许不是 AGI 等级的,但就像,里边有些东西是咱们未曾意料到会发现的。”

问题在于,要找到对这些令人振奋的事物及其为何令人振奋的一起。在如此多的炒作之下,很简单变得嫉恶如仇。

当你听取像 Bubeck 这样的研讨人员的定见时,你会发现他们如同更为镇定。他以为内部争辩忽视了他作业的细微差别。“一起持有不同的观念对我来说没有任何问题,”他说,“存在随机鹦鹉现象,也存在推理——这是一个规模,十分凌乱。咱们并没有悉数的答案。”

“咱们需求一套全新的词汇来描绘正在发生的作业,”他说,“当我议论大型言语模型中的推理时,人们会辩驳,原因之一是它与人类的推理办法不同。但我以为咱们无法不称之为推理,它确实是一种推理。”

虽然他的公司 Anthropic 是现在全球最炙手可热的 AI 试验室之一,且本年早些时分发布的 Claude 3——与 GPT-4 相同(乃至更多)获得了许多夸大赞誉的大型言语模型,但 Olah 在被问及怎样看待 LLMs 时仍体现得适当慎重。

“我觉得关于这些模型才干的许多议论都十分部落化,”他说,“人们有先入为主的观念,并且任何一方的证明都没有充沛的依据支撑。然后这就变成了依据气氛的议论,我以为互联网上的这种依据气氛的争辩往往会走向糟糕的方向。”

Olah 奉告我他有自己的直觉。“我的片面形象是,这些东西在追寻适当凌乱的思维,”他说,“咱们没有一个全面的故事来解说十分大的模型是怎样作业的,但我以为咱们所看到的很难与极点的‘随机鹦鹉’形象相谐和。”

这便是他的极限:“我不想逾越咱们现有依据所能激烈推断出的内容。”

上个月,Anthropic 发布了一项研讨的效果,研讨人员给 Claude 3 做了适当于神经网络的 MRI。经过监测模型运行时哪些部分敞开和封闭,他们辨认出了在模型展现特定输入时激活的特定神经元办法。

例如,当模型接收到金门大桥的图画或与之相关的词汇时,如同就会呈现一种特定的办法。研讨人员发现,假如他们增强模型中这一部分的效果,Claude 就会彻底沉迷于这座出名的修建。不论你问它什么问题,它的答复都会触及这座桥——乃至在被要求描绘自己时,它也会将自己与桥联络起来。有时它会留意到提及桥梁是不恰当的,但又不由得会这样做。

(来历:Claude)

Anthropic 还陈述了与测验描绘或展现笼统概念的输入相关的办法。“咱们看到了与诈骗和诚笃、奉承、安全漏洞、成见相关的特征,”Olah 说,“咱们发现了与寻求权利、操作和变节相关的特征。”

这些效果让咱们迄今为止最明晰地看到了大型言语模型的内部情况。这是对看似难以捉摸的人类特质的一种诱人一瞥。但它实在奉告咱们什么呢?正如 Olah 所供认的,他们不知道模型怎样处理这些办法。“这是一个相对有限的画面,分析起来适当困难,”他说。

即便 Olah 不乐意详细阐明他以为像 Claude 3 这样的大型言语模型内部终究发生了什么,清楚明了的是,这个问题对他来说为什么重要。Anthropic 以其在 AI 安全方面的作业而出名——保证未来强壮的模型会依照咱们期望的办法举动,而不是以咱们不期望的办法(在职业术语中称为“对齐”)。弄清楚当今模型的作业原理,不只仅假如你想操控未来模型所必需的榜首步;它也奉告你,首要你需求对末日情形忧虑多少。“假如你以为模型不会有很强的才干,”Olah 说,“那么它们或许也不会很风险。”

为何咱们难以到达一起

在 2014 年 BBC 对她职业生涯回忆的一次采访中,现年 87 岁的有影响力的认知科学家 Margaret Boden 被问及她是否以为有任何约束会阻挠核算机(或许她所谓的“锡罐子”)去做人类能做的作业。

“我当然不以为原则上存在这样的约束,”她说,“由于否定这一点就意味着人类的思维是靠魔法发生的,而我不信赖它是靠魔法发生的。”

但她正告说,强壮的核算机自身并不足以使咱们到达这一方针:AI 范畴还需求“有力的主见”——关于思维怎样发生的全新理论,以及或许仿制这一进程的新算法。“但这些东西十分、十分困难,我没有理由假定有一天咱们能够答复悉数这些问题。或许咱们能;或许咱们不能。”

博登回忆了其时昌盛期的前期阶段,但这种咱们能否成功的摇摆不定反映了数十年来她和她的同僚们尽力处理的难题,这些难题正是今日研讨人员也在尽力战胜的。AI 作为一个雄心勃勃的方针始于大约 70 年前,而咱们至今仍在争辩哪些是可完结的,哪些不是,以及咱们怎样知道自己是否现已完结了方针。大部分——假如不是悉数的话——这些争议归结为一点:咱们没有很好地了解什么是智能,或许怎样辨认它。这个范畴充溢了直觉,但没有人能切当地说出答案。

自从人们初步认真对待 AI 这一理念以来,咱们就一向卡在这个问题上。乃至在此之前,当咱们消费的故事初步在团体希望中深深植入类人机器的概念时,也是如此。这些争辩的悠长前史意味着,今日的争辩往往强化了自一初步就存在的不合,使得人们愈加难以找到一起点。

为了了解咱们是怎样走到这一步的,咱们需求了解咱们从前走过的路。因而,让咱们深化探求AI的来历故事——这也是一个为了资金而大肆宣扬的故事。

人工智能宣扬简史

核算机科学家 John McCarthy(约翰·麦卡锡) 在 1955 年为新罕布什尔州达特茅斯学院 (Dartmouth College)的一个暑期研讨项目编撰赞助请求时,被以为提出了“人工智能”这一术语。

(来历:COURTESY OF THE MINSKY FAMILY)

方案是让 McCarthy 和他的几个研讨员伙伴——战后美国数学家和核算机科学家的精英团体,或如剑桥大学研讨 AI 前史以及谷歌 DeepMind 品德与方针的研讨员 Harry Law 所称的“John McCarthy 和他的小伙伴们”——聚在一起两个月(没错,是两个月),在这个他们为自己设定的新研讨应战上获得重大开展。

McCarthy 和他的合著者写道:“该研讨依据这样一个假定进行:学习的每一个方面或智力的任何其他特征原则都能够被如此准确地描绘,以至于能够制作一台机器来仿照它。咱们将测验找出怎样让机器运用言语、构成笼统概念、处理现在仅限于人类的问题,并自我改进。”

他们想让机器做到的这些作业——Bender 称之为“充溢神往的希望”——并没有太大改动。运用言语、构成概念和处理问题依然是当今 AI 的界说性方针。高傲也并未削减多少:“咱们以为,假如精心挑选的一组科学家一起作业一个夏天,就能在这些问题中的一个或多个方面获得明显开展。”他们写道。当然,那个夏天现已延伸到了七十年。至于这些问题实践上现在处理了多少,依然是人们在网络上争辩的论题。

可是,这段经典前史中常被疏忽的是,人工智能差点就没有被称为“人工智能”。

不止一位 McCarthy 的伙伴厌烦他提出的这个术语。据前史学家 Pamela McCorduck (帕梅拉·麦考达克)2004 年的书《考虑的机器》引证,达特茅斯会议参加者及首台跳棋电脑发明者 Arthur Samuel(亚瑟·塞缪尔) 说:“'人工'这个词让你觉得这儿面有些虚伪的东西。”数学家 Claude Shannon(克劳德·香农),达特茅斯提案的合著者,有时被誉为“信息年代之父”,更喜爱“主动机研讨”这个术语。Herbert Simon(赫伯特·西蒙)和 Allen Newell(艾伦·纽厄尔),别的两位 AI 前驱,在之后的多年里仍称自己的作业为“凌乱信息处理”。

事实上,“人工智能”只是或许归纳达特茅斯小组罗致的凌乱思维的几个标签之一。前史学家 Jonnie Penn 其时已确认了一些或许的代替选项,包括“工程心理学”、“运用知道论”、“神经操控论”、“非数值核算”、“神经动力学”、“高档主动编程”和“假定性主动机”。这一系列称号提醒了他们新范畴创意来历的多样性,涵盖了生物学、神经科学、核算学等多个范畴。另一位达特茅斯会议参加者 Marvin Minsky 曾将 AI 描绘为一个“手提箱词”,由于它能承载许多不同的解说。

但 McCarthy 想要一个能捕捉到他愿景雄心勃勃的称号。将这个新范畴称为“人工智能”招引了人们的留意——以及资金。别忘了:AI 既性感又酷。

除了术语,达特茅斯提案还确认了人工智能彼此比赛的办法之间的割裂,这种割裂自此以后一向困扰着该范畴——Law 称之为“AI 的中心严重联络”。

(来历:MIT TR)

McCarthy 和他的伙伴们想用核算机代码描绘“学习的每一个方面或其他任何智力特征”,以便机器仿照。换句话说,假如他们能弄清楚思维是怎样作业的——推理的规矩——并写下来,他们就能够编程让核算机遵从。这奠定了后来被称为依据规矩或符号 AI(现在有时被称为 GOFAI,即“好旧式的人工智能”)的根底。但提出硬编码规矩来捕获实践、非琐碎问题的处理进程证明太难了。

另一条途径则偏心神经网络,即企图以核算办法自行学习这些规矩的核算机程序。达特茅斯提案简直是以顺便的办法说到它(别离说到“神经网络”和“神经网”)。虽然这个主见起先如同不太有期望,但一些研讨人员仍是持续在符号 AI 的一起开发神经网络的版别。但它们实在起飞要比及几十年后——加上许多的核算才干和互联网上的很大都据。快进到今日,这种办法支撑了整个 AI 的昌盛。

这儿的首要收成是,就像今日的研讨人员相同,AI 的立异者们在根底概念上争辩不休,并堕入了自我宣扬的旋涡。就连 GOFAI 团队也饱尝争持之苦。年近九旬的哲学家及 AI 前驱 Aaron Sloman 回忆起他在 70 年代知道的“老朋友”明斯基和麦卡锡时,两人“激烈定见不合”:“Minsky 以为 McCarthy 关于逻辑的建议行不通,而 McCarthy 以为 Minsky 的机制无法做到逻辑所能做的。我和他们都共处得很好,但我其时在说,‘你们俩都没搞对。’”(斯洛曼依然以为,没有人能解说人类推理中直觉与逻辑的运用,但这又是另一个论题!)

跟着技能命运的崎岖,“AI”一词也随之时兴和过期。在 70 年代初,英国政府发布了一份陈述,以为 AI 希望毫无开展,不值得赞助,导致这两条研讨途径实践上都被放置了。悉数那些炒作,实质上都未带来任何效果。研讨项目被封闭,核算机科学家从他们的赞助请求中抹去了“人工智能”一词。

当我在 2008 年完结核算机科学博士学位时,系里只要一个人在研讨神经网络。Bender 也有相似的回忆:“在我上大学时,一个撒播的笑话是,AI 是咱们还没有弄清楚怎样用核算机做的任何事。就像是,一旦你弄了解怎样做了,它就不再奇特,所以它就不再是 AI 了。”

但那种魔法——达特茅斯提案中概述的雄伟愿景——依然朝气蓬勃,正如咱们现在所见,它为 AGI(通用人工智能)希望奠定了根底。

好行为与坏行为

1950 年,也便是 McCarthy 初步议论人工智能的五年前,Alan Turing(艾伦·图灵) 宣告了一篇论文,提出了一个问题:机器能考虑吗?为了议论这个问题,这位出名的数学家提出了一个假定测验,即后来出名的图灵测验。测验希望了一个场景,其间一个人类和一台核算机坐落屏暗地,而第二个人类经过打字向他们两边发问。假如发问者无法分辩哪些答复来自人类,哪些来自核算机,Turing 以为,能够说核算机也能够算是考虑的。

与 McCarthy 团队不同,Turing 认识到考虑是一个很难描绘的作业。图灵测验是一种绕开这个问题的办法。“他底子上是在说:与其重视智能的实质,不如寻觅它在国际中的体现办法。我要寻觅它的影子,”Law 说。

1952 年,英国播送公司电台组织了一个专家小组进一步议论 Turing 的观念。图灵在演播室里与他的两位曼彻斯特大学伙伴——数学教授 Maxwell Newman (麦克斯韦尔·纽曼)和神经外科教授 Geoffrey Jefferson(杰弗里·杰斐逊),以及剑桥大学的科学、品德与宗教哲学家 Richard Braithwaite(理查德·布雷斯韦特)一起到会。

Braithwaite 开场说道:“考虑通常被以为是人类,或许还包括其他高等动物的特长,这个问题或许看起来太荒唐了,不值得议论。但当然,这彻底取决于‘考虑’中包括了什么。”

小组成员环绕 Turing 的问题翻开议论,但一向未能给出切当的界说。

当他们企图界说考虑包括什么,其机制是什么时,规范一向在变化。“一旦咱们能在大脑中看到因果联络的运作,咱们就会以为那不是考虑,而是一种缺少希望力的苦力作业,”图灵说道。

问题在于:当一位小组成员提出某种或许被视为考虑依据的行为——比方对新主见标明愤恨——另一位成员就会指出,核算机也能够被编程来做到这一点。

(来历:MIT TR)

正如 Newman 所说,编程让核算机打印出“我不喜爱这个新程序”是垂手可得的。但他供认,这不过是个花招。

Jefferson 对此标明附和:他想要的是一台由于不喜爱新程序而打印出“我不喜爱这个新程序”的核算机。换言之,关于 Jefferson 来说,行为自身是不行的,引发行为的进程才是要害。

但 Turing 并不附和。正如他所指出的,提醒特定进程——他所说的苦力作业——并不能切当指出考虑是什么。那么剩余的还有什么?

“从这个视点来看,人们或许会遭到引诱,将考虑界说为咱们还不了解的那些心理进程,”Turing 说,“假如这是正确的,那么制作一台考虑机器便是制作一台能做出风趣作业的机器,而咱们其实并不彻底了解它是怎样做到的。”

听到人们初次议论这些主见感觉有些古怪。“这场争辩具有预见性,”哈佛大学的认知科学家 Tomer Ullman 说,“其间的一些观念至今依然存在——乃至更为出色。他们如同在重复议论的是,图灵测验首要并且首要是一个行为主义测验。”

对 Turing 而言,智能难以界说但简单辨认。他提议,智能的体现就满意了,而没有提及这种行为应当怎样发生。

生动的《麻省理工科技评论》万字长文:什么是人工智能?的图片

可是,大大都人被逼问时,都会凭直觉判别何为智能,何为非智能。体现出智能有愚笨和聪明的办法。1981 年,纽约大学的哲学家 Ned Block 标明,Turing 的提议没有满意这些直觉。由于它没有阐明行为的原因,图灵测验能够经过诈骗手法(正如纽曼在 BBC 播送中所指出的)来经过。

“一台机器是否真的在考虑或是否智能的问题,莫非取决于人类审问者的易骗程度吗?”布洛克问道。(正如核算机科学家 Mark Reidl 所议论的那样:“图灵测验不是为了让 AI 经过,而是为了让人类失利。”)

Block 希望了一个巨大的查找表,其间人类程序员录入了对悉数或许问题的悉数或许答案。向这台机器输入问题,它会在数据库中查找匹配的答案并发送回来。Block 以为,任何人运用这台机器都会以为其行为是智能的:“但实践上,这台机器的智能水平就像一个烤面包机,”他写道,“它展现的悉数智能都是其程序员的智能。”

Block 总结道,行为是否为智能行为,取决于它是怎样发生的,而非它看起来怎样。Block 的“烤面包机”(后来被称为 Blockhead)是对 Turing 提议背面假定最强有力的反例之一。

探究内涵机制

图灵测验原意并非实践衡量规范,但它对咱们今日考虑人工智能的办法有着深远的影响。这一点跟着近年来大型言语模型(LLMs)的爆破性开展变得尤为相关。这些模型以外在行为作为评判规范,详细体现为它们在一系列测验中的体现。当 OpenAI 宣告 GPT-4 时,发布了一份令人形象深化的得分卡,详细列出了该模型在多个高中及专业考试中的体现。简直没有人议论这些模型是怎样获得这些成果的。

这是由于咱们不知道。现在的大型言语模型过分凌乱,以至于任何人都无法切当阐明其行为是怎样发生的。除少数几家开发这些模型的公司外,外部研讨人员不了解其练习数据包括什么;模型制作商也没有共享任何细节。这使得区别什么是回忆(随机仿照)什么是实在的智能变得困难。即便是在内部作业的研讨人员,如 Olah,面临一个痴迷于桥梁的机器人时,也不知道实在发生了什么。

这就留下了一个悬而未决的问题:是的,大型言语模型树立在数学之上,但它们是否在用智能的办法运用这些数学知识呢?

争辩再次初步。

布朗大学的 Pavlick 说:“大大都人企图从理论上估测(armchair through it),”这意味着他们在没有调查实践情况的情况下争辩理论。“有些人会说,‘我以为情况是这样的,’另一些人则会说,‘嗯,我不这么以为。’咱们有点堕入僵局,每个人都不满意。”

Bender 以为这种奥秘感加重了神话的构建。(“戏法师不会解说他们的花招,”她说。)没有恰当了解 LLM 言语输出的来历,咱们便倾向于依靠对人类的了解假定,由于这是咱们仅有的实在参照点。当咱们与他人攀谈时,咱们企图了解对方想奉告咱们什么。“这个进程必定触及希望言语背面的那个生命,”Bender 说。这便是言语的作业办法。

(来历:JUN IONEDA)

“ChatGPT 的小花招如此令人形象深化,以至于当咱们看到这些词从它那里冒出来时,咱们会天性地做相同的事,”她说。“它十分拿手仿照言语的办法。问题是,咱们底子不拿手遇到言语的办法而不去希望它的其余部分。”

关于一些研讨者来说,咱们是否能了解其运作办法并不重要。Bubeck 曩昔研讨大型言语模型是为了测验弄清楚它们是怎样作业的,但 GPT-4 改动了他的观念。“这些问题如同不再那么相关了,”他说。“模型太大,太凌乱,以至于咱们不能盼望翻开它并了解里边实在发生的作业。”

但 Pavlick 像 Olah 相同,正尽力做这件事。她的团队发现,模型如同编码了物体之间的笼统联络,比方国家和首都之间的联络。经过研讨一个大型言语模型,Pavlick 和她的伙伴们发现,它运用相同的编码映射法国到巴黎,波兰到华沙。我奉告她,这听起来简直很聪明。“不,它实践上便是一个查找表,”她说。

但让 Pavlick 感到震动的是,与 Blockhead 不同,模型自己学会了这个查找表。换句话说,LLM 自己发现巴黎关于法国就如同华沙关于波兰相同。但这展现了什么?自编码查找表而不是运用硬编码的查找表是智能的标志吗?咱们该在哪里划清界限?

“底子上,问题在于行为是咱们仅有知道怎样牢靠丈量的东西,” Pavlick 说。“其他任何东西都需求理论上的许诺,而人们不喜爱不得不做出理论上的许诺,由于它承载了太多意义。”

并非悉数人都这样。许多有影响力的科学家乐于做出理论上的许诺。例如,Hinton 坚持以为神经网络是你需求的悉数来重现相似人类的智能。“深度学习将能够做悉数,”他在 2020 年承受《麻省理工科技议论》采访时说。

这是一个 Hinton 如同从一初步就坚持的崇奉。Sloman 记妥当 Hinton 是他试验室的研讨生时,两人曾发生过争辩,他回忆说自己无法压服 Hinton 信赖神经网络无法学习某些人类和其他某些动物如同直观把握的要害笼统概念,比方某事是否不或许。Sloman 说,咱们能够直接看出什么时分某事被排除了。“虽然 Hinton 具有出色的才智,但他如同从未了解这一点。我不知道为什么,但有许多的神经网络研讨者都有这个盲点。”

然后是 Marcus,他对神经网络的观念与 Hinton 截然相反。他的观念依据他所说的科学家对大脑的发现。

Marcus 指出,大脑并不是从零初步学习的白板——它们天然生成带有辅导学习的固有结构和进程。他以为,这便是婴儿能学到现在最好的神经网络仍不能把握的东西的原因。

“神经网络研讨者手头有这个锤子,现在悉数都变成了钉子,”Marcus 说。“他们想用学习来做悉数的事,许多认知科学家会以为这不切实践且愚笨。你不或许从零初步学习悉数。”

不过,作为一名认知科学家,Marcus 对自己的观念相同坚信。“假如真有人准确猜测了其时的情况,我想我有必要排在任何人名单的最前面,”他在前往欧洲讲演的 Uber 后座上奉告我。“我知道这听起来不太谦善,但我确实有这样一个视角,假如你企图研讨的是人工智能,这个视角就显得十分重要。”

鉴于他对该范畴揭露的批判,你或许会惊讶于 Marcus 依然信赖通用人工智能(AGI)行将来临。只是他以为当今对神经网络的执着是个过错。“咱们或许还需求一两个或四个打破,”他说。“你和我或许活不到那么久,很抱愧这么说。但我以为这将在本世纪发生。或许咱们有时机见证。”

炫彩之梦的力气

在以色列拉马特甘家中经过 Zoom 通话时,Dor Skuler 背面的某个相似小台灯的机器人跟着咱们的说话时亮时灭。“你能够在我死后看到 ElliQ,”他说。Skuler 的公司 Intuition Robotics 为老年人规划这些设备,而 ElliQ 的规划——结合了亚马逊 Alexa 的部分特征和 R2-D2 的风格——明晰标明它是一台核算机。Skuler 标明,假如有任何客户体现出对此有所混杂的痕迹,公司就会回收这款设备。

ElliQ 没有脸,没有任何人类的形状。假如你问它关于体育的问题,它会开打趣说自己没有手眼和谐才干,由于它既没有手也没有眼睛。“我实在不了解,为什么职业里都在尽力满意图灵测验,” Skuler 说,“为什么为了全人类的利益,咱们要研制旨在诈骗咱们的技能呢?”

相反,Skuler 的公司赌注于人们能够与明晰呈现为机器的机器树立联络。“就像咱们有才干与狗树立实在的联络相同,”他说,“狗给人们带来了许多高兴,供给了陪同。人们爱他们的狗,但他们从不把它混杂成人。”

(来历:MIT TR)

ElliQ 的用户,许多都是八九十岁的白叟,称这个机器人为一个实体或一种存在——有时乃至是一个室友。“他们能够为这种介于设备或电脑与有生命之物之间的联络发明一个空间,” Skuler 说。

可是,不论 ElliQ 的规划者多么尽力地操控人们对这款设备的观念,他们都在与刻画了咱们期望几十年的盛行文明比赛。为什么咱们如此执着于类人的人工智能?“由于咱们很难希望其他的或许性,” Skuler 说(在咱们的对话中,他确实一向用“她”来指代 ElliQ),“并且科技职业的许多人都是科幻迷。他们企图让自己的希望成真。”

有多少开发者在生长进程中以为,构建一台智能机器是他们或许做的最酷的作业——假如不是最重要的作业?

不久之前,OpenAI 推出了新的语音操控版 ChatGPT,其声响听起来像 Scarlett Johansson(斯嘉丽约翰逊),之后包括 Altman 在内的许多人都指出了它与 Spike Jonze (斯派克琼斯) 2013 年的电影《她》之间的联络。

科幻小说一起发明了人工智能被了解为何物。正如 Cave 和 Dihal 在《希望人工智能》一书中所写:“人工智能在成为技能现象很久以前就现已是一种文明现象了。”

关于将人类重塑为机器的故事和神话已有数百年前史。Dihal 指出,人们关于人造人的希望或许与他们关于飞翔的希望相同持久。她说到,希腊神话中的出名人物戴达罗斯,除了为自己和儿子伊卡洛斯制作了一对翅膀外,还制作了一个实质上是巨型青铜机器人的塔洛斯,它会向过往的海盗抛掷石头。

“机器人”这个词来自 robota,这是捷克剧作家 Karel Čapek 在他的 1920 年戏曲《罗素姆的万能机器人》中发明的一个术语,意为“强制劳作”。 Isaac Asimov(艾萨克·阿西莫夫)在其科幻著作中概述的“机器人学三大规律”,制止机器损伤人类,而在像《终结者》这样的电影中,这些规律被回转,成为了对实践国际技能的遍及惊骇的经典参阅点。2014 年的电影《机械姬》是对图灵测验的戏曲性演绎。上一年的大片《造物主》希望了一个未来国际,在这个国际里,人工智能因引发核弹爆破而被撤销,这一作业被某些末日论者至少视为一个或许的外部风险。

Cave 和 Dihal 叙述了另一部电影《超验骇客》(2014 年),在这部电影中,由 Johnny Depp(约翰尼·德普)扮演的一位人工智能专家将自己的认识上传到了电脑中,这一情节推进了元末日论者 Stephen Hawking(斯蒂芬·霍金)、物理学家 Max Tegmark(马克斯·泰格马克)以及人工智能研讨员 Stuart Russell(斯图尔特·拉塞尔)提出的叙事。在电影首映周末宣告在《赫芬顿邮报》上的一篇文章中,三人写道:“跟着好莱坞大片《超验骇客》的上映……它带来了关于人类未来的抵触愿景,很简单将高度智能机器的概念视为朴实的科幻小说。但这将是一个过错,或许是咱们有史以来最大的过错。”

(来历:ALCON ENTERTAINMENT)

大约在同一时期,Tegmark 创立了未来生命研讨所,其任务是研讨和促进人工智能安全。电影中德普的伙伴 Morgan Freeman(摩根·弗里曼)是该研讨所董事会成员,而曾在电影中有客串的 Elon Musk 在榜首年捐献了1000万美元。关于 Cave 和 Dihal 来说,《超验骇客》是盛行文明、学术研讨、工业生产和“亿万富翁赞助的未来刻画之战”之间多重纠葛的完美例子。

上一年在 Altman 的国际巡回伦敦站,当被问及他在推特上所说“人工智能是国际一向想要的技能”是什么意思时,站在房间后边,面临着数百名听众,我听到他给出了自己的来历故事:“我小时分十分严重,读了许多科幻小说,许多周五晚上都待在家里玩电脑。但我一向对人工智能很感兴趣,我觉得那会十分酷。”他上了大学,变得赋有,并见证了神经网络变得越来越好。“这或许十分好,但也或许真的很糟糕。咱们要怎样应对?”他回忆起 2015 年时的主见,“我终究创立了 OpenAI。”

为何你应该关怀一群书呆子对 AI 的争辩

好的,你现已了解了:没人能就人工智能是什么到达一起。但如同每个人都附和的是,其时环绕 AI 的争辩已远远超出了学术和科学范畴。政治和品德要素正在发挥效果,而这并没有协助咱们削减相互以为对方过错的情况。

解开这个疑团很难。当某些品德观念涵盖了整个人类的未来,并将其锚定在一个无人能切当界说的技能上时,要想看清正在发生什么变得尤为困难。

但咱们不能就此抛弃。由于不论这项技能是什么,它行将到来,除非你与世隔绝,不然你将以这样或那样的办法运用它。而技能的形状,以及它处理和发生的问题,都将遭到你刚刚读到的这类人的思维和动机的影响,尤其是那些具有最大权利、最多资金和最嘹亮声响的人。

这让我想到了 TESCREALists。等等,别走!我知道,在这儿引进另一个新概念如同不公平。但要了解掌权者怎样刻画他们构建的技能,以及他们怎样向全球监管组织和立法者解说这些技能,你有必要实在了解他们的思维办法。

Gebru 在脱离谷歌后创立了分布式人工智能研讨所,以及凯斯西储大学的哲学家和前史学家 Émile Torres(埃米尔·托雷斯),他们追寻了几个技能乌托邦崇奉系统对硅谷的影响。二人以为,要了解 AI 其时的情况——为什么像谷歌 DeepMind 和 OpenAI 这样的公司正在竞相构建通用人工智能(AGI),以及为什么像 Tegmark 和 Hinton 这样的末日预言者正告行将到来的灾祸——有必要经过托雷斯所称的 TESCREAL 结构来审视这个范畴。

这个蠢笨的缩写词(发音为tes-cree-all)替代了一个更蠢笨的标签列表:超人类主义、外展主义、奇点主义、国际主义、理性主义、有用利他主义和长时间主义。关于这些国际观的许多内容(以及将会有的更多内容)现已被编撰,所以我在这儿就不赘述了。(关于任何想要深化探究的人来说,这儿充溢了层层递进的兔子洞。挑选你的范畴,带上你的探险配备吧。)

这一系列彼此堆叠的思维观念对西方科技界中某种类型的天才思维极具招引力。一些人预见到人类的永生,其他人则猜测人类将殖民星斗。一起的信条是,一种万能的技能——不论是通用人工智能(AGI)仍是超级智能,选边站队吧——不只触手可及,并且不可避免。你能够在比方 OpenAI 这样的前沿试验室里无处不在的拼命心情中看到这一点:假如咱们不制作出 AGI,他人也会。

更重要的是,TESCREA 主义者以为 AGI 不只能处理国际的问题,还能提高人类层次。“人工智能的开展和遍及——远非咱们应该惧怕的风险——是咱们对自己、对子女和对未来的一种品德责任,” Andreessen 上一年在一篇备受分析的宣言中写道。我屡次被奉告,AGI 是让国际变得更夸姣的途径——这是 DeepMind 的首席履行官和联合创始人 Demis Hassabis(戴米斯·哈萨比斯)、新建立的微软 AI 的首席履行官及 DeepMind 的另一位联合创始人Mustafa Suleyman、Sutskever、Altman 等人奉告我的。

但正如 Andreessen 所指出的,这是一种阴阳心态。技能乌托邦的不和便是技能阴间。假如你信赖自己正在制作一种强壮到足以处理国际上悉数问题的技能,你很或许也信赖它有或许彻底犯错的风险。当二月份在国际政府峰会上被问及什么让他夜不能寐时,阿尔特曼答复说:“都是科幻小说里的东西。”

这种严重局势是 Hinton 在曩昔一年里不断着重的。这也是 Anthropic 等公司宣称要处理的问题,是 Sutskever 在他的新试验室重视的焦点,也是他上一年期望 OpenAI 内部特别团队专心的,直到在公司怎样平衡风险与回报上的不合导致该团队大大都成员离任。

当然,末日论也是宣扬的一部分。(“宣称你发明了某种超级智能的东西有利于出售数字,”迪哈尔说,“就像是,‘请有人阻挠我这么好,这么强壮吧。’”)但不论昌盛仍是消灭,这些人声称要处理的到底是什么问题?谁的问题?咱们真的应该信赖他们制作的东西以及他们向咱们的领导人叙述的内容吗?

Gebru 和 Torres(以及其他一些人)坚决对立:不,咱们不应该。他们对这些认识形状及其或许怎样影响未来技能,特别是 AI 的开展持高度批判心情。从底子上讲,他们将这些国际观中几个以“改进”人类为一起焦点的观念与 20 世纪的种族优生运动联络起来。

他们以为,一个风险是,资源向这些认识形状要求的科技立异搬运,从构建 AGI 到延伸寿数再到殖民其他星球,终究将以数十亿非西方和非白人团体的利益为价值,使西方和白人获益。假如你的目光锁定在希望的未来上,很简单忽视立异的当下本钱,比方劳工克扣、种族和性别成见的根深柢固以及环境损坏。

Bender 反思这场通往 AGI 比赛的献身时问道:“咱们是否在企图制作某种对咱们有用东西?”假如是这样,那是为谁制作的,咱们怎样测验它,它作业得有多好?“但假如咱们要制作它的意图只是是为了能够说咱们做到了,这不是我能支撑的方针。这不是值得数十亿美元的方针。”

Bender 说,知道到 TESCREAL 认识形状之间的联络让她认识到这些争辩背面还有更多的东西。“与那些人的羁绊是——”她停顿了一下,“好吧,这儿不只仅只要学术思维。其间还捆绑着一种品德原则。”

当然,假如这样缺少细微差别地论述,听起来如同咱们——作为社会,作为个人——并没有得到最好的买卖。这悉数听起来也很愚笨。当 Gebru 上一年在一次讲演中描绘了 TESCREAL 组合的部分内容时,她的听众笑了。也确实很少有人会认同自己是这些思维门户的忠诚信徒,至少在极点意义上不会。

但假如咱们不了解那些构建这项技能的人是怎样看待它的,咱们又怎样能决议咱们要到达什么样的协议呢?咱们决议运用哪些运用程序,咱们想向哪个谈天机器人供给个人信息,咱们在社区支撑哪些数据中心,咱们想投票给哪些政治家?

曩昔常常是这样:国际上有一个问题,咱们就制作一些东西来处理它。而现在,悉数都颠倒了:方针如同是制作一台能做悉数作业的机器,越过在找到处理方案前缓慢而艰难地辨认问题的作业。

正如 Gebru 在那次讲演中所说,“一台能处理悉数问题的机器:假如这都不是魔法,那它是什么呢?”

语义,语义……仍是语义?

当开门见山地问及什么是人工智能时,许多人会逃避这个问题。Suleyman 不是这样。四月份,微软 AI 的首席履行官站在 TED 的舞台上,奉告观众他对六岁侄子提出相同问题时的答复。Suleyman 解说说,他能给出的最佳答案是,人工智能是“一种新式的数字物种”——一种如此遍及、如此强壮的技能,以至于称其为东西已不再能归纳它能为咱们做什么。

“依照现在的开展轨道,咱们正走向某种咱们都难以描绘的呈现,而咱们无法操控咱们不了解的事物,”他说,“因而,比方、心智模型、称号——这些都至关重要,只要这样咱们才干在最大极限运用人工智能的一起约束其潜在的负面影响。”

(来历:MIT TR)

言语很重要!我期望从咱们经历过的弯曲、转机和心情迸发中,这一点现已很清楚了。但我也期望你在问:是谁的言语?又是谁的负面影响?Suleyman 是一家科技巨子的职业领导者,该公司有望从其 AI 产品中赚取数十亿美元。将这些产品的背面技能描绘为一种新式物种,暗示着某种史无前例的东西,它具有咱们从未见过的自主性和才干。这让我感到不安,你呢?

我无法奉告你这儿是否有魔法(挖苦与否)。我也无法奉告你数学是怎样完结 Bubeck 和其他许多人在这项技能中看到的(现在还没有人能做到)。你有必要自己下结论。但我能够提醒我自己的观念。

在 2020 年写到 GPT-3 时,我说人工智能最巨大的花招便是压服国际它存在。我依然这么以为:咱们天然生成就会在体现出特定行为的事物中看到才智,不论它是否存在。在曩昔几年里,科技职业自身也找到了理由来压服咱们信赖人工智能的存在。这使我对接收到的许多关于这项技能的声明持置疑心情。

与此一起,大型言语模型让我感到惊讶。它们终究能够做什么以及怎样做到,是咱们这个年代最令人振奋的问题之一。

或许人类一向对才智入神——它是什么,还有什么具有它。Pavlick 奉告我,哲学家长时间以来一向在希望假定场景,来希望遇到非人类来历的智能行为意味着什么——比方说,假如一波涛冲刷海滩,当它退去时在沙滩上留下了一行字,拼凑成一首诗?

经过大型言语模型——经过它们的浅笑面具——咱们面临着史无前例的考虑目标。“它将这个假定的东西变得十分详细,”Pavlick 说,“我从未想过一段言语的生成是否需求才智,由于我从未处理过来自非人类的言语。”

人工智能包括许多东西。但我不以为它是类人的。我不以为它是处理咱们悉数(乃至大部分)问题的答案。它不是 ChatGPT、Gemini 或 Copilot,也不是神经网络。它是一种理念、一种愿景,一种期望的完结。理念遭到其他理念、品德、准宗教崇奉、国际观、政治和直觉的影响。“人工智能”是描绘一系列不同技能的有用简略说法。但人工智能并不是单一事物;历来都不是,不论品牌标识多么频频地痕迹在外包装上。

“事实是,这些词汇——智力、推理、了解等——在需求准确界定之前就现已被界说了,”Pavlick 说,“当问题变成‘模型是否了解——是或否?’时,我并不喜爱,由于,嗯,我不知道。词语会被从头界说,概念会不断进化。”

我以为这是对的。咱们越早能撤退一步,就咱们不知道的事到达一起,并承受这悉数没有尘埃落定,咱们就能越快地——我不知道,或许不是手牵手唱起 Kumbaya(《欢聚一堂》),但咱们能够中止彼此责备。

原文链接:

https://www.technologyreview.com/2024/07/10/1094475/what-is-artificial-intelligence-ai-definitive-guide/

告发/反应

相关文章

「南充」南充:“以侨为桥” 共画团结合作同心圆

南充是全省第二人口大市,也是全省第二侨务资源大市,共有海外华裔华人、港澳同胞约4.5万人,有归侨侨眷、港澳同胞眷属、海外留学人员眷属约15万人,归国留学人员1500人。五年来,全市各级侨联安排活跃联合...

「钛晨报」事关工作,中共中央、国务院最新布置;微信付出:刷掌服务不存在任何方式的加盟或署理形式;央行展开3000亿元MLF操作,利率从2.3%下调至2.0%

【钛媒体归纳】据新华社音讯,近来,中共中央、国务院发布关于施行作业优先战略促进高质量充沛作业的定见。作业是最基本的民生,事关人民大众切身利益,事关经济社会健康展开,事关国家国泰民安。为施行作业优先战略...

在奥斯维辛,马斯克称:我是犹太人,多元化本质上反犹

(观察者网讯)最近,美国特斯拉、SpaceX和推特公司老板马斯克深陷“反犹”风云,推特也在一夜之间痛失多家广告商。为自证“洁白”、停息犹太人怒火,马斯克在巴以抵触期间到访以色列,且屡次揭露抱歉,坚称自...

查询!哪吒天地圈手镯点着水贝黄金市场,水贝商户:有顾客一次性下了16单,音讯回到手抽筋

本报(chinatimes.net.cn)记者胡梦然 深圳拍摄报导“这个哪吒金手镯线上线下好多人找,线上的音讯回到我手抽筋。有顾客一次性下了16单,订了16个镯子,工厂一直在接单,我不敢给你保证三天的...

弟弟被拐23年后寻回,哥哥想追查拐人者职责疑过追诉期 律师:当年是否报案是要害

被拐23年的毛永跃与亲生家庭相认已近5年,但时至今日,他的哥哥毛永飞仍在为找到那个拐走弟弟、让整个家庭堕入苦楚的人尽力,期望其能得到法令应有的赏罚。▲毛永飞(左)和毛永跃兄弟聚会之后的合影。 受访者供...

998吃瓜科普:熵怎么读?一文搞懂热力学关键概念

998吃瓜科普:熵怎么读?一文搞懂热力学关键概念最近在998吃瓜网友的科普讨论区里,一个看似简单的问题引发热议:「熵怎么读?」这个字不仅难住了不少理科生,还让热力学概念再次出圈。今天我们就用轻松有趣的...

友情链接: