北京时间5月2日,被誉为“人工智能教父”的杰弗里·辛顿(Geoffrey Hinton)周一宣布辞去谷歌职务。半个世纪以来,Hinton 一直致力于开发ChatGPT 等聊天机器人背后的核心技术。但现在,他担心人工智能可能会造成严重伤害。 Hinton 是人工智能先驱。 2012年,Hinton博士和他带领的两名多伦多大学研究生开发的技术成为人工智能系统的知识库。如今,科技行业巨头相信人工智能系统是其未来发展的关键。
开发AI的遗憾
然而周一,他正式加入了越来越多的人工智能批评者行列。他们认为,这些公司积极开发基于生成式人工智能的产品,正在走向危险,而像ChatGPT这样流行的聊天机器人正在快速开发。
Hinton 表示,他辞去了谷歌的工作,这样他就可以自由地谈论人工智能的风险。他在谷歌工作了十多年,成为该领域最受尊敬的人物之一。辛顿说,他现在对自己一生的工作感到有些遗憾。
“我用通常的借口安慰自己:如果我没有这样做,其他人也会这样做,”辛顿上周在多伦多家中的餐厅接受长时间采访时说道。这距离他和他的学生取得人工智能突破的地方仅几步之遥。
辛顿从人工智能先驱到世界末日预言家的转变标志着一个非凡的时刻,这可能是科技行业几十年来最重要的转折点。行业领导者认为,新的人工智能系统可能与20 世纪90 年代初推出的网络浏览器一样重要,并可能在从药物研究到教育等领域引发突破。
但是,令该行业许多人感到苦恼的是,他们担心自己正在向野外释放一些危险的东西。生成式人工智能已经可以成为传播虚假信息的工具。很快,它可能会对就业构成威胁。科技行业最大的担忧是它可能在未来某个时候对人类构成威胁。
“很难想象如何阻止坏人利用它来做坏事,”辛顿说。
自3月份OpenAI发布最新版本的ChatGPT-4模型以来,包括马斯克在内的数千名技术领袖和高管签署了一封联名信,呼吁暂停6个月开发比ChatGPT-4更先进的模型,因为“AI”对社会和人类构成深远的风险。”几天后,拥有40 年历史的学术组织人工智能促进会(Association for the Advancement of Artificial Intelligence) 的19 名现任和前任领导人发表了自己的公开信,警告人工智能的风险。该小组包括微软首席科学官埃里克·霍维茨(Eric Horvitz)。微软已在一系列产品中使用了OpenAI 的技术,包括其Bing 搜索引擎。
辛顿没有签署这两封信。他表示,他不想在辞职前公开批评谷歌或其他公司。上个月,他通知公司他要辞职。周四,他与谷歌母公司Alphabet首席执行官桑达尔·皮查伊(Sundar Pichai)通了电话。他拒绝公开讨论他与皮查伊谈话的细节。
谷歌首席科学家杰夫迪恩在一份声明中表示:“我们仍然致力于对人工智能采取负责任的态度。” “我们在大胆创新的同时不断了解新出现的风险。”
人工智能的危险来得更快
Hinton 认为,随着公司改进人工智能系统,它们将变得越来越危险。 “看看我们五年前的情况和现在的情况,”他在谈到人工智能技术时说道,“接受差异并传播它。太可怕了。”
他说,直到去年,谷歌一直是该技术的“适当管理者”,小心翼翼地不发布任何可能造成伤害的东西。但现在,微软通过聊天机器人增强了其Bing 搜索引擎,挑战了谷歌的核心业务,并导致谷歌竞相部署相同的技术。辛顿表示,科技巨头陷入了一场可能势不可挡的竞争。
他现在最担心的是,互联网上将充斥着虚假的照片、视频和文字,普通人将“不再知道什么是真实的”。他还担心人工智能技术最终会扰乱就业市场。如今,像ChatGPT 这样的聊天机器人往往会补充人类工作者,但它们也可能取代律师助理、私人助理、翻译和其他处理机器人任务的人。 “它减轻了繁重的负担,但它减轻的可能还不止这些,”辛顿说。
未来,他担心人工智能技术的未来版本将对人类构成威胁,因为他们经常从分析的大量数据中学习意想不到的行为。他说,这成为一个问题,因为个人和公司不仅允许人工智能系统生成自己的计算机代码,还允许他们自己运行该代码。他担心有一天真正的自主武器——那些杀手机器人——将会成为现实。
“有些人相信这个东西实际上会变得比人更聪明,”他说。 “但大多数人认为那很遥远。我认为那很遥远。我认为这需要30到50年的时间。”或者甚至更长。显然,我不再这么想了。”
辛顿说,当过去的人问他如何研究有潜在危险的技术时,他会引用原子弹之父罗伯特·奥本海默的话:“当你在技术上看到某件事感觉不错时,你就会去做。”