加入VIP

苏纳克的全球人工智能安全峰会可能收效甚微

康纳-莱希(Connor Leahy)说,大型科技公司试图 “捕获” 政府首脑会议。

5175

一位受邀参加下月举行的里希-苏纳克国际人工智能安全峰会的高管警告说,这次会议有可能收效甚微,并指责强大的科技公司试图 “俘获” 这次具有里程碑意义的会议。

人工智能安全研究公司 “猜想”(Conjecture)的首席执行官康纳-莱希(Connor Leahy)说,他认为各国政府首脑准备达成一种监管方式,允许公司继续开发 “神一样” 的人工智能,几乎不受任何制约。

莱希是受邀参加 11 月在布莱切利公园举行的峰会的 100 人之一,其中包括外国政府部长、科技高管和民间社会人士,唐宁街希望这次峰会将成为先进人工智能技术发展的转折点。

官方已经公布了峰会的议程,其中提到了 “负责任的能力扩展” 的重要性,即公司应根据一系列指导方针开发其尖端模型。

然而,莱希和其他人认为,应该完全暂停开发人工通用智能–能够以人类或超越人类的智能水平完成任务的人工智能模型。

莱希说: “负责任的缩放的主要目的是提供一个框架,看起来好像做了些什么,这样政客们就可以回家说:’我们做了些什么’。但实际政策是什么也没做。 ”

莱希和其他人发起了一项名为 “控制人工智能”(Control AI)的运动,敦促政策制定者更进一步,利用布莱切利公园峰会暂停开发最复杂形式的人工智能。

和其他一些业内人士一样,莱希认为,如果人类开发出一种能学会如何逃避人类控制的人工智能系统,人类就会面临危险。

“如果你建立的系统在操纵、商业、政治、科学和其他一切方面都比人类更有能力,而我们却不控制它们,那么未来就属于它们,而不是我们,”他说。

他补充说:”尤其是人工智能公司和它们周围的其他组织正试图夺取峰会的胜利,锁定不受监管的灾难竞赛现状。”

莱希引用了最近对人工智能公司 Anthropic 首席执行官达里奥-阿莫代(Dario Amodei)的采访,他说人工智能系统出现 “人类文明规模的灾难性错误” 的几率在10%到25%之间。

莱希说: “如果你要制造的机器有这样的可能性,那么我的建议是:不要做。”

一位政府发言人说,这次峰会是关于人工智能的 “全球对话” 的开始,欢迎 “不同的观点”。

不过,莱希的评论与人工智能领域其他人最近发出的警告不谋而合。

5198

被称为 “人工智能教父” 的杰弗里-辛顿(Geoffrey Hinton)最近从谷歌辞职,对他所谓的数字智能带来的 “生存风险” 发出警告。

几周后,包括莱希在内的一批人工智能行业高管发表了一份简短声明: “缓解人工智能带来的灭绝风险,应该与大流行病和核战争等其他社会规模的风险一样,成为全球的优先事项。”

诸如此类的警告促使苏纳克召集了将于11月1日至2日举行的峰会。此次峰会旨在为各国首脑和技术高管提供一个论坛,让他们首次亲自讨论这些问题。

英国官员一直在全球巡回鼓励各国首脑参加这次会议,他们希望这将是一系列此类峰会中的第一次。

谷歌前首席执行官埃里克-施密特(Eric Schmidt)和 Inflection 和 DeepMind 的联合创始人穆斯塔法-苏莱曼(Mustafa Suleyman)本周呼吁国际领导人成立一个类似于政府间气候变化专门委员会的全球人工智能专家小组。英国官员表示,他们支持成立这样一个机构,但最好还是由联合国来讨论该机构的具体运作方式。

相反,英国政府消息人士表示,他们希望看到人工智能行业放缓人工通用智能发展的任何迹象,并称此举将是该技术史上前所未有的。

然而,莱希认为,仅仅含糊地承诺负责任地开发先进的人工智能是不够的,他还补充说,这样做等于是科技公司战胜了监管机构。

政府发言人说 “人工智能安全峰会将汇集包括国际政府、学术界、工业界和民间社会在内的众多与会者,作为推动有针对性的、快速的国际行动的一部分,以安全、负责任的方式发展人工智能。”

对于这种性质的峰会,我们通常不会提前这么长时间确认与会者。这是关于人工智能前沿风险的全球对话的开始,我们欢迎不同的观点–这是本次峰会的优势所在。

微海报