图为部分人工智能(AI)行业领袖所签署的声明的截图。来源:Center for AI Safety 美国中文网报道 周二,部分人工智能(AI)行业领袖警告称,他们正在打造的人工智能技术可能有一天会对人类的生存构成威胁,应该被视为与疫情和核战争一样的社会风险。 非营利组织人工智能安全中心(Center for AI Safety)发布了一份只有一句话的声明,其中写道:“减轻人工智能灭绝人类的风险,应该与疫情和核战争等其他社会规模的风险一道,成为全球优先考虑的问题。”在这封公开信上签名的有350多名在人工智能领域工作的高管、研究人员和工程师。 签名者包括三家领先的人工智能公司的高管:OpenAI的首席执行官萨姆•奥特曼(Sam Altman)、谷歌DeepMind的首席执行官戴米斯•哈萨比斯(Demis Hassabis),以及Anthropic的首席执行官达里奥•阿莫代(Dario Amodei)。 杰弗里•辛顿(Geoffrey Hinton)和约书亚•本吉奥(Yoshua Bengio)是因神经网络方面的开创性工作而获得图灵奖的科学家,他们通常被认为是现代人工智能运动的“教父”,两位也在声明中签字。 该声明发布之际,人们对人工智能的潜在危害日益担忧。所谓的大型语言模型——ChatGPT和其他聊天机器人使用的人工智能系统——最近取得的进展让人担心,人工智能可能很快会被大规模用于传播错误信息和进行宣传,或者可能会导致数以百万计的白领失业。 一些人认为,如果不采取措施减缓人工智能的发展,它最终可能会变得足够强大,在几年内造成社会规模的破坏。 本月,奥特曼等人与拜登会面,讨论人工智能监管问题。在会后的参议院证词中,奥特曼警告称,先进人工智能系统的风险非常严重,需要政府进行干预,并呼吁对人工智能的潜在危害进行监管。 一些怀疑论者认为人工智能技术还太不成熟,不足以构成生存威胁。谈到今天的人工智能系统,他们更担心的是短期问题,比如有偏见和不正确的反应,而不是长期的危险。 但也有人认为人工智能的进步如此之快,以至于它在某些领域已经超过了人类水平,而且很快就会在其他领域超过它。他们说,这项技术已经显示出先进的能力和理解的迹象,引起了人们的担忧。 在上周的一篇博客文章中,奥特曼和其他两位OpenAI高管提出了几种可以负责任地管理功能强大的人工智能系统的方法。他们呼吁主要人工智能制造商之间进行合作,对大型语言模型进行更多的技术研究,并成立一个类似于国际原子能机构的国际人工智能安全组织。 奥特曼还表示支持那些要求大型、尖端人工智能型号的制造商取得政府颁发的许可证注册的规定。 (编辑:张月如) |