参考消息网5月31日报道美国《财富》杂志网站5月30日发表题为《萨姆·奥尔特曼和其他技术专家警告,人工智能构成“灭绝风险”,危险程度与疫情、核战不相上下》的报道,全文摘编如下:
(资料图片仅供参考)
技术专家和计算机科学专家警告说,人工智能对人类生存构成的威胁与核战争和全球大流行病相比不相上下,就连替人工智能打头阵的商界领袖也对这项技术威胁人类的生存发出了警告。
非营利研究机构人工智能安全中心30日发表了一份“关于人工智能风险的声明”,在声明上签字的有300多人,开放人工智能研究中心的首席执行官萨姆·奥尔特曼也是其中一个。这封信虽然简短,但它概括了人工智能的风险。信中说:“降低人工智能灭绝人类的风险以及降低流行病和核战争等其他影响全社会的风险,应该成为全球优先考虑的事项。”
这封信的开头称,这份声明旨在就如何针对人工智能技术可能导致世界灭亡的能力做好准备“开启讨论”。其他签名者包括前谷歌工程师杰弗里·欣顿和蒙特利尔大学计算机科学家约舒亚·本乔。由于这两人对现代计算机科学的贡献,他们被誉为人工智能教父。近几周来,本乔和欣顿已多次就人工智能技术在不久的将来可能发展出何种危险能力发出警告。欣顿最近离开了谷歌,以便能够更公开地讨论人工智能的风险。
这不是第一封呼吁进一步关注先进人工智能研究在没有政府更严格监管的情况下可能带来何种灾难性结果的信。今年3月,超过1000名技术专家以该技术具有破坏性的潜力为由,呼吁暂停研究先进人工智能6个月,埃隆·马斯克也是其中之一。
奥尔特曼本月警告国会,随着技术飞速发展,监管已经跟不上了。
与之前的那封信不一样,奥尔特曼签署的这份最新声明没有提出任何具体目标,只是呼吁展开讨论。而欣顿本月早些时候在接受美国有线电视新闻网采访时说,他没有在3月份的那封信上签字。
尽管包括开放人工智能研究中心甚至谷歌在内的顶尖人工智能研究机构的高管呼吁各国政府在监管人工智能方面尽快采取行动,但一些专家警告说,在当前的一些问题——包括虚假信息和可能存在的偏见——已经造成严重破坏的情况下,讨论这项技术未来威胁人类生存的风险是适得其反的。还有人甚至认为,奥尔特曼等首席执行官借着公开讨论人工智能的风险,实际上一直试图转移人们对该技术目前已存在问题的注意力。
但预言人工智能将带来世界末日的人也警告说,这项技术发展得过快,以至于风险可能很快变成一个问题,是人力所不能及的。人们越来越担心,能够自我思考和思辨的超级人工智能成为现实的速度超乎许多人的预料。一些专家警告说,这项技术目前并不符合人类的利益和福祉。
欣顿本月在接受《华盛顿邮报》采访时说,超级人工智能正在快速发展,现在可能只剩下20年的时间了,现在是时候就先进人工智能的风险进行对话了。
他说:“这并不是科幻小说。”(编译/涂颀)
来源:参考消息 编辑:牛中振