AI 危险性让 OpenAI 首席执行官担心到失眠! 是什么引起科技领袖恐惧?

2022年底ChatGPT全球爆红,各行各业都在关心如何业务导入人工智能,全球最大管理咨询公司埃森哲(Accenture)近日更宣布,投资AI 30亿美元,帮助建构新产业解决方案,让所有产业客户都有足够能力运用人工智能达成更高成长、效率与弹性。
埃森哲认为,云端、数据、人工智能生态系统,将彻底改变他们的服务性质,《财富》(Fortune)世界500强公司超过75%是埃森哲的客户。 埃森哲董事长兼执行长朱莉·斯威特(Julie Sweet)观察:「人们对人工智能所有领域都产生前所未有的兴趣,我们对数据和人工智能实践大量投资,帮助客户从兴趣转向行动再到价资,并提供明确的业务运用案例。」
「我不在乎企业规模多大多小,都必须了解人工智能」,科技公司创业家马克‧库班(Mark Cuban)日前于美国地区商会会议指出,所有企业都必须了解并思考人工智能会怎样影响公司经营,发展更牢固的客户关系并挖掘新客户。 「尽管看起来很复杂,但必须要有足够好奇心把人工智能搞清楚,要是忽略趋势,恐怕会咽到苦果。」 库班认为,有效运用人工智能的公司,可确保长期发展的稳定性。
「开发 ChatGPT 可能是非常糟糕的事!」 OpenAI 首席执行官因 AI 危险性睡不着
然而,带起 AI 风潮的 ChatGPT 母公司却没那么乐观,OpenAI 执行长山姆‧奥特曼(Sam Altman)近日坦言,考虑到 AI 的潜在风险,他担心开发 ChatGPT 是件「非常糟糕的事」,还因此失眠。 被问到 AI 是否该像核能受监管时,奥特曼回应,要有更好系统检核 AI 使用方法,「这样我们就可对审核正在做这件事的人,并部署前仔细测试安全性」。
不只奥特曼,许多科技领袖和政府官员都对人工智能发展速度表示担忧。 3月特斯拉创办人马斯克(Elon Musk)、苹果共同创办人史蒂夫‧沃兹尼克(Steve Wozniak)等科技领袖与生命未来研究所(Future of Life Institute)共同发表公开信警告:应该确保人工智能有正面影响后,才继续开发强大的人工智能系统,让风险可控。
人工智能到底危险在哪?
这些顾虑都其来有自,之一是人工智能会产生错误讯息,这是事实也是巨大的风险,OpenAI 研究人员报告挑明:「即使是最先进模型也容易产生假讯息,AI 面对信息不确定时,有捏造事实的倾向。」 如果使用不当,可能会给大众负面影响。
日前奥特曼也与350多名科学家和技术领袖签署声明,表达对人工智能背后风险的深切关注:「降低人工智能可能造成的风险,应与流行疾病、核战争等其他可能危及社会的风险,一起列为全球优先事项。」
此外,当企业或政府单位赋予人工智能系统愈来愈多自主权,并连接重要基础设施,如电网、股票市场和军事武器,可能引发问题。 「人工智能将有更多授权,它更自主后,可能会篡夺人类和人类管理机构的决策和思维。」 生命未来研究所共同创办人安东尼‧阿吉雷(Anthony Aguirre)警告,某些时候,运作社会和经济的大型机器并不真的在人类控制之下,也无法关闭。
《纽约时报》(The New York Times)报导,对人工智能悲观的人常用简单比喻:如果要求机器尽可能多制作回纹针,它可能将用得到的材料(包括人类)都带回工厂,好生产更多回纹针。
蒙特娄大学(University of Montreal)教授兼人工智能研究员约书亚·班吉欧(Yoshua Bengio)表示,今日人工智能系统要威胁到人类生存,还差得远。 「但一年、两年、五年后,有太多不确定性,这就是问题所在。 我们不确定 AI 是否会在某时刻变成灾难。」
当人工智能技术发展比人们预想还快,会造成两种可能:跟不上趋势的企业被商场淘汰; 另一方面,倘若技术未适当控管而失控,可能如科幻电影剧情,导致人类生存危机。 要如何因应人工智能发展趋势,只得仰赖更多科技领袖、政府做出更好决策。