欢迎光临散文网 会员登陆 & 注册

担忧人工智能(AI)未来毁灭人类?解决现今AI的风险才迫在眉睫

2023-07-04 09:53 作者:少游小札  | 我要投稿

科技公司一致认为人工智能(AI)未来会摧毁人类,这阻碍了对AI目前造成的社会危害的有效监管。很少有行业领导者谈论自己产品的潜在致命性,像烟草或石油公司高管就不会承认这些事情,然而,似乎不到一周的时间,科技行业内部人士就开始大肆宣扬AI毁灭人类的风险。

AI末日论

今年3月,埃隆·马斯克和其他技术专家签署的一封公开信警告称,强大的AI系统对人类构成了巨大的威胁。几周后,开发AI工具的先驱Geoffrey Hinton辞去了谷歌的研究职务并警告AI技术带来的严重风险。包括OpenAI和谷歌DeepMind代表在内的500多位商业人士和专家签署了一份仅有23字的声明——

“减轻AI带来的灭绝风险,应该与流行病和核战争等其他社会规模的风险一起成为全球优先事项。”

6月7日,英国政府在宣布将于今年秋天主办首届全球人工智能安全峰会时,提到了AI对人类生存的潜在风险。

现在AI带来的风险

AI可能导致人类灭绝的观点已经在科技界讨论了多年,但对ChatGPT工具和生成式AI的兴奋现在使这种观点成为了大家的主流观点,而让人们忽略了现在真正应该关注的问题:AI系统和工具现在造成的社会危害或者未来可能造成的危害。政府和监管机构尤其不应被这种说法分散注意力,必须果断采取行动,遏制潜在的AI危害,尽管工作受到科技行业的影响,但不应该受制于科技发展。《自然》杂志采访过许多AI的研究人员和伦理学专家,他们对围绕AI的“末日论”感到沮丧。至少有两方面的问题:

首先,AI作为全能机器引发了各国之间开发AI的竞争

,以便从中受益并控制它,这对科技公司有利:鼓励投资,削弱了行业监管。生产下一代AI军事技术的军备竞赛已经开始了,这增加了灾难性冲突的风险——也许是世界末日,但不是主流“AI毁灭人类”中经常讨论的那种风险。其次,一些同行业公司的高管和技术人员主导关于AI风险和监管的讨论,而其他团体被排除在外,纽约专注于AI社会后果的研究所所长Amba Kak表示,

签署的公开信,本质上是在划定谁是这场对话中的专家

。 AI系统和工具有许多潜在的好处,从整合数据到辅助医疗诊断,但也

可能导致有倾向性的决策和人员失业,AI面部识别导致信息泄露

,有倾向性的AI系统可以使用不透明的算法来拒绝人们的福利、医疗等等,现在还缺乏关于这些问题的讨论。

围绕最新一代生成AI的最大担忧之一是它可能会带来错误信息

,这项技术使制作令人信服的虚假文本、照片和视频变得更容易,破坏人们识别信息的能力,从而破坏社会稳定。

AI监管建议

如果科技公司真的想要避免或减少这些风险,就必须把道德、安全和问责制放在工作的核心位置。目前,他们似乎不愿意这样做。OpenAI对其最新的生成式AI模型GPT4进行了“压力测试”,促使其产生有害内容,然后实施保护措施。但是,尽管该公司描述了它所做的事情,但测试的全部细节和模型训练的数据并没有公开。科技公司必须制定负责任的AI系统和工具开发的行业标准,并在产品发布前进行严格的安全测试,应该将数据完整地提交给能够核实数据的独立监管机构,就像制药公司在药品上市前必须向医疗机构提交临床试验数据一样。 要做到这一点,政府必须建立适当的法律和监管框架,并适用现有的法律。本月早些时候,欧洲议会批准了《人工智能法案》,该法案将根据AI应用的潜在风险对AI应用进行监管,例如禁止警方在公共场所使用实时面部识别技术,该法案成为欧盟成员国法律之前还有更多的障碍需要解决,也有人质疑该法案缺乏如何执行的细节,但它可能有助于制定AI系统的全球标准。关于AI风险和法规的进一步磋商,如即将举行的英国峰会,必须邀请不同的人员,其中包括研究AI危害的研究人员以及曾经或正受到该技术危害的团体代表。

结语

讨论AI毁灭人类的观点没什么意义,对现在AI引起的实际风险的严肃讨论以及控制风险的行动才是最重要的。人类越早建立起与AI接触的规则,就能越早学会与技术和谐相处。

消息来源:Nature 图片来源:Unsplash

担忧人工智能(AI)未来毁灭人类?解决现今AI的风险才迫在眉睫的评论 (共 条)

分享到微博请遵守国家法律