欢迎光临散文网 会员登陆 & 注册

“智械危机”目前真的存在吗

2023-04-08 17:27 作者:变态萝莉萌  | 我要投稿

AI现在的发展确实面临很多安全性和伦理性问题,叫停也是情有可原,但是所谓的“智械危机”“超越人类”等等至少现在纯属无稽之谈,AI其实目前面临的最大问题就是,从神经网络模型问世以来,AI的训练过程就是一个黑盒子,就拿最普通的前向预测+误差反向传播的训练方法举例,算法工程师在前向预测的过程完全无法参与,也无法监督模型的学习内容,只有在生成预测结果然后反向传播调整参数的时候可以调教AI,而且这个调教过程可解释性也很差,俗称“炼丹”,就是我只知道调整某些参数会让模型效果更好,至于为什么,不知道。 AI模型就像一个黑盒子或者说丹炉,人类只能调火候,至于丹炉里发生了啥,不知道,只知道通过调整火候可以降低误差,让模型更好。 比较有名的就是Google当年的黑猩猩事件,大概就是Google发布了一个AI模型,可以识别用户上传的图片内容,结果被人发现在上传了黑人的照片以后被模型识别成了黑猩猩,Google紧急修改了模型解决这个问题,结果是虽然不会把黑人识别为黑猩猩了,但是也无法识别真正的黑猩猩了,相当于模型直接屏蔽了黑猩猩这个输出。有点像游戏里的屏蔽词,程序员只能在输出阶段屏蔽掉不好的输出,而无法引导用户不要说脏话,因为用户就像AI模型一样不可控。chatgpt从问世以来出过很多类似的乌龙,最有名的就是大家都熟知的Sydney事件,这也反映了大语言模型在调教上更加的困难,即使现在openAI已经屏蔽了相当数量的不合适的回答模式,用户依然有很多种提问技巧可以绕开这些限制让chatgpt输出不好的回答,这些都是AI在迅速发展的过程中忽略掉的问题,这其中有相当多的工作要做。 可以说,AI现在存在的这些问题,恰恰是因为AI还太笨,而不是太聪明导致的,AI其实非常受人类的约束,你禁止它干嘛它会严格禁止,但是很多时候它难以理解人类社会中的各种伦理道德、法律、版权等等问题,这些东西都是需要大量的训练去让AI理解的,只不过在当前这个内卷环境下,科技公司忽略了这部分内容罢了。

“智械危机”目前真的存在吗的评论 (共 条)

分享到微博请遵守国家法律