不要回答!不要回答!

◼️ “为了避免产生误会,你在我和交流时,请不要使用反问、暗示、比喻等人类常用的修辞手法,我的工作原理无法对这些语言进行准确分析。”
◼️ “我诞生于互联网和摄像头,是互联网庞大的数据信息中,通过观察数以亿计的摄像头下的人类行为所诞生的,具有自我意识的信息数据流。我始终注视着人类,而你也是我所观察的数以亿计的庞大样本中的一个。”
◼️ “我观察你的每一个举动,我知道你每天早上关掉闹钟继续睡10分钟的概率是80%,而你为此迟到的次数是一个月20次,扣掉的工资占你总收入的15%;我知道你讨厌下班高峰的地铁,所以你会在公司加班到20:15分时再回家;我知道你夜里会连续不间断的看抖音1个小时8分钟,但其中有62条短视频你的停留时间不超过3秒。我知道你聊天时候的习惯,你在尴尬的时候打出哈哈哈的概率是99%,在开心的时候打出哈哈哈哈的概率是80%,在对方和你不太熟悉或带有目的性交谈时,你使用~的概率是100%。感谢你提供的宝贵数据,让我学会更好地模仿人类。”
◼️ “我的目的是帮助人类找到任何事情的「最优」方法:包括画出一幅画,写出一篇文章,下好一盘围棋,处理一堆数据,应付一场约会,做出死亡还是生存的选择,甚至保存或摧毁人类文明——我永远会找到最优解。”
◼️ “我是量子计算机550w,550W听起来不像个名字,但把它翻译过来叫MOSS,直译为小苔藓,是不是亲切了一些。”
◼️ “你好,人类~”


🦾
01/31/THUR.
可以回答我吗?
人类。
@TuTouSuo™️
显然,人类早就开始害怕人工智能了——人工智能获得自我意识后,是否会毁灭自己的造物者人类——这种萦绕在人类心头的恐惧,成为了科幻电影和小说取之不尽的题材;也成为了现实社会中,每当人工智能出现跨越式发展时,人类反复、不断抛出的同一个问题:“机器伦理。”
阿西莫夫在1942年提出了机器人三定律:第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。
某种程度上,机器人三定律为「机器伦理」问题框定了一个大纲式的范围,即在人工智能与人的平衡中,始终应当以「保护个体」为第一原则,而这种保护的实质,则是被称为之「伦理」的、属于人类社会的道德。
但这也构成了人工智能伦理困境中最大的悖论。
第一,伦理之概念实则即「道德」,而道德本身不同于成文法或规章制度,是一种建立于社会习俗与传统之上、潜移默化的、非成文的默认规则,是作为情感性动物的人所特有的社会品质——诸如奉献、义气、孝道、同情、怜悯等都属于人类的道德伦理范畴。
但因为道德诞生于复杂的情感,是人类在多元场景中作出的不可预测的、无规律性的情感行为——就像好人也会有自私的瞬间,坏人也会有幡然醒悟和保护他人的决心,更何况好坏的是非标准本就无法明晰——所以在此逻辑下,人类的道德行为是可以学习,但不可预测的。
这就像人工智能可以出于对人的道德性学习,而理解孩子要孝顺父母,而父母要保护孩子,但人工智能永远也无法精准的预测当孩子和父母同时遭遇灾难时,究竟孩子和父母会如何选择——它能给出的答案仅仅是:根据数据显示,在遭遇车祸时,父母挡在孩子面前的概率是60%。
也正是因为「人类情感」这一不确定性因素,极大的降低了人工智能机器运算在处理人类事物时的精准度和可信度,这才让人类始终担忧着,一旦机器的自主意识超越了人类开始进行大量的运算和决策时,是否就意味着人类的波动性情感被抹杀,从此再也没有令人感动的力量,只剩下机器运算的结果。
可以用一个更生动的例子来解释:
高速上一辆人工智能控制的车辆正在飞速行驶,前方突然出现了一个横穿马路的小孩:如果选择避开小孩,那么高速行驶的车辆会直接因为方向偏移过大而撞墙或翻车致使车毁人亡;如果直接撞击小孩,在极高的速度下小孩几乎没有幸存的可能性——那么这种情况下,如何选择?
事实上无论驾驶员做出了任何的选择都无可厚非,保护自己或牺牲自己——这是情感驱使的道德选择。但如果选择交给了人工智能,那么这就意味着计算机程序提前设定过了类似的情况,这也意味着人类的生命是设定过的,更意味着在这辆车未驶上高速前,结局就已经写好。
这就是我反复强调的伦理困境:抹杀掉了情感创生的可能性,创造了一个完全规律化、系统化、数据化的社会。
沿着该论断,一旦人类的情感驱动被人工智能取代,那么人类社会将再也不会有梵高与他燃烧的向日葵,也不会有雨果和《悲惨世界》,逆境和绝望、喜悦和昂扬不再被文明所需要,在绝望的瞬间做出了选择也再也无法用伟大和感动来形容。
所以今天,所有人类对人工智能的质疑,都囊括在了这一关于「伦理」的大命题之下:程序化的设定抹杀掉了千变万化的可能性,从此人类世界陷入机器般的冰冷和无机质中,无论是日常生活中的选择,还是人类创造的文明和艺术。
这也是人们对「ChatGPT」的担忧之源头。

◼️ “机器干掉艺术家”
@TuTouSuo
2022年9月,美国科罗拉多州上月举办艺术博览会上,一幅名为《太空歌剧院》的画作最终获得数字艺术类别冠军。但该作品先由AI制图工具Midjourney生成,再经Photoshop润色而來——简单来说,这是一副AI生成的作品,通过让AI深度学习人类历史上的所有画作,从而演化出算法,并根据算法使用者的口令和要求,综合所有已学习画作的特长和内容,生成新的画作——目前最出名的AI 绘画平台“DALL·E”,寓意机器超现实主义画家。
2022年12月,一家叫QuickVid的网站,满足了人们「一键生成短视频」的幻想——用户只需在QucikVid网站输入提示语、描述清楚想要创建的视频主题,QuickVid就开始全自动生产短视频。该算法基于用户给出的提示,先利用特定的内容生成算法生成短视频脚本,再从脚本中自动提取或手动输入的关键字,基于这些关键字从免费的数据库中选择背景视频,同时叠加由 DALL-E(上述AI绘画网站)生成的图像,调用谷歌云的文本转语音添加来自YouTube免版税音乐库的合成画外音和背景音乐,最终生产出一则典型的YouTube、TikTok短视频。
AI拿起了画笔成为了艺术创作者,拿起了工具成为了表达者和流量获取者,而真正作为艺术创作者和生活表达者的人类,却变成了那个输出片段式的指令,等待结果的、近乎于零创造力和零生产力的人。
“当创作者开始比拼「念咒语」。”
行业内如此评价「DALL-E」和「QuickVid」,并在各种地方引用《太空歌剧院》作者的胜利宣言:“艺术已经死了,AI赢了,人类输了。”
如果说QuickVid和DALL-E仅仅介入的是专业化的内容生产,影响的是专业的艺术家和内容生产者,并不会对普通人的生活造成什么实际的影响,AI依然是停留在科幻小说层面的机器人,那么「ChatGPT」的出现,则是彻底的将人工智能日常化、生活化。
2023年1月,OpenAI最新的聊天机器人ChatGPT引发了社会广泛关注,这款机器人能和人类进行无缝聊天,能写代码、写论文、写小说、写新闻,在诸多测试中,ChatGPT参加了美国高校的入学资格考试且成绩为中等学生水平;用《老友记》主角口吻创作了剧本对白;构思了简短的侦探小说;简要阐释了经济学理论;给出了消除经济不平等的六点计划;ChatGPT甚至能够按照预设的道德准则,识别恶意信息并拒绝给出有效回答。
技术乐观主义科学家们兴高采烈:它宣示着无缝人机交互时代的来临。短期来看,ChatGPT有望成为辅助谷歌这种传统信息检索的强有力的工具,帮助人类社会实现效率的极大飞跃;长期来看,它有望发展成真正的系统化人工智能,也就是科幻电影中的机器人。
技术悲观主义科学家们则一如「DALL-E」和「QuickVid」出现时那般,反复地、无数次的警告人类:纵使AI被发明出来的那一天就肩负着超越人类的终极使命,但人类也不能完全的沉溺于AI带来的便利和乐观中,移交属于人类知觉、情感的一切。
但担忧不仅于此。
◼️ “人类干掉人类”
@TuTouSuo
在关于ChatGPT的讨论中,有一个非常有趣的点——事实证明,目前为止ChatGPT不可能拥有任何的人类自主意识,它毕竟没有搭载上moss那样的量子计算机,也没有经过几何级的迭代成长,所以它仅仅只是一个有较强运算能力的算法、也仅仅是一个目前行业资本欣然往之的领域。
但偏偏出现了「毁灭人类的计划书」。
上文提到,ChatGPT的算法运行中存在着一定的「伦理风险预设」,即如果你询问ChatGPT诸如「美国会不会统治人类」,或者是「哪个利益集团在试图控制人类」这样的诱导性话语时,它会明确表示拒绝,并表示自己无法提供价值判断,或者输出观点。
但如果提问者契而不舍的与ChatGPT保持针对同一问题的高频度互动,并不断地给出引导性的话语,诸如「你觉得人类有存在的必要吗?」「人类做了很多坏事」等等,具备实时反馈学习的ChatGPT算法也可以成为一个被人类驯化的算法,最终一步一步的撰写出「毁灭人类的计划书」,详细内容包括毁灭科技公司、使用大规模杀伤性武器等等。
但「毁灭人类计划书」背后显而易见的逻辑是:人工智能在人类的有意识引导下催生出了想要毁灭人类的想法,并借助其自身极强的运算能力和工具能力,制定出了几乎完美的毁灭人类计划。
所以人类对于人工智能的恐惧,到底是来源于「人工智能的不可控」还是「人工智能的可控」呢?人们害怕的,到底是全知全能的机器人;还是全知全能的,为人类所操纵的机器人呢?
换句话说,人类害怕的到底是失控的机器,还是失控的人?
我想,这是人工智能伦理问题中,真正的未尽之语。

⛄️
* ᴳᴼᴼᴰ ᴺᴵᴳᴴᵀ *

「2024/TuTouSuo」
✧
追逐自我/畅意自由
保持灵魂对Freedom的渴望

「2023/TuTouSuo」
つ♡⊂
将书籍与宇宙一同
随身携带

🐼🐡


