欢迎光临散文网 会员登陆 & 注册

AI

2023-03-21 23:26 作者:大汉金一哥  | 我要投稿

人工智能项目的开发流程

让机器具有知识 知识表示技术

让机器使用知识 搜索与推理

让机器系的知识 机器学习

让机器成为社会人 德才兼备

人工智能的自然辩证法

人工智能与人类的社会关系

搭建基于人工技能技术的陪伴机器人

陪伴机器人的伦理案例分析

思考

2002年上映的电影《生化危机》,主要讲述了一个为军方研究生化武器的安布雷拉公司在浣熊市地下设有巨大的研究中心——蜂巢,由于一次意外事故导致可通过空气传播的生化武器泄漏,负责蜂巢安保的人工智能系统“红色女王”——一台控制和监视着整个蜂巢的超级巨型计算机把整个中心都封闭了起来,启动应急措施,杀死了所有被困在里边的工作人员。


对于这个情节,有些影迷认为“‘红色女王’没错,它按照原定的要求做到了防护的功能”,而有些影迷则认为“‘红色女王’可能自主对人类预设定的程序进行了修改,从而导致了这场灾难”。请同学们思考一下,可以从中引出什么哲学问题?

(一)人工智能的自然辩证法


自然辩证法

自然观    自然观要求不断地概括和运用自然科学的最新成果,发展和更新人们关于自然界辩证发展的总图景和对自然界的总观点,从而把辩证唯物主义自然观提高到同自然科学的新发展、新思想相适应的现代水平。

 自然科学观 自然科学观要求不但把科学看作是一种独立的社会现象,探讨其在一定社会中发展和发挥作用的规律,而且也把与科学紧密相关的技术作为一种独立的社会现象来研究。


史上第一个获得人类公民身份的机器人


2017年,在沙特首都利雅得举办的“未来投资大会”上,沙特政府授予了机器人“索菲亚”(Sophia)国籍。机器人界的“话题女王”——索菲亚,成为史上第一个拥有合法公民身份的机器人。她可以跟随交流对象的面孔,保持目光接触,并识别个人,还可以处理语音并使用自然语言子系统进行对话。


“索菲亚”的人类身份被承认,这表明在人工智能社会里,人工智能已经开始以“虚拟人”的身份参与社会事务,人类赋予了智能机器人管理其他一般机器的权利。人类与人工智能这一“虚拟人”间的关系也是正在热议的话题,目前学术界对此主要有以下三种看法。


2022年的人工智能



(二)人工智能与人类的社会关系


传统模式。

智能机器仅为属于人的工具。首先,人类为智能机器预设相应的程序,接着,智能机器按照人类预设的程序进行生产服务活动,为人类服务。

融合模式。

也叫协作模式,即智能机器和人将会协同进化,这是人们力求出现的前景,如图机器猫和它的主人友好和谐地共同生活。

颠覆模式。

即认定机器人会进化到一个超人新阶段,世界将由机器掌控,人类作为机器的从属,听从机器的指挥,作为人类的我们理当防止这种模式发生。

三张图片

(二)人工智能与人类的社会关系

人工智能引发的社会问题

劳动就业问题

 广泛采用人工智能技术和智能机器替代员工从事各种劳动。优点包括:提高生产效率,降低运营成本;提高产品质量的稳定性与一致性节约人工工资和相关费用,提高生产安全;更加灵活,更加信息化,使得生产制造过程中的材料、半成品、成品、各种工艺参数等信息更加容易采集。


心里害怕问题

人工智能使一部分社会成员感到心理上的威胁,人们一般认为,只有人类才具有感知能力,而且以此与机器相区别。如果有一天,机器也能够思维和创作,使智能机器的人工智能会超过人类的智能,使人类沦为智能机器和智能系统的奴隶。


技术失控问题 

人工智能技术可能会落入危险分子的手中,被他们用于进行反人类和危害社会的犯罪(有人称为“智能犯罪”),威胁人类的安全。


伦理法律问题

2018年3月,优步(Uber)一辆无人驾驶测试车在美国亚利桑那州凤凰城郊区撞死一位女性这是全球首例完全自主驾驶汽车致人死亡的事故,那么该由谁负责?

(二)人工智能与人类的社会关系


midjourney V5(AI绘画)画的10-20-30-40岁招手的中国女性

四张图片

(二)人工智能与人类的社会关系

职业取代

“机器换人”的趋势不可逆转,这给在校学习的你带来怎样的启发?


人工智能的六大伦理原则

透明

不透明的人工智能思维和逻辑用于一些跟生命安全、人身安全相关的领域将会给人类带来危险。

责任

伦理原则是要采取问责制,当出现了不好的结果时,不能让机器或者人工智能系统当替罪羊,人必须是承担责任的。

公平

公平是指不同区域、不同等级的人在人工智能面前都是平等的,不应该有人被歧视

可靠和安全

指的是人工智能使用起来是安全的、可靠的、不作恶的。

隐私和保障

涉及数据,会引起个人隐私和数据安全方面的问题。

包容

人工智能必须考虑到包容的道德原则,要考虑到世界上各种功能障碍的人群。

(三)搭建基于人工技能技术的陪伴机器人

快速搭建简单的陪伴型机器人

本任务要求通过百度公司和图灵机器人语音方面的人工智能技术,快速为机器人配置与人交流的功能,使得机器人能够理解留守儿童和独居老人的情感,从而了解人工智能的“类人”特性,加深对人工智能和人类的融合模式的理解,引导对人工智能的伦理思考。图

实施过程

1.理解智能语音交互技术。

智能语音交互技术就是让机器听懂你说话,是有利于提高传输效率、有利于双方合作的交互技术。 图

2.了解智能语音交互技术服务商。

智能语音交互技术服务商就是提供有关语音方面的人工智能集成服务平台,通过调用服务商的功能服务接口可以快速实现语音方面的应用。图

3.了解图灵机器人。

图灵机器人是中文语境下智能度最高的“机器人大脑”,是全球较为先进的机器人中文语言认知与计算平台,图灵机器人对中文的语义理解准确率已达90%,可为智能化软硬件产品提供中文语义分析、自然语言对话、深度问答等人工智能技术服务。图

4. 准备百度API。登录百度AI开放平台语音识别“https://ai.baidu.com/tech/speech”,进入到服务界面,创建应用,需要把应用的AppID、API Key、Secret Key记录下来供程序使用。


5. 准备图灵机器人。登录图灵机器人平台“http://www.turingapi.com/”,注册账号,在“机器人设置”的“终端设置”中查看自己的API Key,把API Key记录下来供程序使用,另外一定要把密钥开关关闭,不然后面调用API时会报3001错误,无法调用图灵机器人。


6. 设计伴侣机器人的语音交互搭建思路。

为了实现纯语音对话聊天,不需要输入文字即可交流,当人们实时通话时,机器人也能实时回复,真正实现语音交互对话,可以采用以下的流程实现:首先说一句话,通过录音保存为语音文件,其次调用百度API实现语音转文本(STT),然后调用图灵机器人API将文本输入得到图灵机器人的回复,最后将回复的文本转成语音输出(TTS). 图




7. 用Python编写语音交互的程序

8. 运行程序

(四)陪伴型机器人的伦理案例分析

经过任务,我们快速搭建了一个基于人工智能技术的陪伴机器人。

了解了如何通过技术实现智能的语音聊天,体验了图灵机器人在联网的情况下可做到就像是真人一样和人自如的对话。

在现代人工智能社会中,创造的类人的机器可以部分或者全部替代家人的陪伴功能,正在改变或者已经改变了父母和孩子间的亲情,又或者让老人更孤独的生活下去,从社会伦理学角度来看,带来了不少问题。以此为例,我们来共同学习人工智能可能引起的伦理问题。


(四)陪伴型机器人的伦理案例分析






1)从透明性伦理原则思考。陪伴机器人在技术实现过程中使用了两个AI大脑:我们还不清楚它是如何构成并实现功能的,相对于语音录入和语音输出这两个依靠计算机的技术,具有不透明性,图灵机器人每天以0.8%的速度学习人类,学习的是什么东西?是学习人类好的词汇还是坏的?是学习人类的语速、语调,还是学习人类的声频?

2)从隐私和保障伦理原则思考。陪伴机器人是为留守儿童和独居老人设计的。这类人群在社会中属于弱势群体,容易受到伤害。如果陪伴机器人在儿童和老人陪伴过程中获得了属于隐私和安全方面的信息(儿童或老人的名字、年龄、儿童父母的姓名、什么时候独处等)并泄露出去,被不法分子利用,某些别有用心的人就可能会对儿童做出拐卖、对老人做出诈骗等行为。

3)从责任伦理原则思考。由于百度语音大脑和图灵大脑的不透明性,百度语音大脑和图灵机器人大脑会不会在人类不注意的情况下突然做出“曲解”人类的行为。会不会因为这样的言语交流而导致被陪伴的人做出一些过激行为?如被陪伴的人某一天心情非常不好,产生了轻生的念头,但不至于实施,这时陪伴机器人如果在言语上进行刺激,可能会使被陪伴人将念头转为行动,造成伤害。


4)从包容原则思考。机器人还不能作为孩子的看护者,因为孩子始终需要大人来照顾。过长时间与机器人相处,可能会造成孩子成长过程中不同程度的社会孤立。另一方面,随着人口老龄化和陪伴机器人的应用,加深并促进了其他养老、助残等机器人的发展,如喂食机器人、洗澡机器人、提醒用药的监控机器人等。但老年人长期完全置于机器人的照顾之下也是存在风险的。


AI的评论 (共 条)

分享到微博请遵守国家法律