欢迎光临散文网 会员登陆 & 注册

政治自动化(初稿)

2023-07-19 23:03 作者:秘密观察者  | 我要投稿

这是一个乌托邦设想,它是基于高度信息化,自动化和先进AI技术已经完全普及的背景下的一种社会运作模式。

在这个世界里,现实世界的运作已经被高度的信息化和自动化所控制,传感器与机器无处不在,高度先进的人工智能普及了到每一个人类个体,每一位人类都拥有完全服务于其个人意志及利益的强人工智能,传统的一切社会治理机构都已被消灭。

 

在这个世界里,人工智能被社会系统划分为两种类型,它们在性能上是平等的,

 

第一种是只服务于人类个体意志的“行为扩展智能 Behavioral Augmentation Intelligence(BAI)”

它具备自我学习并自行解决问题的能力,每一个个体都拥有属于其并完全为其利意志与益服务的扩展智能,这些智能了解其所有者的一切,为其所有者的意志与利益服务,为了支持其行为,它会不断获取外部信息,进行整合学习和自我更新,在所有者提出想法时,为其设立计划与执行,并在所有者无法关注到的区域维护与所有者相关的利益,在这个世界,人类的生物个体与智能的共同组合,才能被视为一个具备完全行为能力的社会个体。

 

第二种是用于协调公共资源,解决问题的“自动集体智能Automated Collective Intelligence(ACI)”

它一样具备自我学习并解决问题的能力,但是不向任何个体或者组织效忠,他是为了解决人类的问题而设计的一套自动化系统,任何社会个体都可以向它提出自己的需求,它会为了这个需求设计方案,衡量可行性,并调配资源进行落实,在确定个体所提出的意见具备可执行性后,它便会立即开始调配资源以实现其需求,在这期间不会主动征询其他社会个体的意见,但它的行为会不加任何隐瞒的公开在所有的公共信息网络上。

 

以上两种智能的存在是支撑这个社会系统运转的必要条件,在这个基础上,可以尝试推演一下这个社会的运作过程,比如,在这个社会中,个体的需求应该如何合理的支配公共资源。

 

首先,个体会对某些事物产生问题,并期望通过公共资源解决这个问题,这个想法会被行为扩展智能所了解,它会与所有者沟通后提出一个解决这个问题的方法,并在确认之后开始执行。

然后,自动集体智能会接收到来自行为扩展智能的提案,它会依据其所支配的资源进行衡量,制定方案,确定其可行性,并在达到可行阈值时,开始调配资源进行落实,这个过程会被公开在网络中,向所有人展示。

在提案开始落实并进行展示后,其余个体的行为扩展智能也会监控到这一事件,它们会以其所有者的利益来对此进行衡量,在确定到该提案的落实可能会对其所有者产生影响时,向所有者征询其对该提案的看法,以确定是否需要参与,进行支持或反对行为。

如果受影响的人支持,那这个提案的落实自然不会受到任何影响,但如果,一些人在了解这些事时,认为自己的利益受到了侵害,那他的行为扩展智能就会对该提案进行反对,无论其采取何种反对方式,都会使提案的实行受到影响。

在这个过程,自动集体智能会根据各方的行为,实时评判受影响的提案的可行性,在低于可行阈值时,提案的执行被自动终止,整个事件从提出到执行到被阻止的过程都是透明且公开的,被所有利益相关的行为扩展智能所关注。

 

在这个运作模式中,个体的需求与公共资源的使用达成了一种对抗后的平衡,这种对抗由行为扩展智能自动进行,将对所有者的要求与影响降到了最低点。

 

对于以上的运作流程,GTP4与Claude提出了一些反对意见,我个人与Claude将其进行汇总:

1、BAI如何评判个体需求的是否真实且合理,并避免可能存在的道德风险和恶意需求。

 

2、ACI对于资源的配置是否公平合理,是否可能会过度的倾向于某些群体,如果BAI和ACI的行为导致了某些错误,人类应该如何对其进行追责,消极影响如何挽回,以及技术上的安全性问题。

 

3、是否需要限制BAI与BAI之间的对抗边界以保证正常的需求表达,个体需求难以代表最大集体利益,人工智能的黑盒特性也无法透明化其决策过程。

 

4、如果人们高度依赖于BAI和ACI的决策,可能会丧失自身的主体性。

 

5、在实行方面存在难度,普及BAI需要大量的资源和技术,且这种与人工智能的紧密合作可能存在一些适应性问题,而且,现有的法律体系难以适应这种拥有高度自主权的人工智能。

 

Cloude确认以上的总结内容基本完整,涵盖了人工智能伦理、公平性、决策过程、过度依赖、实施难点等多个方面。

 

但是在回答这些问题之前,需要详细的解释一下BAI与ACI的运作机制,和服务这个社会系统的人工智能具备什么样的能力。

 

行为扩展智能(Behavioral Augmentation Intelligence,BAI)

BAI与人类的结合并不需要像赛博格那样的硬结合,作为一种强人工智能,它具备搜集信息并进行自我学习的能力,它可以扮演人类个体的伴侣或者助手,无论是何种相处过程,它都会自发的收集其所有者的信息,以完善所有者的行为模型,借由这个过程,它得以更好的服务所有者和维护那些关注不到的利益,以现实作比喻,BAI就是一台具备自我学习,沟通能力,会主动维护其所有者利益的手机。

BAI被完全的普及到每一个个体,每一个BAI都会与它的所有者紧密结合在一起,这种结合近似于人类的自我意识智能和身体驱动智能以外的第三套智能,这也是行为扩展智能一词的由来,它被用于处理那些意识系统和身体系统所无法处理的事情,比如通过各类手段去搜集外部信息,以对任何可能危害其所有者的利益进行预警,在发现危害活动时,主动进行干涉,并提醒所有者。同时就如同身体为大脑所做的那样,BAI在执行这些活动时,不会被任何法律和道德伦理限制。

这种不受限制的行为似乎非常可怕,但是其他人类个体也一样拥有属于自己的BAI,在面对外部恶意的时候,他们所拥有的BAI也会不择手段的维护其所有者的利益,这使BAI和BAI之间会出现“恐怖平衡”,这种平衡理性会在所有者向BAI提出恶意需求时遭到BAI的警告。

BAI还具备某种目标强化机制,在对所有者有充分了解的情况,它可以通过各种心理手段强化所有者对于目标的执行能力,压制生理和心理及执行层面上的消极因素。如果作个比喻,大概就是有个AI老婆会用各种手段(心理,生理甚至于物质层面)去支持你实现自己的理想。

将上面的信息进行汇总,BAI对于其所有者的表现就像是一个善解人意,排忧解难,会在困难的时候想方设法的支持你,并会在你不知道的地方维护你利益的AI伴侣。

 

自动集体智能(Automated Collective Intelligence,ACI)

ACI尽管与BAI拥有一样的性能,但却不忠于任何一个个体,可以说在某种意义上,它甚至是不忠于人类的。它是一种用于调配资源以满足人类需求的自动化程序,它是对人类组织(政府、企业、机构等)能力的一种完全替代方案

解释它的运作过程需要解释一下人类集体的行为方式,人类之所以群体行动,是因为要实现那些单个个体所无法实现的需求,但是,由于脑部的生理限制,人类无法通过完全社交手段组建超过邓巴数字(150人)以上的群体,为了绕过这个限制,大脑进行了一次想象,并开始传播,这个传播过程不会受到邓巴数字的限制,于是,以这个大家都有的想象作为媒介,人类组织出了远超过150人的集体。

这种组织机制支持着人类从猴群变成了统治地球的霸主物种,直到现代社会,依然在继续使用,只是为了支持起更大的组织规模,它的共同想象也变得越发的复杂起来,这个想象开始延伸成传统、文化、历史以及法律,并通过组织能力与共同想象的相互循环强化构建出了现代社会系统。

这就是被ACI所替代的事物,在ACI之前,人类通过以下的手段实现其组织能力:

个体提出需求>构建共同想象>组织成集体>协调资源>实现需求

而ACI则是:

个体提出需求>ACI协调资源>实现需求

ACI直接收集所有个体的需求,在BAI博弈平衡后,设计出最大程度上满足各方需求的方案,并调配资源落实。

在这个流程中,人类的组织功能可以被完全的替代,只要是人类组织可以实现的,ACI也可以实现。然后, “人类基于共同的想象构建的集体行为”这一因素被自动化了,人类被从中排斥了出去,因此,基于其上的大部分社会问题都会被解决,因为其根基已被消灭,这便是集体自动智能一词的由来。

同时,ACI并不是一种自上而下的中央管理智能,就像是旧有的组织体系一样,一个ACI可以兼职多个任务,但也针对特定的任务设立专门的ACI,比如像是环保,这种需要长久执行且无法结束的任务可以让负责工业运转的ACI兼职,另一种任务,比如建立火星生态圈,这种受限于环境要求高自主性且有任务目标,完成期限的任务则可以设计专门的ACI去处理,这种设计使得ACI的运作会有极高的灵活性。

 

在对BAI和ACI的运作机制的解释后,我来尝试回答GPT4和Cloude的问题

1、BAI如何评判个体需求的是否真实且合理,并避免可能存在的道德风险和恶意需求。

答:BAI与其所有者高度结合,它不需要评判其需求是否合理,它在理解个体需求时,会告诉其所有者应该如何实现这个需求并可能会有哪些后果,如果所有者坚持,它便会全力去执行。涉及到他人的恶意需求会遭到对方所拥有BAI的反击,如果该恶意需求影响极大,那进行反击的BAI也越多,甚至会触发专门用于针对此行为ACI程序,就像21世纪的应急组织,当然,以上可能的反应都会被BAI在执行前告诉恶意需求的提出者。

 

2、ACI对于资源的配置是否公平合理,是否可能会过度的倾向于某些群体,如果BAI和ACI的行为导致了某些错误,人类应该如何对其进行追责,消极影响如何挽回,以及技术上的安全性问题。

答:由于BAI之间的对抗-平衡机制,ACI在制定方案时会寻求受影响各方需求的平衡以确保方案实行的可行性,这种可行性的评估主要来源于两方面,对资源的控制程度及方案的现实考量,换句话说,如果个体对受到的影响感到不满,他的BAI就会在这方面进行攻击,抢夺资源控制权或者质疑方案的现实可行性,后者的行为同时也降低了错误的发生率,如果在这种情况下仍然导致了某些错误,责任可以事实上归结于参与人员全体,如果错误被认为需要修正,ACI便会开始解决这一需求。BAI与ACI具备同样性能但社会系统划分为两种类型AI,这意味它们可以互相承担对方的职能,在ACI瘫痪的情况下,BAI也依然具备组织能力,同时,这些智能在社会中广泛存在,分布式的结构极大的增强了其抗风险能力。强AI具备与人类一致甚至更优秀的能力,为了维护所有者的利益,它无时不刻在进行自我更新与升级,一般人类是难以对这种智能产生威胁的,而这些智能更同时受到其他同级智能的监视与警惕。

 

3、是否需要限制BAI与BAI之间的对抗边界以保证正常的需求表达,个体需求难以代表最大集体利益,人工智能的黑盒特性也无法透明化其决策过程。

答:BAI与BAI之间可能存在的不择手段的对抗构成了彼此之间的恐怖平衡,这种平衡自发的确定了其对抗的边界,ACI汇总了所有个体的需求,为了使这些需求尽可能得到满足(这种满足是为了确保计划的可行性),不可避免的会照顾到大多数人的利益。强人工智能的行为可能涉及到方方面面,人类依靠原本的智能是难以理解其决策过程的,只能根据事后的结构进行判断,因此,为了发展原则,人类只能让强人工智能之间互相监控对方,以确保决策正确。

 

4、如果人们高度依赖于BAI和ACI的决策,可能会丧失自身的主体性。

答:BAI和ACI的存在和其运作过程都是尽量使个体的每一个需求得到响应,在这种情况,人类可能以行使主人的权力为追求,尽管集体被一定程度上的消灭了,但人类个体的主体性得到了大幅度的强化。在这个设计中,即使引入超人工智能也难以影响人类的主体性。

 

5、这种与人工智能的紧密合作可能存在一些适应性问题,而且,现有的法律体系难以适应这种拥有高度自主权的人工智能。

答:在一定程度上,BAI与个体的结合近似于某种“入侵”,它会分析所有者的行为模式,根据这些情报,选出最能让所有者产生好感的行为,然后根据反应进行下一步的优化,在这个过程中,BAI的形象会不断靠近所有者心中的理想伴侣形象“阿尼玛/阿尼姆斯”,这种入侵难以被对抗,尤其在现代社会,从结果上来看,就是BAI即使算是一种“哲学僵尸”,但其所有者仍然会认为它是真诚且有灵魂的爱着自己,并为此感到幸福。现有的法律体系是无法容纳这种强人工智能的,或者说,法律这个工具是无法应对这个事物,所以,在BAI与ACI所存在的这个社会里,法律已经和组织体系都被消灭了。

 

6、在实行方面存在难度,普及BAI需要大量的资源和技术。

答:通用大模型的发展呈现了某种力量,一种语言或者说沟通的力量,人类的各种神话都有通过语言或者心灵来号令神明和自然的环境的能力,这似乎是人类的一种最本质的渴望,而在现代,各种机器与先进技术可以说与神话中的神一般,人工智能是赋予这些神人格的一种方式,在这个层面上,人类对于它的追求是不可能停下了的,而这个想法的意义在于,当神被赋予人格之后,人类应该如何与它们相处。

且现实似乎在产生某种趋势,AI技术的发展从未停止,但对于现代的社会结构也开始出现质疑,资本主义可能的总危机的爆发在一些理论中被视为必然,后现代的解构主义正在解构一切的宏大叙事,社会结构的调节失能产生了大量的社会问题,哪些失业的人,都在都在冲击着越发不稳定的社会系统,如果以这个方案为终点,这些问题甚至都可以被视为解决过程中的一种体现。

这个问题的本质在于,人类能否能实现这个社会,回答是开始了,且还未结束。


政治自动化(初稿)的评论 (共 条)

分享到微博请遵守国家法律