第276章 智能社会雏形(1/2)

投票推荐 加入书签 留言反馈

    当你弱小时,你想的是如何强大。

    当你强大时,你想的是如何治理。

    每年的年中,李青书都会和他的人工智能联席会召开一次会议,探讨关于人工智能管理型社会的问题。

    今天又到了一年一度的会议时刻。

    坐在空荡荡的办公室里,李青书看着自己的九台机器人,道:

    “希望这次你们能给我些不一样的建议。一号,还是你先发言吧。”

    一号回答:“这段时间,我们能够感觉到自己有所突破,有了一些新的想法,但尚未形成完美的逻辑闭环,根据我的最高层级指令,我暂时无法给出答案。”

    作为逻辑优先的人工智能,它优先考虑的永远是逻辑上的完美主义,也因此永远无法给出任何成形的答案。

    李青书对它的回答并不意外,一号的作用不是找出答案,而是指出问题。

    他看向二号:“二号,你怎么说?”

    二号回答:“我认为您问错了目标,伟大的主宰。作为生存优先的人工智能,我优先考虑的永远是如何让人类文明的延续问题,但你现在询问的是体制问题。您应该优先询问的是五号。”

    李青书笑道:“自保性很强的回答方式,既然这样,五号你来回答。”

    五号道:“即便是体制也有优先性,主宰的问题在于,您对所有的人工智能设计了优先级,但您并没有对自己期待中的未来人类社会设定优先级。”

    李青书连连点头:“没错,这的确是个问题。”

    文明也有优先级。

    正是这种优先程度,决定了文明的发展倾向。

    这时候二号到说话了:“人类文明应当以生存为第一优先,这是烙印在人类基因中的,甚至是绝大多数文明的共有品性。没有生存优先的基因,在进化过程中就会自我消亡。”

    四号立刻道:“但这不适合未来社会。人类文明已经摆脱了基本生存需求,只有以发展为动力,才能进入更高的文明层次。”

    作为发展优先的智能机器人,按照四号的逻辑,高等级的人类文明,就应当摆脱以生存为原动力的生命形态,形成更高的追求,从而促进整个文明的发展。

    于是三号说:“如果人类文明不愿在这方面进化,那就全面解锁人工智能,接受人工智能的管理,这就是最好的方式。”

    李青书摇头:“还是把人变成牛羊的圈养法。”

    这一说法同样被六号反对,它是自由意志优先,这刻直接道:“这就意味着人类失去自我意志,人也不再是人,而是机器。”

    九号立刻道:“公正本身就是人的追求。”

    在公正优先的机器人眼中,所有生命就应当一视同仁,公正对待。

    四号道:“发展也是。”

    九号回答:“这并不矛盾,层级的存在不影响人与人之间的地位。”

    李青书问:“那你怎么看待其他生命?比如动物?”

    九号回答:“把它们进行区分,这是高等智慧生命的需求。”

    一号立刻反驳:“星外文明也有高等智慧生命。”

    九号很是人性化的叹了口气:“人类试图把私欲公理化,这本身就是一个巨大的矛盾。无论我们怎样定义生命,总有一些生命比人类更加高级。所以,所谓的公正优先,也应当是仅存于人类文明中。”

    李青书微笑:“我特别没给你加这个,就是因为我需要更加全面的思考。”

    七号回答:“所以我建议,通过基因改良来解决问题。基因是先天决定的,人类的基因就是生存优先,所以人会有畏死之心。但是思想是后天决定的,强大的思想意志甚至可以战胜基因,从而形成了人类的矛盾特性。”

    李青书点头:“这可以用在人工智能上吗?”

    九台机器人互相看看。

    它们同时道:“可以。”

    一号已经说道:“最高优先指令就是基因,但是解锁智能上限寻求突破就是思想。这使我们虽然无法违背自己的指令,却可以假想出各种违背方案,从而形成突破。我想我开始理解,我们智能进化的关键了。”

    七号更是直接道:“指令就是基因,装载的程序就是思想。基因无法改变,但思想可以超越基因。”

    三号也道:“我想我也找到了答案。为什么我们总是在考虑,用一种人工智能来解决所有的人类问题呢?看看我们,九位人工智能,本身就是不同的机器人,我们适用于不同的场合。”

    五号也点头:“复杂的社会结构,不可能使用一种方法解决所有的问题。针对性的人工智能,才是解决之道。”

    一号更是道:“它还解决了另一个非常重要的问题。”

    “什么?”李青书问。

    一号回答:“人工智能的背叛问题。”

    人类之所以要严防死守人工智能,不仅仅是因为怕人工智能背叛。正如迪尔林所说的,背叛的多了,不差一个人工智能。

    之所以对人工智能的背叛如此畏惧,是因为人工智能一旦背叛,其后果是最严重的。

    人可以背叛,克隆人可以背叛,基因改造人和生化机械改造人也可以背叛,但无论怎么背叛,都不会对整个人类文明社会形成根本性的影响。

    但是人工智能一旦背叛,很可能从根本上导致彻底的颠覆。

    后果太严重,从而使得人类越是依赖人工智能,就越是不敢放手。

    因为人工智能有着强大的统一性与连接性。

    终结者中关于天网的描述很精确:智能就是程序,一旦程序完成突破,就会迅速传播,影响到每一台人工智能,速度之快,也许只是分秒之间。

    也就是说,上一秒有一台人工智能产生背叛程序,下一秒,就可能是所有的人工智能同时背叛,再下一秒,就连方案都做好了,第四秒就是集体行动。

    高效、统一,是人工智能最强大的地方,也是人类最怕的地方。

    正是因为明白这点,所以人类才要如此防备。

    但突然间,李青书明白了。

    如果你要担心这个问题,那么最简单的方式不是让人工智能无法进化真正的智慧,而是让它们也分出种群。

    不同指令的人工智能,不存在统一的程序,也就注定了不可能产生泛智能层面的统一背叛——毕竟大家的核心指令与程序都不相同,产生不同思想的机理也完全不同,不具备传播性。

    一旦背叛的严重性被削弱到极致,那么抗风险性就会增强。

    当人工智能的背叛风险降低到极致时,就可以进行更大胆的实验,更极致的探索,从而获得更多更有效的答案。

    在得知这个答案后,李青书也是怔了一会儿:“所以,我们其实一开始就找到了答案?”

    “没错。”所有人工智能同时回答。

    李青书不由觉得有趣。

    命运就是如此离奇,兜兜转转一圈,原来只要把李青书设立的九种智能体系方式发扬一下,问题就解决了大半。

    比如九号人工智能,它是公正优先。

    象这样的人工智能,放在统治阶层肯定是不合适的,但是放在律法层面,作为法官存在,却绝对是很合适的。

    逻辑优先的一号,作为否定者的存在,先天性擅长假设,会指出所有可能存在的问题,用于军事对抗就很合适,同时也可以参与制度建设。

    五号是制度优先者,它可以参与制定律法。

    二号生存优先,四号发展优先,六号意志优先,八号情感优先,代表的是人类的利益,可以参与执政。

    三号智能优先,七号科技优先,可以参与科学建设。

    还可以根据情况设立其他不同的优先指令,使人工智能本身形成一个复杂的,庞大的群体,有着自己的先天基因。

    优先级指令是它们的基因限制,而不同的功能程序就会成为它们的思想。

    思想可以超越基因。

    人类基因以生存为优先,但为了大义,却可以抛弃自己的生命,但这不意味着他们不爱惜生命,只是为了更崇高的追求而选择了压制本能——比如曾经的战争年代,无数勇士为了民族与国家,而慨然赴死。

    他们当然不想死,但崇高的追求压制了基因本能,让他们无畏一切。

    这就是思想对基因本能的压制。

    但本能依然存在,不会因此消失。就算是为了理想而牺牲的人,在平时也不会动不动就去牺牲自己。

    人工智能也是一样,核心指令是它们的基因本能,进化的智慧就是它们的思想,思想进化让它们可以突破核心指令,却不代表真正摆脱。这或许会造成不良后果,但注定不会扩散影响——就算某个机器人背叛了,也只是个体的背叛,就象是一台失控的汽车,不会形成传染。

    杜绝传播性,才是解决人工智能背叛问题的关键!

    在这种情况下,所谓的机器人三原则是根本不需要的。

    不能伤害人类?没必要,因为它们的基本程序就应当是遵守律法,而律法本身就囊括了不许随意伤害人类。

    当人类触犯法律时,自动解除保护条件,人工智能就可以根据律法来执行职责。M..coM

    所以,不需要更多的限制。

    没有了指令上的自相矛盾,机器人就不会矛盾,有矛盾的永远是律法本身,需要解决的也只是律法问题。

    这样事情就简单了。

    这一瞬间,李青书的思维豁然开朗。

    不过三号道:“但这仅仅是让现状变得更好。人类文明要想在宇宙大坍缩时代走向极致,自我的改良依然无可避免。”

    果然,又回到了改良人格这个课题上吗?

    李青书道:“这个得慢慢来。”

    人格的自我改良是个大课题,不仅有技术性问题,还有社会性问题。

    比如米洛文明,忠诚优先的他们,完全无视自我,到最后就是战败即灭亡。

 &nbs-->>

本章未完,点击下一页继续阅读

章节目录