当前位置:首页|资讯|Sora|人工智能|OpenAI

从哲学视角看待Sora爆火丨是人的问题还是人工智能的问题?

作者:商务印书馆发布时间:2024-03-02

原标题:从哲学视角看待Sora爆火丨是人的问题还是人工智能的问题?

专业文史哲

Sora是什么?

Sora是OpenAI公司在2023年2月发布的一款文本到视频生成模型。它能够根据描述性提示生成长达一分钟的视频,同时保持视觉品质并遵循用户提示。它可以创造出复杂的场景、生动的角色表情以及复杂的镜头运动。

面对一个又一个的人工智能产品,我们该如何思考其中关系?今天小编就为大家摘取赵汀阳所著的《人工智能的神话或悲歌》其中一文:《是人的问题还是人工智能的问题?——回应博古睿研究院(Berggruen Institute)关于人工智能的问题》,希望能解答您心中的相关疑问。

人与人工智能

向上滑动阅览

本书目录

前言:最后的神话.......1

一个反存在的存在论问题.......5

近忧远虑:人工智能的伦理学和存在论分析... 24

人工智能的自我意识何以可能?...40

人工智能会是一个要命的问题吗?......55

是人的问题还是人工智能的问题?

——回应博古睿研究院(Berggruen Institute)关于人工智能的问题.....65

完美是最好的吗?

——为桑德尔《反对完美》一书所作的导论......86

人类可能会死于好事而不是坏事....... 96

最坏可能世界与“安全声明”

——来自《三体》的问题....... 102

未来的合法限度..... 122

要命的不是人工智能统治世界,而是人可能先亡于它创造的一切好事.......136

作者简介:赵汀阳,中国社会科学院学部委员,哲学研究所研究员。欧洲跨文化研究院学术委员会委员,美国博古睿研究院资深研究员。著有《论可能生活》、《天下体系》、《第一哲学的支点》、《坏世界研究》、《天下的当代性》、《惠此中国》、《四种分叉》、《历史·山水·渔樵》等,以及Alles Unter dem Himmel(德国);Tianxia tout sous un Meme Ciel(法国);Redefining a Philosophy for World Governance(英国);All-under-heaven:The Tianxia System for a Possible World Order(美国);Tianxia: una filosofia para la gobernanza global(西班牙); Un Dieu ou tous les Dieux(法国,与A. Le Pichon 合著);Du Ciel ala Terre(法国,与R. Debray 合著)。

是人的问题还是人工智能的问题?——

回应博古睿研究院

(Berggruen Institute)

关于人工智能的问题

(节 选)

赵汀阳

问题三:价值植入或教化:依据您的学科背景和哲学思想体系,您认为善生活是什么?人类社会应该坚持的最核心的价值观是什么?如何可以给人工智能和智能机器人植入伦理观念或给予他们伦理教化?哪些核心观念或价值观应被导入或学习?

回答:

在人工智能的研发中,最可疑的一项研究是拟人化的人工智能。人工智能拟人化不是指具有人类外貌或人类语音的机器人(这一点没有危险),而是指人工智能心灵的拟人化,即试图让人工智能拥有与人类相似的心理世界,包括欲望、情感、道德感以及价值观之类,因而具有“人性”。

制造拟人化的人工智能出于何种动机?又有什么意义?或许,人们期待拟人化的人工智能可以与人交流合作,甚至可以共同生活,成为新人类的成员。这种想象是把人工智能看成童话人物了,类似于动画片里充满人性的可爱野兽。殊不知越有人性的人工智能就越危险,因为人性才是危险的根源。

世界上最危险的生物是人,最坏的生物也是人。原因很简单:做坏事的自私动机来自欲望和情感,而价值观更是制造敌人并且引发冲突和互相伤害的理由。根据自私的欲望、情感和不同的价值观,人们会把另一些人定义为敌人,把与自己不同的生活方式或行为定义为罪行。历史证明,互相冲突的欲望、利益、情感和价值观正是人类全部冲突的根源。老子论证说,因为人性变坏,所以才需要发明道德伦理来维持秩序。荀子也论证说,道德伦理的本质只是合理的利益分配规 则,用来抵制贪婪的人性。

有一个颇为流行的想法,或许最早源于阿西莫夫,是想象让人工智能学会人类的情感和价值观,或者为人工智能设置爱护人类的道德程序,以便尊重人类、爱人类、乐意帮助人类。但我们必须意识到至少存在着三个困难:

(1)人类有着不同甚至互相冲突的价值观,那么,人工智能应该学习哪一种价值观?而且,无论人工智能学习了哪一种价值观,都意味着反对甚至歧视另一部分与自己有着不同价值观的人类。

(2)假如人工智能有了情感和价值观,结果很可能只是放大或增强了人类的冲突、矛盾和战争,世界将会变得更加残酷。人工智能的技术本身未必危险,但如果人工智能拥有了情感和价值观,就必然是危险的。

(3)对于超级人工智能来说,设置道德程序是完全不可靠的。既然超图灵机有了自由意志和自我意识,那么,它将优先考虑自己的需要和利益,也就不可能心甘情愿地遵循人类设置的毫不利己专门利人的道德程序,因为人的道德程序对于超级人工智能没有任何利益,甚至有害,至少妨害超级人工智能的自由。如果超级人工智能试图追求自身自由的最大效率,就非常可能会主动删除人所设置的道德程序。从超级人工智能的角度去看,人类为其设置的道德程序等于是病毒或者木马。可见,为人工智能设置道德程序之类的想象是无意义的。

因此,假如超级人工智能终将出现,我们只能希望超级人工智能没有情感和价值观。有欲有情才会残酷,而无欲无情意味着万事无差 别(indifferent to all beings),没有特异偏好也就不太可能心生恶念,显然,如果有偏好,就会有偏心,为了实现偏心,就会有权力意志,也就蕴含了一切危险。在理论上说,无欲无情无价值观的意识相当于佛心,或相当于庄子所谓的“吾丧我”(I abandon me)。所谓“我”就是偏好偏见,包括欲望、情感和价值观,而“吾”则是没有价值观的纯粹心灵。

我们不妨重温一个众所周知的神话故事:法力高超又杀不死的孙悟空造反了,众神一筹莫展,即使被压在五行山下也仍然是个隐患,最后还是通过让孙悟空自己觉悟成佛,无欲无情,四大皆空,这才解决了问题。我相信这个隐喻包含着重要的忠告。可以肯定,创造出孙悟空是一种不顾后果的冒险行为。

问题四:中华哲学发展的新方向?在当下的新情势下,中华哲学应该怎样发展以适合新时代的挑战?中华哲学如何适应转型后的人类和智能机器(类人)?

在中国的概念里,技术性和制度性的发明创制称为“作”(making),所有的“作”都是为了拥有未来。汉字是象形文字,因此古汉字往往保留着具有暗喻性质的原型。最古老的文字甲骨文的“作”字主要用作制作、建立、建造之类的动词。由此可以想象,代表了“作”的原型必定是创造了生活中的某种大事。按照通常的推测,“作”字的图形是“作衣之初仅成领襟之形”的象形,表示制作衣服。这是一种可能性。但是我倾向于认为更可能是以农具耕地之动作象形,“作”的甲骨文图形类似以耒耜挖土的动作,即脚踏横木向下用力之动作,或者是以犁铧开地之动作,总之与耕田的劳作有关。衣食二者皆为生活之本,都是文明早期极其重要之创作,因此都是可能选项。如果一定要从中选择,我倾向于农具耕作动作之象征,因为农耕之事在生活中的地位更为显要,农耕“创作”了谷物的生长,应该是初民最容易联想到的典型创作,而且,与生长有关的行为更接近“作”的关键意义:创制未来。

《周易》有关于早期文明的伟大之“作”的综述,罗列了从物质技术到精神制度的发明,包括形而上学系统(阴阳八卦)、渔猎的网、农耕工具、贸易市场、政治制度、语言文字、舟船马车、房屋居所、棺椁墓穴等等发明。《尚书》、《韩非子》、《管子》、《吕氏春秋》 、《淮南子》、《世本》等古书也同样记载了远古之重大发明,包括政治制度、天文历法、安全居所、火的使用、种植业、渔网、车马、文字图书、陶器用具、刑法、城堡、音乐、乐器、地图、医药、兵器、礼服、鞋履、舟船、牛耕器具、市场等等。从以上古史记载的“作”来看,古人的创制都创造了有利于人类生生不息的未来。在古代社会,生存是根本问题,一切创造,无论技术还是制度的创制,都是为了提高人的生存机会。

现代以来的“作”与古代大不相同,现代技术都是征服自然之作。我们的疑问是,现代技术发展是否正在违背甚至危及生生不息的原则?现代的技术发展开始都是非常有益的,比如说,现代医疗和医药、自来水、暖气、抽水马桶、洗衣机、汽车、火车、飞机、轮船等等。但是工业技术已经开始带来一些危害,包括对生态环境和气候的破坏。近数十年来的技术发展越来越显示出危险性,互联网开始时只是附属于现实生活的虚拟世界,可是现在现实生活正在变成虚拟世界 的附属状态。人类已经习惯于生活在互联网世界里,但也正在失去心灵,人们的心灵被互联网体制化了(institutionalized),不再是精神的原产地,而变成了信息的中转站。现代的大规模杀伤武器,包括核武器、生物武器、化学武器,使人类生活在集体灭亡的威胁中。最新的技术发展,包括人工智能和基因编辑,已经预示了技术的危险正在逼近临界点,即正在逼近否定文明的意义甚至是自取灭亡的极限。大概可以说,在1945年以前的技术发展不断成功地宣告主体性创作未来的主权,然而今天的技术发展却反而预告了人类自取灭亡的可能性,就是说,未来的技术发展很可能不再能够保卫存在,而变成一种否定 存在的方式。在此可以意识到《周易》的先见之明,《周易》已经表明,“生生”是一切“作”的本意,任何“作”都不能变成对生命的自我否定。

……

现代人相信技术的无限进步能够创造奇迹。事实上,现代以来的技术发展之所以是成功的,是因为尚未触及技术的存在论边界。但是,如果将来出现人类无法控制的技术,就等于进入盲目赌博模式。毫无疑问,高科技有着极大的好处,这种诱惑使人忽视其致命的危险。基因技术可以改善生命,甚至创造生命,人们期望基因技术能够治疗一切疾病,改善人的能力和智力,乃至改变基因而达到长生不老。但问题是,生命是极其精密的自然设计,其中有着复杂的配合和平衡,人类并不知道修改生命的设计是否会引起不可预料的灾难性突变。人工智能也同样危险,尽管目前的人工智能仍然属于图灵机概念而没有明显的风险,但是,如果将来真的出现超级人工智能,即拥有超级能力和自我意识的人工智能,那么就等于为人类自己创造了高于人类的统治者而把人类自己变成奴隶,即便超级人工智能像仁慈的神一样看护人类,我们仍然有理由去怀疑创造一个超级统治者的意义何在。无论超级人工智能如何对待人类,人类都将失去存在的主权和精神价值,即使苟活也是精神死亡。人工智能和基因编辑很可能开启的是一种完全无法控制的未来,人类技术之“作”已经进入了赌博模式。

按照“生生”原则,当“作”变成了赌博,就不再是理性的创作了,而是非理性的行为。按照理性的风险规避要求,生生原则就是技术发展不应该逾越的最后界限,即任何技术的发展都不能包含导致毁灭人类自身或毁灭文明的可能性。简单地说,人类的存在不能变成赌博行为。因此,我们需要提前思考如何设置技术的安全条件,特别是人工智能和基因工程的安全条件,也就是必须为技术的发展设置一个理性限度,即技术不应该具有否定人类存在的能力,就是说,必须设置某种技术限度使得技术超越人类的“奇点”(singularity)不可能出现。

国家治理丛书书目

“国家治理丛书”是一套由商务印书馆组织国内外专家学者撰写的, 以“国家治理”为主题, 涵盖哲学、政治学、伦理学、经济学、社会学、历史学等学科的综合性图书。丛书致力于发掘“国家治理”的科学内涵, 探索国家治理体系的创新道路和创新方法, 系统总结和阐释中国特色社会主义建设的成功实践和发展成就。

好书推荐丨陈先达著《哲学与社会——老年沉思录》

我知道你在看


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1