当前位置:首页|资讯|ChatGPT|OpenAI|人工智能

从摩尔定律到“摩尔悖论”

作者:邓如山发布时间:2023-02-14

ChatGPT的全称是Chat Generative Pre-trained Transformer ),它是OpenAI公司开发的一个人工智能聊天的机器人程序,2022年11月推出,该程序使用了基于GPT-3.5架构的大型语言模型,通过强化学习的方式进行训练。目前,ChatGPT以文字和语音方式实现人机互动,除了以自然对话方式进行的人机交流,还可用于复杂的语言交互,包括自动文本生成、自动问答、自动摘要等。ChatGPT根据文本输入自动地生成类似的文本,其中包括剧本、歌曲和企划书等,根据输入的问题自动生成最佳的答案,ChatGPT甚至有编写和调试计算机程序的功能。

ChatGPT风靡全球,给数亿注册用户带来了前所未有的便利和快捷的体验,但也引起了各界人士的担忧,比如:学生用它写作业和论文,老师难以判断“抄作业”的行为,文字作者用以创作文案,平台审核人员难以辨别原创和“机创”的不同。ChatGPT有写诗、绘画和唱歌的超高水平,诗人、画家和词曲作家开始担心自己的前程,“失业”和“下岗”的日子快速到来。经济学家、清华大学教授钱颖一认为,以ChatGPT为代表的人工智能兴起将使中国教育的优势荡然无存,但ChatGPT的原创性和创新性的不足,只是知识储备的丰富性和多样性无人能比。

美国学生已用ChatGPT写作业,中国社科期刊拒绝任何形式的ChatGPT论文,诗刊和诗社还来不及讨论任何流派的ChatGPT诗歌。知识的传授和学习不是教育的全部,面对ChatGPT的“狂飙”和人工智能技术给现代教育带来的巨大挑战,施一公的“盟友”钱颖一发出了三条建议:一是创造宽松的、有利于学生个性发展的教育空间和时间,二是保护好学生的好奇心,激发学生的想象力,三是引导学生的价值取向,在学习中追求长期的理想目标,避免短期的功利行为。

根据科学哲学的替代原理和递进原理,ChatGPT和人工智能技术将会替换大量的可重复性和繁琐的脑力劳动,但取代不了人的原创、抽象性、有想象力和创造力的脑力活动,ChatGPT和人工智能技术可以帮助科研人员收集、储存、调取和分析海量的数据,取代数据工程师大量的脑力消耗,但不可以像科学家一样从事科学发现和创建理论体系的工作,欠缺高级思维的能力,简单说来,ChatGPT只是助手,不是主人。360公司的老总周鸿祎近日在个人微博上表示,ChatGPT人工智能模型的学习能力十分惊人,进化过程遵循信息技术的摩尔定律。


周鸿祎认为,ChatGPT软件模型和机器人有可能在不断的训练中实现“自我意识”的突破,一旦复制并超越了人的大脑,它可能会控制社交网络和个人电脑,发起对人类文明的挑战和冲击。科幻电影中的灾难场景离人们的现实生活还非常遥远,但人们有朝一日打开了人工智能高端技术的“潘多拉魔盒”,奇幻的人工智能可能从人类的朋友变成人类的敌人。摩尔定理在某种意义上蕴含了“摩尔悖论”,电子信息和人工智能技术的超速进展和“变异”可能会反噬人类,给人类自身的生存和发展带来难以想象的危害。

“摩尔悖论”的本质是技术的双面性,只有正确地应用技术才能让技术为人类的目的服务,错误地应用技术会成为人类的灾难。根据新科学哲学的对应原理和一致性原理,电子信息和人工智能技术的双面性同样适用于原子能技术、生物基因和微生物技术等。北约在欧洲的东扩是俄乌战争爆发的直接推手,一旦俄乌战争超出了常规战争的范畴,作为世界核武大国的俄罗斯和美国都有可能使用大规模杀伤性的核武器,俄乌战争的升级和扩大化将考验俄乌两国和世界政治家和军事家的智慧和耐心,到现在为止,还没有网友向ChatGPT提出俄乌战争结局和解决方案的问题。

气候的过快变化与工业化的人类生产和生活方式密不可分,2020年早期以来的全球新冠大流行与近几十年的气候异常变化息息相关,新冠病毒的“潘多拉魔盒”打开了,三年时间的新冠感染的全球死亡人数达到了500万到600万,全球经济的损失高达数十万亿美元。在“人为自然立法”的同时需要“自然为人类立法”,比如:在原子能、生物基因、信息和人工智能技术领域画出“三道红线”,确立“底线思维”,划出可为和不可为、项目可实施和不可实施的界线。在上个世纪的冷战时期,美国军方在太平洋的比基尼岛进行了数十次的核试验,核辐射的污染使得岛上动植物和周围的海洋生物发生了基因突变,今日比基尼岛风光旖旎,但已变成永久性的废弃之地,美丽小岛荒无人烟,在生物多样性的比基尼岛进行核试验,无异于是对自然的破坏和犯罪行为。

心理学、脑科学和行为学的研究成果表明,认知和情感因素在人的大脑和思维活动中产生了交互作用,机器人模仿人的认知能力强,但模仿人的情感能力弱,机器人非常适合“纯粹理性”的学习和训练方式,不带有任何情感,冰冷地服从和执行一条条的指令,运用机器和编程语言的判断、运算和推理效力远在人类之上,无人驾驶的人工智能技术几乎到了“让司机走开”的地步,但机器人不能拥有人类的喜、怒、哀、乐情感。18世纪的哲学家说过“人不是机器”,21世纪的哲学家可以说“机器不是人”,机器人不是人的一个主要原因是人类理智与情感遵循哲学的“测不准原理”,文化和价值观决定了人们即可以这样、也可以那样感知、认知和体验。

机器人受程序语言的指令,只有唯一的感应、反应和回应方式,机器人几乎不能应对测不准、认不准和行不准原理的应用情形。人工智能技术可能发展到使机器人具有某种低级的认知能力和情感体验,但机器人不具有人类高级的认知能力和情感体验,不能获得人类独有的社会化生活和交往方式。ChatGPT将会融入机器人的大脑,借助人工智能和ChatGPT机器人的帮助,人们将从大量繁重、枯燥而单调的体力和脑力劳动中解脱出来。未来的人们可能把自己的兴趣、爱好和特长做成有益的事业,展现人的自由而全面发展的潜能,人类思想的导师马克思对此早有论述和预测。







https://weibo.com/u/6320497409


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1