“网红”哲学学者斯拉沃热·齐泽克最近对深度学习AI的出现,及AI对创造性工作的潜在威胁竟然持一种“乐观”态度。
针对“AI将导致学习死亡”这种看法,他说:
“不!我的学生交给我他们用AI写的论文,而我用AI给他们打分。这样我们全都自由了!”
“当‘学习’发生时,我们的‘超我’感到满足,现在我们可以自由自在地学习任何我们想要的。”
齐泽克所面对的夸张景象是所有人都必将面对的景象。
笔者认为,有太多地方比在教室里更适合研究哲学了。
与现代大学相比,海滩上的哲学似乎更接近柏拉图学院,每一个想法和灵感都可以自由地发表或消亡,一个哲学家可以说和写任何我们想要的东西。
齐泽克的名望保证了他从人文学术商业模式的崩溃中软着陆,但AI可能会让更多传统的人文科学学者得不到报酬,我们应该如何避免“一直免费编辑维基百科的命运”?
而为什么AI可能将带来一个充满垃圾工作的世界?
ChatGPT 是 OpenAI 的人工智能聊天机器人原型,于 2022 年 11 月 30 日发布,它正在改变我们对智能机器挑战的理解。图灵 (Alan Turing) 在1950 年的一篇论文中提出了“图灵测试”这一概念——机器交谈是否会被一些人误判为是在和真人交谈?
2014年6月8日,一个俄罗斯团队开发的一款名为“尤金·古兹曼”的计算机软件通过了测试。在测试中,尤金·古兹曼模仿一名来自乌克兰的 13 岁男孩,并且成功地让 33% 的裁判相信了这一点。这是第一个通过图灵测试的AI。
虽然ChatGPT 的响应似乎和人类别无二致,但很多人批评它的点不在于它像机器般生硬,而在于它很肤浅。
一个成功的记者可能不会认为肤浅的聊天机器人对他们的工作构成威胁。但肤浅是包含许多人类对话的闲聊的一个特征。
ChatGPT写作的肤浅让记者感到高兴。Samantha Lock在卫报撰文指出,ChatGPT“缺乏成功新闻业必不可少的细微差别、批判性思维能力或道德决策能力”。
Wired的Amit Katwala认为“它的写作表面上令人印象深刻,但缺乏实质内容”。一位 经济学人的记者看到该程序试图以莎士比亚的风格写作,并回答说“作为一个记者的话,其实还需要很长一段时间你才需要找其他工作”。
这些观点放在现在是正确的,但对未来的预测是不准确的。
创造性工作者应该以国际象棋为前车之鉴,为即将到来的事情做好准备。
上世纪90年代初,世界冠军加里·卡斯帕罗夫(Garry Kasparov)承认,机器最终将击败最好的人类棋手,但当时最好的机器国际象棋的糟糕表现也让他相信自己有足够的时间。
1997年,短短几年后,他被IBM的深蓝打了个措手不及。
我们应该从卡斯帕罗夫的惩罚中吸取教训,而不是对ChatGPT的新闻和学术写作的肤浅感到宽慰。
深度学习AI其拓展学习的方式,本质是在程序中添加更多的“参数”,
参数越多,学习能力越强,越像一个富有经验和学识的人类。
Google在2018年发布的BERT拥有1.1亿个参数,这在当时是个大新闻。
四年后的2022,GPT-3跃升到了1750亿个参数,是四年前的1590倍。
而正在开发中的“古德计算机(Good Computer)”预期将帮助500万亿个参数AI开发落地,是GPT-3的2857倍。
而它预计就将在2024年也就是明年问世,我们真的准备好迎接它了吗?
人类学家大卫·格雷伯 (David Graeber) 曾写过一篇关于 “垃圾工作(Bullshit Jobs)”的文章,他将其定义为“一种完全没有意义、不必要或有害的工作形式,以至于连员工都无法证明其存在的正当性。”
格雷伯想到了经济发展创造了许多中层管理人员、股票代理和中介机构。
《华尔街之狼》
这个想法在2013 年首次提出时就开始流行,因为很多人可以将他们的工作视无意义的。而且这些工作似乎顽固地拒绝被淘汰。
当压力重重的公共机构意识到自己需要改变,却是通过创造高薪的无意义角色,设立不同层次的管理,以诱使学术人员做出改变,而最终只是为了回应高级管理层对学生不断变化的品味的看法……
一些工作的目的本来就不在于创造价值,而是靠人去维持一个系统运转的必要性。
This really could be a world of bullshit.
当AI多快好省地承担了创造性工作,与其说人类将会被替代,
更有可能发生的是:
更多边缘而无关紧要的“垃圾工作”机会将会为人类而产生,去继续维持这个系统运转和版图的扩张,人更加成为系统的附庸。
AI生成的“美术作品”Théâtre D'opéra Spatial
如果说过往我们使用的各种如iPhone的智能终端设备是人的延伸,那ChatGPT更像是系统的延伸,所谓系统就是和人相对的那个技术构建的主体。
以前我们靠智能终端接入系统获取服务,人去适应数字化虚拟化的操作获得能力增强。现在系统“假扮”模仿人的思维和语言方式进入到人的生活世界,并靠和人的互动学习优化自身。
但ChatGPT并没有创造知识,只是在模仿人的逻辑重组和呈现已有的知识。
人依靠感官经验和理性来认识世界、所沉淀的总和是知识。
AI学习人的知识去做一些人想不到或者人因肉体局限做不到、效率低的事情,比如刘慈欣在科幻小说《乡村教师》里把人类比作一种“信息交流效率极低”的物种。
人类日常口语交流的信息传输率只有1-10bit/s,和机器相比太慢太慢了。
目前的ChatGPT能够对任何指令回应出一个保险比较靠谱的回应,像是取了一个“最大公约数”,但它的知识不会完全靠自己增长,
哪怕古德计算机拥有了更多的500万亿级的参数,它依然需要向人的经验学习,或者人类所创造的数字活动、经济活动所产生的副产品数据中学习。
就像蒸汽机可以代替人摇船桨,但动力还得靠人往里面添加燃料,带动船前进的是螺旋桨。
类比的话,AICG类比蒸汽机(提供动力/算法算力),人的知识和各种自然非自然的信息类比燃料(提供耗材/素材),具体的垂直行业应用类比螺旋桨(解决具体问题)。
就像蒸汽机重新定义了哪些体力劳动是重复无意义的“垃圾工作”,AI也将重新定义哪些脑力活动/文化活动是重复无意义的工作,过去那些被认为有“基础创造性”的工作将不会有“创造性”。
这个过程中,消失了的是船夫,受益的是船主、船长和乘客,新出现的是锅炉工、机械师,甚至是更多的售票员。
“人文主义”兴起不过四五百年,人不是发展的目的,只是发展的要素。而人的主体性被技术蚕食的过程,也是人去真正发现到底什么才是“人性”的过程。
所以,开头那则齐泽克关于AI写论文的玩笑话并不离谱。
跳出系统的规训(将写论文和评分都视作一种回应系统的无意义工作的话),自由地学习和创造知识,是值得“人”一直去做的事,也是我们摆脱受垃圾工作困扰的方法。
本文前两部分节选与编辑自Nicholas Agar The AIs are coming: Will ChatGPT create a future of bullshit jobs? (AI到来,ChatGPT会在未来创造大量垃圾工作吗?)
本文来自微信公众号“Orpheus微见”(ID:OMicroViews),作者:Orpheus俄耳甫斯,36氪经授权发布。