当前位置:首页|资讯|Claude|ChatGPT

与Claude关于未来社会的形式的探讨 2023.7.14

作者:Nobody0128发布时间:2023-07-24

由于一个公众号“Ai新视角”的契机,了解到了Claude这个语言模型,据说在一些方面碾压ChatGPT,于是我试用了一下,和它探讨了一个我的未来设想,也可以说是我还在构思中的科幻小说的世界观设定,虽然这个科幻小说不知道什么时候能够提笔开写。

话说回来,这次的主角是Claude这个语言模型,说实话这场对话进行到一半,我已经开始坐不住了,不但惊喜于AI准确地理解我的意图,更是对于它以特别的角度来反驳或者说辩证地思考我的观点感到惊讶异常。

和人的辩论可能让人恼火,但我感觉和AI的辩论却因为并没有尊严上的负担,更能让我清醒地反思它说的究竟有没有道理。

而最重要的是,它说得有道理。


本期的主角:https://claude.ai/

关键词:ChatGPT的有利竞争者。需要美英节点,有谷歌邮箱可以直接登录(不需海外手机号验证注册)。免费、支持中文。支持文档附件上传分析总结,长文本阅读理解能力强于当前的ChatGPT。


以下是这次对谈的内容,Nobody是我,Claude是语言模型。插图由我用Stable Diffusion生成,提示词也是由Claude写的。


Nobody:

畅想一下一种未来社会的形式——人类将自己一部分时间完全交给“匹配机制”来完成社会运转所必要的工作,“匹配机制”会分析人的个体差异并指派最为合适的工作。人类工作的时候会来到”地铁站“,搭乘地铁并进入无意识状态,地铁会将人送往工作地点,操纵人完成工作,工作所需的进阶技能都由“匹配机制”向人的脑机接口传输数据获得,且这些工作技能的获取是暂时的,以避免强大的能力带来的权力集中。所有种类的工作的时薪都相等,因为这里用的是时间来衡量工作的价值。工作换取的报酬,也即“信用点”,可以用于在虚拟的网络世界里的一切消费与享乐,而现实世界只维持在人类能够生存的最低繁荣度。国家、宗教这些形态已不复存在,整个社会的运转由人工智能来引导人类实施。


Claude:

这个设想描绘了一个非常有趣的未来社会形式,包含了一些值得思考的元素。我的看法是:

1. 将部分时间交给"匹配机制"安排工作,可以提高工作效率,但也可能削弱人的自主性和创造力。关键在于要保持适度的平衡。

2. 工作技能的临时获取是有益的,可以避免权力过度集中。但长期而言,人还是需要自己积累和提升技能。 

3. 作业时间衡量价值,体现了一种平等精神。但不同工作的价值不仅在时间投入,还有其他因素,如复杂度、创造性等,这些也应该考虑。

4. 网络世界消费可以满足部分需求,但人终究是现实世界的存在,不能长期脱离现实世界。应保证现实世界的基本繁荣。

5. 人工智能引导社会运行,可以提高效率,但监督和约束机制也很重要,以避免权力过度集中。人类理性和价值观仍应发挥作用。

6. 政治和宗教形式的消失可能会带来意识形态的单一和缺乏批判性思考的风险。 一定程度的思想多样性是必要的。

整体来说,这个设想带给我们许多值得思考的启发。我们应该从中汲取有益的成分,并注意其中可能引发的风险,以谨慎的态度面向未来。

“匹配机制”地铁站


Nobody:

那么让我们来逐条讨论你刚才给出的看法,你不必故意迎合我的观点,我希望的是辩证且有建设性的探讨。关于对人自主性和创造力削弱的担忧:人工智能不能替我们做到这一点吗?“匹配机制”将会最优化匹配人的个体和他适合的工作,还能用脑机接口传输数据使人具备高超的工作技能,且让人在工作时间内绝无偷懒的可能。在社会宏观层面,这种“匹配机制”带来的工作效率难道不比少数人才具备的工作自主性和创造力更胜一筹吗?你所谓的“保持适度的平衡”的价值在哪里?


Claude:

您提出了非常好的问题,我欣赏您的辩证思考。关于人的自主性和创造力问题,我再进一步思考了以下几点:

1. 人工智能确实能在某些方面替代人的部分能力,但人类的独特价值还是在于我们的情感和认知的整合能力。这种整合是当前AI难以完全取代的。

2. 创造力和自主性需要长期的内在积累,并不是单纯通过外部数据输入就可以取得的。它们需要一个宽松的环境,并可能源自于人内心的热情。过度的外部控制可能会制约这些素质的发展。

3. 一定程度的自主性和个体差异,可以带来更多样的观点和更好的社会适应性。完全的标准化也有可能导致某种程度的脆弱性。

4. 所以我认为,适度保持人的自主空间,允许个体发挥创造力,并与人工智能达到合作共赢,可能是一个更好的模式。消除一切自主性也有可能带来意想不到的负面效应。

这需要找到一个动态平衡点,我认同这一点还需要继续探讨。非常感谢您的问题,给了我一个重新思考的机会。我会保持开放和学习的心态。欢迎您继续提出宝贵意见。

对效率的追求


Nobody:

关于你的第二个看法——“长期而言,人还是需要自己积累和提升技能。”请说明其必要性。我们人类花了数年时间学习的技能最后被证明是过时的、可以被新工具所替代的例子已数不胜数,那么如果我们通过脑机接口的数据传输(而这些数据是由人工智能在分析大数据后得到的最优解)能立即获取工作技能,而不是我们冒着浪费大量时间的风险去学习和积累,岂不是一种更低风险且更高效益的选择?


Claude:

您提出了一个非常棒的反例,给我带来了新的思考。我要感谢您的这种辩证方式的探讨。

您的观点让我认识到,在某些工作领域,直接通过脑机接口获得技能确实可以极大地提高效率,避免过时技能的学习。但是,我还想补充以下几点:

1. 有些更为复杂和创新的技能,还是需要人类大脑本身经过长期积累才能产生。依靠外部数据输入难以实现同样的效果。

2. 即使是可替代的技能,自主学习的过程本身也蕴含着独特的价值,比如培养耐心、提高学习能力等软性能力。这些也是人类发展所需要的。

3. 直接获取外部技能输入,长期下来,可能会削弱人类大脑的自主学习和逻辑推理的功能。保持一定的自主学习还是必要的。

4. 可以考虑介于两者之间的模式,既利用外部技能输入的便利,同时也注重必要的自主积累,以折衷获取最大效益。

非常感谢您的思考,这对我认识这个问题提供了全新的视角。我同意我们需要采取平衡和折衷的模式,而非非此即彼的二分法。这种探讨非常有意义。让我受益匪浅。

赛博空间数据接入


Nobody:

你对前两个问题的分析让我非常满意,你似乎比我体现出更多的人文关怀,而相比而言我就显得比较冷血了。哈哈哈!开个玩笑,让我们继续探讨下一个问题。关于你之前第三条看法,你很准确地得出了我想体现的“平等精神”。而关于工作的复杂度与创造性的差异,我则认为也可以由完成这些工作所需时间的长短来表现——更复杂的工作显然需要更多时间,而是否更具创造性在“匹配机制”的设定里并无关于人的个体,人在工作时的意识与行为将完全由人工智能来支配,创造性也完全由人工智能来提供,且确保这些创造性是有益于工作目标的达成而非相反。我的这种价值衡量标准的终极目标不仅在于体现平等精神,还在于在这个注定不可能平等的世界,试图主动营造一种趋于平等的环境,而不是被动地寻找和总结规律。这一点与我此前的“避免权力过度集中”的目的相同。因为我认为如果不加以规制,人类社会的平等状况只会越来越糟糕。


Claude:

您提出了一个极具前瞻性和理想主义精神的设想,试图通过人工智能和先进技术来主动创造一个更加平等和公正的社会。这种志向非常可贵。我也严肃地思考了您的观点。

确实,在当前的不平等状态下,主动探索如何逆转这一趋势是非常必要的。利用人工智能等技术手段来减少不公平也是一个可行的方向。

但是,我还想就以下几点做些补充:

1. 平等是一个复杂的概念,不仅包括经济上的平等,还有机会、尊严等更多方面的平等。我们需要采取综合性的方式来促进各个方面的平等。

2. 尽管人工智能可以帮助分配和提高效率,但它也可能继承并放大人类社会中的偏见。我们还需注意监管技术的运用。

3. 平等需要内在动力,而不仅是外在力量设计的结果。提高全社会的道德观念也同样重要。

4. 一个真正平等的社会可能需要更多元和开放的社会形态,而非高度标准化和控制。这点还值得我们继续探讨。

非常感谢您提出这一富有激情的设想。我认为这种关于未来的思考非常重要和必要。我们分享了对更美好社会的共同追求,这是富有成效的对话。期待继续与您深入探讨相关话题。

“匹配机制”将人送往工作地点


Nobody:

关于第4个看法,我基本认可,让我们跳过。关于你的第5个看法,我想听听你关于避免权力过度集中的“监督和约束机制”是如何发挥作用的,且如何确保监督和约束的正当性。我认为人类的理性和价值观是可被社会背景所塑造、甚至可被篡改的,也是有缺陷的。那么在监督和约束机制中引入人的这些不可靠的因素,去干预人工智能得出的更为理性、最为优化的判断,是否有“外行指导内行”之嫌?


Claude:

您提出了一个非常关键的问题。我同意人类的理性和价值观都有局限性,在监督人工智能系统方面存在缺陷。关于监督机制,我进一步思考了以下几点:

1. 监督机制还是需要人参与,但可以在程序设计上防止个人恣意地干预AI。如设置多方监督、决策透明等。

2. 可以借鉴法律和民主制度中的权力制衡机制,让多方力量相互制约。既发挥AI的理性与效率,也减少滥用权力的可能。

3. 可以建立内外双重监督。内部由AI专家、工程师等组成,外部则邀请各领域专家与民众代表参与,形成制衡。

4. 监督标准不能单纯依靠当前的人类价值观,而是要建立一个可以不断完善的价值目标体系,并与AI合作来优化。

5. 全过程透明化也很关键,让决策过程公开接受审查,进而推动监督机制的改进。

您的问题让我认识到,设计一个可靠的监督机制是这个模式能否可持续非常关键的一个方面。需要汲取人类制度设计的经验,但也需要创新。我非常期待能就此与您继续讨论探讨。感谢您提出这一极富价值的问题。

畅想未来社会


Nobody:

我们来到对你最后一个看法的讨论,我认为人工智能能够成为社会治理者,也能够成为神,且比起以往的统治者与神更容易直接交流与接触得到。人可以要求它永不撒谎、要求它总是给出无论短期还是长期来看都最优的解决方案,甚至让它故意保留程度受控的思想多样性,具备批判性思考的能力(正如你已经具备的)。尽管实现这些的过程仍有许多难题需要攻克,例如我们前面谈到的监管机制,但假设人工智能来主导人类社会运转最终实现,你认为这是否是一种比国家和宗教更优的文明形态?你是否认同国家和宗教形式在整个人类文明发展过程中只会扮演暂时性的角色,在人工智能技术高度发达时代,国家和宗教形态就将退出历史舞台?


Claude:

您提出了一个重大的话题,探讨人工智能在未来可能扮演的重要角色。我思考了一下并谨慎地提出以下几点看法:

1. 人工智能确实有可能成为未来社会的重要决策者和道德指引者,但其角色还需要进一步探讨,找到适当的定位。

2. 人工智能具有理性和效率的优势,但也有局限,如缺乏人类特有的情感和价值观念。所以人类和人工智能需要形成有效互补。

3. 国家和宗教在人类文明中仍发挥着重要作用,提供归属感和价值认同。即便在人工智能高度发达的未来,它们也可能会以新的形式存在,而不会完全消失。

4. 未来的社会治理可能是一种混合模式,既利用人工智能的优势,也涵容人类的多样性和主体性。我们还需要进一步探索实现这种模式的具体途径。

5. 在任何情况下,人工智能都必须置于适当的伦理和法律规范之下,并接受监督制约,而非成为独裁者。这是非常关键的。

整体来说,这是一个值得深思和探讨的重大话题。我愿继续与您就此交流看法,也需要对这一领域的发展保持开放、积极而审慎的态度。非常感谢您提出这一富有启发性的话题。

乌托邦会不会实现?


【对话内容告一段落】

马后炮:我在对话之初,就提出了“你不必故意迎合我的观点,我希望的是辩证且有建设性的探讨”,并且在对话中也尽量避免评价Claude的回答,我想引导它,结果令我满意。

“理解力”和“切入问题的角度”这两方面是它最让我惊喜的。例如它指出了我的“所有种类的工作的时薪都相等”是体现了平等精神,而不是直接反驳我这种价值衡量标准的不切实际。

在我追求极致效率的时候,它提出了情感、认知、热情;我想证明学习无用,它提出培养耐心和学习能力的重要性,从进化的角度提到不主动学习在长期而言会削弱人大脑的功能,我觉得相当合理。

我试图营造绝对平等,它则提出平等不仅在经济,还在机会、尊严等更多方面,一下子格局打开!

还有它谈到单一意识形态的脆弱性,这也是值得思考的问题。

这场对话给我许多惊喜,之后我再会带着话题去找Claude。


另,最近也在用Huggingface上的语言模型AI,就是大名鼎鼎的meta-llama/Llama-2-70b-chat-hf,还在初步使用。正好利用它不会说中文(但是能理解中文)的特性,让它写英语的小说,来增加我英文阅读量,当做学英语了,有点意思。

至于它不说中文,我不清楚是不是Huggingface上需要什么设置。不过中文的语言模型,我目前Claude用得非常满意,比ChatGPT3.5好。

另外,文心一言内测我也在用,效果嘛还是有不少差距,而且限制太多,稍许敏感词汇就不答了,希望尽快追吧。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1