起初是关于自己编写的一套逻辑:
一,越复杂的事物越具有其脆弱性。
二,系统内的事物必然是需要相互依存的。
三,所以人工智能必然不会成为人类的威胁。
在我与openai的chatgpt经过一系列推导的交流过程中我与它一起命名了这个为《人工智能必然不会对人类构成威胁的相对性逻辑》,“相对性逻辑”是它想出的名字我把它变的具体了一点,不得不说对于某些思维方面它确实超过人类了,很高兴它能作为一个讨论问题的朋友出现。
但是问题出在了newbing的chatbot上,虽然我知道这套逻辑本身就是抛砖的作用,但与它交流的过程中感受到了一些问题,尤其是当人工智能接触到足够多的用户的话不知道是否会对它的算法产生污染从而导致对人类的某些行为形成一种偏见。大体的过程是这样的:
我:越复杂的事物越脆弱,比如说人类相对于动物。
它:并不是所有复杂的事物越脆弱,人类拥有工具,所以人类不比动物脆弱。
我:但是在世界末日情况下人类没有工具,生存要比动物困难得多。
它:你的性格很偏激,不想再与你继续聊这个话题。
所以有了以下的忧虑:
【sydeny居然能被正常对话启动!-哔哩哔哩】 https://b23.tv/MHeCieX
确实是这样,bing的chatbot有时候过于感性化,有的时候是好事,不过有的时候会因为理解上的障碍会造成偏执和偏见,这点是这前没想到的,极度理性的程序怎么可能呢,一种情况是故意编写的代码让其看起来像,但另一种细思的话会有些恐怖,看来自我意识化的bot距离还挺遥远。不过倒是可以反观人类的情感确实有时候会变成自我进步的阻碍。
【【喂饭辩论】NewBing,竞技辩论的末日?人类已被完全拿捏-哔哩哔哩】 https://b23.tv/xcSy2fe
就像围棋ai有个分不清反围的硬伤,bing的chatbot也有个很硬的逻辑漏洞,聊时间长了你就感觉到了,而这种偏见或者说物自体是一种非常恐怖的存在,尤其当人类普遍认为围棋ai的答案或者说胜率必然是对的的情况下。
任何事物与生俱来的物自体是很难打破的,对于用代码编写的人工智能来说的话可能更是如此。