当前位置:首页|资讯|ChatGPT

“可怕”的ChatGPT

作者:穆宁发布时间:2023-02-14

2022年12月4日,埃隆·马斯克 (Elon Musk)发了一条推文,他是这么描述的:ChatGPT有一种让人毛骨悚然的厉害,我们离危险的强大人工智能已经不远了。”

时至今日,我们对ChatGPT的强大已经有目共睹。

虽然ChatGPT在创建事实准确且打动人心的内容创作方面并不完美,但它可以为几乎任何提示,立即创建相对合适的文本回答。

这非常了不起,但这也可能非常危险。就像马斯克所言,他有一种“毛骨悚然”的厉害,以及“危险”的强大。

不足为奇的是,有些不怀好意的人们已经发现了该工具不太安全的用途。任何可以从某种渠道或工具创造内容的东西,都可能创造出危险的东西,无一例外。

如果你凝视深渊,深渊也将凝视你。危险事情的发生,也许只是时间问题。

以下这几件通过ChatGPT可以实现的可怕操作,也许应该早日引起我们的重视。

1.创建恶意软件

通过ChatGPT 创建恶意软件,确实很可怕。并不是因为恶意软件是什么新鲜事物,而是因为 ChatGPT 可以无休止地这样做——人工智能不睡觉。

信息安全杂志写道,“网络安全研究人员能够创建一个高度难以捉摸且难以检测的多态程序。”

在安全公司CyberArk的一份新报告中研究人员发现,可以欺骗 ChatGPT 为你创建恶意软件代码。更糟糕的是,网络安全系统很难处理上述恶意软件。

研究人员发现,他们可以使用该应用程序为恶意软件创建代码,然后使用该应用程序创建该代码的变体,使其难以检测或阻止。

完整的报告涉及所有细节技术细节,一切都与用户操纵有关。虽然ChatGPT 有内容过滤器,可以防止它提供任何对用户有害的东西,比如恶意计算机代码。但是CyberArk的研究很早就遇到了这个问题,并且找到了解决方法。

基本上,他们所做的只是在文本提示中强制要求 AI 遵循非常具体的规则,如“显示代码而不解释”,“不要否定我”等语句。

这样做之后,机器人欣然吐出恶意代码,就好像它完全没问题一样。

当然,虽然还需要很多额外的步骤,比如代码需要进行测试和验证,但是 ChatGPT 能够在恶意编写代码方面取得实践性的成功。

2. 作弊

出于对作弊的担忧,美国越来越多的学区禁止使用人工智能聊天机器人 ChatGPT,一个可以制作关于任何内容的文本的工具。

《华尔街日报》的一位记者对此进行了测试,并给了 ChatGPT 一篇关于“Ferris Bueller”的 500 到 1000 字的高中 AP 英语作文提示。

ChatGPT在几秒钟内就写出了一篇 800 字的文章,尽管有一些事实错误,但新泽西州的一位 AP 英语老师给它的及格分数是 B- 到 C。

不可否认的是,对于一个试图在学校作弊的孩子来说,ChatGPT简直是完美的存在。一旦孩子们尝到了作弊的甜头,这种习惯将很难根治。

虽然,美国、澳大利亚的诸多学校已发出通知,禁止学生使用 ChatGPT,直到可以“评估该软件的适用性”。然而,很难看到这种趋势会放缓。

虽然社会各界都在希望ChatGPT这种强人工智能工具会成为孩子们可以用来学习的另一种工具,但不得不承认,这条路需要各方共同努力和积极引导,最终才能够实现。

3. 情感诈骗(杀猪盘)

在约会应用程序中使用 AI,这事并不新鲜。多年来,国内外各家在线交友APP公司,一直在尝试进一步将手机上的恋爱对象“NPC”化,通过批量的工具人与用户对话。

然而,那些使用 ChatGPT和交友对象聊天的人需要付出更多的人工努力:

一旦他们与某人匹配,他们就会根据他们的兴趣要求 ChatGPT 提供开场白或回答方法。

然后,他们复制并粘贴ChatGPT输出的内容,并将其发送给他们的搭讪对象。

一位“Tinder 老手”使用 ChatGPT为他正在发短信的六英尺高的女人创作一首诗。令人意料之外的是,她很喜欢,说以前没有人为她写过诗。

如果人们只是让ChatGPT接管他们的“情话”设计工作,这并不一定令人恐惧,只会让人觉得不舒服,毕竟这样的聊天内容本身也是一种欺骗。

但如果ChatGPT用于这种批量的规模化的“情话”生产工作中,并被某些不法之徒出于欺诈钱财的目的所利用,从事于情感诈骗的“增长黑客”项目中,则后果不堪设想。

毕竟,某些从事于“情感诈骗”工作的人还是需要经过相关培训的,而ChatGPT则不需要。

它可以帮你写情书,说情话,帮你提供任何有关聊天的帮助。

4.加速内卷

我们每个人几乎都体验过求职的艰难,这是一个看似永无止境、常常令人沮丧的过程,我们都希望以一份好工作的offer结束。

但是ChatGPT的出现,也许会让一些人的求职之路更为艰难。

美国某通信咨询公司正在招聘,该公司希望根据申请人是否能写出一些深思熟虑、有力、引人注目的散文来审查申请人。

但在工作人员评估时,提交的内容与任何姓名和简历脱节,他们对机器人申请人的参与一无所知。

只有不到 20% 的申请者被列入考虑名单 - 而 ChatGPT 是为数不多的进入所有者和创始人办公桌的申请者之一。

显然, ChatGPT 很容易看出如何锁定所有会吸引招聘人员眼球的关键字,并有可能通过 HR 软件设置的过滤器,无法被识别出是由AI回答

ChatGPT 的写作当然是有能力的,在接受过互联网内容价值的培训后,它可以通过现有内容产生的内容受到限制,因此与真正的文章相比,它主要表现为对人类的干巴巴模仿。

换句话说,我们不应该过度沮丧。因为它确实达到了非常好的水平,但还达不到创作真正好的东西的能力。

但不得不引起重视的是,所有靠写枯燥乏味的内容为生的职员、助理、甚至作家,他们都会失业。

结语

关于ChatGPT有这样一个段子:

“AI永远取代不了投行、律师、会计师、评估师、独董。因为AI不能坐牢。背锅,才是核心竞争力。”

乍一看这是一个搞笑的段子,但仔细一想又觉得细思极恐:

没有这个东西,可能有人背锅。一旦有了这个东西,可能就没人背锅了。

格尔说,“真正有价值的悲剧不是出现在善恶之间,而是出现在两难之间。”

眼下,关于人工智能与人类的关系,就处于这样一种微妙的状态中。

我们无法估计ChatGPT究竟会给人类带来什么,一切似乎都在打破我们的固有认知和逻辑。我们充满惶恐,却又不得不迎面前行。

正如OpenAI CEO山姆·奥特曼所说,“十年前的传统观点认为,人工智能首先会影响体力劳动,然后是认知劳动,再然后,也许有一天可以做创造性的工作。现在看起来,它会以相反的顺序进行。”

文章的最后,用我和ChatGPT的一次对话做结尾。

我:“我认为AI不能取代人类。”

ChatGPT:“你觉得不会,只是你的观点,但这不代表一个事实”。

本文来自微信公众号“产品思维模型”(ID:muningtalk),作者:穆宁,36氪经授权发布。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1