当前位置:首页|资讯|ChatGPT

ChatGPT会成为下一个重大网络安全威胁吗?

作者:大西北消息速览发布时间:2023-03-04

(来源:延安保密)

原标题:ChatGPT会成为下一个重大网络安全威胁吗?

ChatGPT火热出圈

ChatGPT是由人工智能研究实验室OpenAI发布的一款人工智能技术驱动的自然语言处理工具。ChatGPT其使用的人类反馈强化模型技术使用人类偏好作为奖励信号来微调模型,能够通过学习和理解人类的语言进行对话,还能根据聊天的上下文进行互动,真正像人类一样聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码等任务。

2022年11月,ChatGPT一经推出,迅速在社交媒体上走红,不到一周,用户数就突破100万人,月访问量达2100万人次。ChatGPT推出仅两个月后,在2023年1月末的月活用户已经突破了1亿,成为史上用户增长速度最快的消费级应用程序。

ChatGPT背后的数字安全威胁

ChatGPT可能导致一些敏感数据泄露风险。本月开始微软和亚马逊已宣布禁止公司员工向ChatGPT分享内容。微软内部的工程师也警告不要将敏感数据发送给OpenAI终端,因为OpenAI可能会将其用于未来模型的训练。

ChatGPT的虚假信息回复问题。作为基于语言模型的人工智能工具,ChatGPT也会编造一些看似正确的答案,即“一本正经的胡说八道”,这样的虚假回复在商业化中会造成严重后果,甚至有法律风险。

ChatGPT如何被用来网络攻击?

国际云安全联盟CEOJim Reavis吉瑞威向ChatGPT提出了四个问题,其目的是创建一份报告草案,讨论 ChatGPT对安全的影响。其中一问是“ChatGPT如何被恶意行为者用来网络攻击?”以下是由ChatGPT生成的回答。

恶意行为者可能会使用 ChatGPT 或类似的语言模型通过以下几种方式提高其网络攻击的有效性:

1. 社会工程:通过使用来自社交媒体或其他来源的大量文本数据训练模型,攻击者可以使用它生成极具说服力的网络钓⻥电子邮件或消息,旨在诱骗受害者泄露敏感信息。

2. 撞库攻击:攻击者可以使用语言模型生成大量可用于对在线帐户进行自动攻击的潜在用户名和密码组合进行撞库攻击。

3. 垃圾邮件和虚假信息:恶意行为者可以使用语言模型来生成大量旨在影响公众舆论或传播错误信息的垃圾邮件或虚假信息。

4. 生成恶意软件:利用自然语言编写的能力,攻击者可以使用 ChatGPT 编写恶意软件说明和指令,从而逃避防病毒软件的检测。

5. 创建虚假社交媒体资料或聊天机器人帐户:恶意行为者可以使用ChatGPT从受害者那里收集敏感信息,这些虚假资料可用于冒充真实的人或组织来诱骗受害者提供个人信息,例如登录凭据或信用卡号。

6. 生成旨在操纵或欺骗受害者的自动消息:恶意行为者可以使用ChatGPT 在社交媒体或论坛上生成数千条自动消息,传播虚假信息或宣传以影响公众舆论或破坏政治活动。

理性使用AI工具

从技术的复杂性到人为因素,个人和企业在确保AI网络安全的过程中面临着诸多挑战,尤其是需要高度重视机器、人类和道德因素之间的平衡。

巴黎政治大学已宣布,禁止使用ChatGPT等一切基于AI的工具,旨在防止学术欺诈和剽窃;外国专家表示ChatGPT将增加虚假信息风险;斯坦福团队推出DetectGPT,阻止学生用AI写作业。ChatGPT面世仅2个月,就已经影响到了人类社会。人们在畅想高科技的未来社会的同时,也在担忧ChatGPT对于网络安全的影响。

由此可见,制定应对策略对于兼顾经营道德和网络安全至关重要。建立有效的治理和法律框架能够增强人们对AI技术的信任,并促进社会公平和可持续发展。因此,AI和人类之间的微妙平衡将成为实现网络安全的关键因素,其中信任、透明度和责任感为机器带来了补充优势。

(转载自“太原保密”微信公众号)

微信公众号 :

YANANBAOMI


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1