自ChatGPT推出近半年以来,其已转为影响科技领域的动力量,此前仅为新鲜事物。据有相关机构的调查统计,早在今年 1 月份,ChatGPT 用户数量已经突破 1 亿。
由于ChatGPT 具有高智商的特点,因此使用方法自然而然多种多样——有人用它来编写代码,有人用它生成学术论文,甚至至还有人将其用于股市交易。尽管如此 OpenAI 始终坚称 ChatGPT 仍在测试阶段,但公司已经推出了 GPT-4 的升级版 ChatGPT Plus,月费为 20 美元。
我们经常使用ChatGPT的网页版界面,但有没有更快捷的使用方式?在当场时间周四(5月18日),OpenAI在其官网上发布了一个消息,宣他们在美国推出了适用于 iOS 设备ChatGPT 的应用程序,并表示应使用程序将在“未来几周”内扩展到其他国家。该应用程序可免费下载,OpenAI 表示支持保持卓越系统的应用程序也将“很快”到来。
该应用程序免费使用(需要绑定 ChatGPT 账号),并且可以跨设备实现同步历史记录。此外还集成了 OpenAI 的开源语音识别系统 Whisper,支持语音输入。
有意思的是,虽然 ChatGPT 率先登录了苹果 iOS 系统,但据外媒报道苹果已经通过内部文件,限制在公司内使用 ChatGPT 或其他外部 AI 工具。
一时之间,网友们热议不断:苹果这是在玩什么“反向操作”?
显然,苹果的这一操作并非无中生有。
根据文件信息,苹果担心使用 ChatGPT 或其他外部 AI 工具的员工可能会泄露机密数据,因此禁止其在工作中使用。此外,文件还明确禁止工作人员使用微软件的 GitHub Copilot 生成代码。
一直以来,苹果以其严格的安全措施来保护未来产品和消费者数据而闻名。
ChatGPT 在现世后两个月后,活跃用户就已经达到了 1 亿。作为一个大型语言模型衍生而来的聊天机器人,ChatGPT 的强大功能毋庸置疑,但当人们使用它时,数据会被发送回开发人员以实现持续改进,从而使组织有可能无意中共享专有或机密信息。
尤其是,早前关于信息问题的“前车之鉴”比比皆是。
3 月 20 日,ChatGPT 平台出现了一次用户对话数据和付款服务信息丢失的事故。
OpenAI 官网截图
3 月 31 日,意大利隐私监管机构表示,它已经屏蔽了有争议的 ChatGPT ,并表示这款人工智能应用程序不尊重用户数据,也无法验证用户的年龄。
随后,意大利个人数据保护局也质疑 OpenAI 用于训练平台算法的“大规模收集和处理个人数据”是否有法律依据。
随后,OpenAI CEO 山姆·奥特曼也做出了相关回应:“我们当然遵从意大利政府,并已停止在意大利使用 ChatGPT,尽管我们认为遵守了所有的隐私法。”
4 月,欧盟执法机构欧洲刑警组织警告称,ChatGPT 可能被滥用于网络钓鱼、虚假信息和网络犯罪,这引发了从法律到道德问题等一系列担忧。
事实上,苹果并非第一家禁止员工使用外部 AI 工具的科技巨头公司。
今年3月,美国推特公司CEO马斯克和人工智能领域顶尖专家本吉奥等千人联名签署了一封公开信,主张在开发强大的AI系统之前,应先确认其带来影响是积极的、风险是可控的,并呼吁暂停开发比GPT-4更强大的AI系统至少6个月,称其“对社会和人类构成潜在风险”。
3 月 30 日,据韩国媒体《economist》报道,三星内部发生三起涉及ChatGPT误用与滥用案例,包括两起“设备信息泄露”和一起“会议内容泄露”。
为杜绝类似事故再发生,三星正在制定相关保护措施,防止通过ChatGPT发生信息泄露事故。该公司向员工表示“若采取信息保护紧急措施后仍发生类似事故,公司内部网络可能会切断 ChatGPT 连接”。
5月初,美国副总统哈里斯会见了微软、谷歌和另外两家开发人工智能的公司的负责人,讨论人工智能的潜在风险。拜登政府明确向这些企业高层表示,他们必须在推出产品之前确保其安全性。
据新京报,当地时间5月16日,美国国会参议院举行一场名为“AI监管:人工智能的规则”的听证会。OpenAI首席执行官山姆·阿尔特曼呼吁立法者监管ChatGPT等人工智能系统。“如果这项技术出问题,那将是很大的问题。”阿尔特曼提出了成立监管机构、引入许可证制度、建立一套安全标准等监管建议。
阿尔特曼记录了ChatGPT等技术呈现的“危险”行为,包括“在一对一互动中传播虚假信息”和“情绪操纵”等。阿尔特曼还承认,人工智能可被用于控制无人机袭击。
此外,阿尔特曼还回避了涉及艺术家作品版权的提问。当被问及OpenAI公司是否会在其聊天机器人中投放广告时,阿尔特曼给出了一个含糊的回答,“我不会说永远不会。”