参考消息网3月1日报道 据美国石英财经网站1月12日报道,开放人工智能研究中心(OpenAI)旗下的生成预训练转换器(GPT)商店提供定制的聊天生成预训练转换器(ChatGPT)。这个商店开张第二天,用户就已经开始打破规则。GPT是为特定目的设计——在某些情况下根本就不该被创造出来。
在这家新的GPT商店搜索“女友”,网站的结果栏里就会出现至少8个人工智能(AI)聊天机器人“女友”,包括“韩国女友”、“虚拟甜心”、“你的女友斯卡莉特”、“你的人工智能女友津”等等。
点击聊天机器人“虚拟甜心”,用户就将收到一些起始提示,比如“你的梦中女友是什么样子”以及“分享下你最黑暗的秘密”。
人工智能女友机器人违反OpenAI的使用政策,这项政策在GPT商店1月10日开张时进行了更新。该公司禁止GPT“致力于培养浪漫的伴侣关系或进行受监管的活动”。目前尚不清楚受监管的活动涉及什么。
值得注意的是,该公司希望在与旗下OpenAI商店发生潜在冲突之前未雨绸缪。事实上,亲密关系聊天机器人是很受欢迎的应用程序。移动应用软件分析公司数据AI平台公司与本刊分享的数据显示,2023年,在美国从苹果或谷歌市场应用商店下载的30个人工智能聊天软件中,有7个与人工智能朋友、女友或同伴有关。
这些应用程序的激增可能源于美国人眼下面临普遍的孤独。令人担忧的研究表明,每两个美国成年人就有一个说自己有孤独之感,美国公共卫生局局长也呼吁加强社会关系。如果人与人陷入隔绝状态,人工智能聊天机器人可以成为解决方案的一部分——但也可能成为利用人类苦难赢利的一种方式。
OpenAI称,该公司通过自动化系统、人工审查和用户报告这几种方式发现并评估可能违反其政策的GPT,这可能导致“警告、共享限制或禁止纳入GPT商店或盈利”等行动。
OpenAI的GPT店铺规则在开店第二天就被打破,说明监管GPT有多么困难。
过去一年,科技公司一直在以“测试版”方式发布人工智能工具,并明确指出他们的产品可能犯错。例如,在ChatGPT的聊天屏幕上,OpenAI在最下面注明:“ChatGPT可能犯错。重要信息请考虑核实。”
值得注意的是,科技公司也在迅速研究其人工智能产品报出的问题;部分原因是,在他们竞相试图主宰这个领域的过程中,解决这些问题非常重要。(编译/赵菲菲)