当地时间周三(7月26日),微软、谷歌和OpenAI等公司发布联合公告,宣布成立前沿模型论坛(Frontier Model Forum),致力于确保安全、负责任地开发前沿人工智能(AI)模型。
前沿模型论坛将在未来几个月成立一个咨询委员会,并安排一个工作组提供资金,还将成立一个执行委员会来领导其工作。
微软总裁布拉德·史密斯在一份声明中表示:“开发AI技术的公司有责任确保其安全、可靠,并仍处于人类控制之下。”
史密斯称:“这一举措是将科技行业聚焦在一起,负责任地推进AI,应对挑战,使全人类受益的重要一步。”
OpenAI负责全球事务的副总裁Anna Makanju发表声明称:这是一项紧迫的工作,这个论坛有能力迅速采取行动,推进AI的安全状况。”
像聊天机器人ChatGPT这样的生成式AI工具,可以根据简单的提示创建文本、照片甚至视频,这引起了监管机构的警惕。
包括欧盟在内的政府机构和包括OpenAI首席执行官萨姆·奥特曼在内的行业领袖都表示,有必要采取适当的防范措施来应对AI带来的风险。
白宫上周五宣布,已与大型科技公司达成协议,为AI开发设置更多防护措施,包括开发水印系统等,来控制误导信息的传播和其他风险。白宫称,包括微软、谷歌和OpenAI在内的七家主要AI公司做出自愿承诺,帮助实现AI技术安全、可靠和透明的发展。
微软、谷歌和OpenAI等公司的举措说明,科技公司试图赶在监管机构之前制定AI开发和部署的规则。
然而,多年来,政策制定者一直表示,在经历了十多年的隐私漏洞和危及儿童网络安全的事件之后,不能相信硅谷会制定自己的护栏。
密苏里州共和党参议员Josh Hawley周二表示,目前在AI领域处于领先地位的公司,包括谷歌、Meta和微软等,正是当初试图逃避监管机构对社交媒体监管的公司。
来源:财联社