开发出ChatGPT产品的OpenAI公司“掌舵”山姆·阿尔特曼,最近正忙着满世界“巡演”。此前一向以“技术宅”形象示人的阿尔特曼,在亚洲、欧洲和美国与政治人物和行业领袖会面,呼吁建立类似于联合国的全球统一的AI监管机构。
6月6日,阿尔特曼对媒体表示,OpenAI没有上市计划。随着AI技术进一步强大,危险性也越来越高。他希望保持对公司的完全控制权,以防止危险外溢。
↑OpenAI创始人阿尔特曼
阿尔特曼:
公司结构奇特,无意上市
当地时间6月6日,阿尔特曼的“巡回演出”来到阿联酋的阿布扎比。阿联酋AI管理部门代表安德鲁表示,该国愿意展现出“强国的风范”,在全球AI监管规则建立过程中尽一份力。
近期芯片巨头英伟达乘着AI东风,市值突破万亿美元大关。如果提供AI底层大模型的OpenAI能够公开上市,将极大地刺激全球投资者的想象力。不过在被问及是否会让OpenAI上市时,阿尔特曼给出了坚定的回答:“我不想被股东大众和华尔街等起诉,所以答案是‘不’,我对上市不感兴趣。”
OpenAI成立于2015年,最初是一家非营利组织,该公司在2019年转为一家营利性初创企业,并从微软获得了10亿美元的投资。
OpenAI在向微软融资时曾宣布,将自身定义为有限盈利企业,这允许它筹集外部资金,但同时公司的运营不像一般企业那样以股东收益最大化为目标。今年1月,微软又向OpenAI提供了第二笔投资,投资额度据称高达100亿美元。OpenAI目前的估值据报道接近300亿美元。
阿尔特曼称:“我们有一个非常奇怪的结构,我们给自己设置了利润上限,所以我们可能会作出一些让大多数投资者感到非常奇怪的决定。”
他还表示AI技术发展速度非常迅猛,超过一般人的想象。“GPT-4将在几年后看起来像一个小玩具,不再会那么令人印象深刻。”
对于人工智能在很多工作岗位上迅速取代人类的现象,阿尔特曼评价称,未来的工作将和今天的许多工作大不相同,他并不认为AI的发展会让人类丢掉饭碗。
谈AI监管:
国际原子能机构是个好榜样
阿尔特曼一直对AI技术的安全性感到忧心忡忡,四处呼吁政府机构应当肩负起监管责任,为全人类的生存安全当好“看门人”。他表示,“我们面临着严重的风险,甚至是生存风险。世界面临的挑战,是我们如何管理这些风险并确保我们仍然能够享受AI带来的巨大好处。没有人想毁灭世界。”
今年5月,包括阿尔特曼在内的数百名行业领袖签署了一封公开信,警告称“减轻AI灭绝的风险,应该与流行病和核战争等其他社会风险一起,成为全球优先事项”。
阿尔特曼在5月去美国国会作证时指出,政府干预对于管理AI带来的风险至关重要。5月底他还去欧洲进行拜访,与西班牙、法国、波兰、德国和英国等国政要会面,讨论人工智能的未来和ChatGPT的进展。欧盟正计划推出世界首套人工智能监管法案,美媒称,该法案可能将成为AI领域的全球标准。
在昨天(6日)阿布扎比的这场会议上,阿尔特曼再次提出,要建立一个类似于联合国的机构统辖全球的AI监管。其间,他将国际原子能机构(IAEA)作为例证来阐述个人观点——后者是一个同联合国建立关系,并由世界各国政府在原子能领域进行科学技术合作的机构。
阿尔特曼说,“我们将国际原子能机构视为一个典范,所以让我们都设置一些‘护栏’吧。我认为面对AI发展,我们也可以达成这些共识。AI在今天并没有那么危险,但它很快会变得危险,在那之前人类有机会组织起来建立防护网。”
红星新闻记者 郑直
编辑 彭疆 责编 李彬彬