在OpenAI内部,一场关于金钱和权力的风暴正悄然酝酿。本文将深入挖掘这场薪酬风波背后隐藏的权力游戏,揭示公司高层之间的激烈斗争和员工团队的立场。在这个故事中,金钱和利益的角力场不仅仅是数字游戏,更是一场关于未来科技道德与商业价值的较量。
近日,一份薪酬表格的曝光,再次引发了公众对于科技公司薪酬的关注与热议。在这张薪酬表格之中,OpenAI以高达600万元的年薪位居榜首,令人瞩目。这一数字相较于其他大型科技公司而言,显得异常的醒目。
顶级公司的AI工程师到底能赚多少钱?
数据来源:Rora Research(薪酬谈判公司)
从以上表格之中我们可以得知,OpenAI慷慨的提供给员工的年薪高达86.5万美元,其中底薪为66.5万美元,年薪增幅更是高达30%。
从之前一份由美国科技公司数据收集网站发布的报告中,揭示了OpenAI的薪资表现。OpenAI的软件工程师中位数年薪达到92.5万美元(约人民币673.4万元)。这一数值对应的是OpenAI五级软件工程师的工资水平,其中包括,30万美元的基本薪资和62.5万美元的股票补偿,而这一类五级软件工程师通常都有着大约10年的工作经验积累。
报告中提及,最低工资标准是针对那些拥有2-4年工作经验的工程师,其年薪为21万美元,其中不包括股票补偿。据了解,OpenAI的一些高级软件工程师每年的收入可达到140万美元,这凸显了其对于高级人才的优厚回报政策。
从表格中可以对比看出,Google Brain最终年薪:69.5万美元、Google Research最终年薪为54.9万美元;微软的初始年薪为27.0万美元,最终年薪为44.9万美元,谈判涨幅达到66%;而苹果的初始年薪为33.7万美元、最终年薪为45.0万美元,谈判涨幅为33%。
总体来说,OpenAI的最终年薪要比Google Brain、Microsoft Research和Apple的高不少。苹果在薪资介于Google和Microsoft之间,处于中等水平。
OpenAI与谷歌、微软和苹果等公司相比较,在薪资上处于遥遥领先的地位,这也反映出了OpenAI对于行业内顶尖人才的渴望,有助于确保其能够吸引并留住高端人才。
回想前段时间OpenAI的宫斗大戏,其员工明显站队CEO Altman,从薪酬就能看出原因。OpenAI开出天价薪酬,难怪其员工不舍得其离开,并做出了签署联名信来威胁董事会一事。
相信很多人还记得之前吃到的惊天大“瓜”,那场“内斗”大戏可谓是让人大开眼界。
在被OpenAI董事会“踢出”公司之后,前OpenAI的领导者Sam Altman再一次踏足公司时,身份上面发生的改变令其不禁发出感慨“这是我第一次,也是最后一次佩戴访客牌”。
就在外界普遍认为Altman离开OpenAI一事已然成为定局之时,此事又迎来惊天大反转,超过500名的OpenAI工作员工集体签署了一封联名信,这封信宣称,除非公司董事会集体辞职,并重新委任 Altman成为首席执行官,否则这些工作员工将可能会选择离职,并且投身到 Altman在微软的团队之中工作。按照OpenAI总计员工人数约有770人员工,这封签署联名信的员工占据了其公司总人数的六成以上。
也有消息透露,OpenAI的投资人也向其董事会进行施压,呼吁重新聘任 Altman出任OpenAI的CEO,其中包括最大的股东微软、风投机构兴盛资本等,希望促使 Altman“官复原职”。
投资人以及员工们到底为何对 Altman如此推崇,以至于员工甚至愿意牺牲自己的工作,来推动Altman重新回到OpenAI?这是个令人深思的问题。
回顾OpenAI的发展历程,作为初创团队成员之一的Altman,可以算得上是公司的元老级成员,也为其做出了重要的贡献。然而,对于Altman被OpenAI“踢掉”的事情,OpenAI方面表示,在Altman离职之前,经过了认真的审查,董事会得出的结论是, Altman在与董事会沟通之中表现得不够坦诚,这阻碍了其履行职责的能力。因此,董事会失去了对他继续领导OpenAI的信心。
但还有猜测或是与Altman在安全上面的冒进和过度商业化,引发董事会其他成员(包括联合创始人lllya)的不满有所关系。
但是联合此次OpenAI薪酬暴露一事,就可以看出,Altman力推OpenAI的商业化,这导致OpenAI营收和估值都很高,这也是OpenAI员工能够拿到高薪的基础。
从这个角度来看,目前Altman的路线,是比较符合OpenAI员工利益的,这或是其受到了员工拥戴的最主要原因。
OpenAI宪章,明文规定“我们首要的受托责任是对人类负责。我们预见需要整合大量资源来实现我们的使命,但是我们将保持勤勉行动使雇员与利益相关方之间的利益冲突最小化,这种冲突会损害广泛利益。”
从这个规定可以看出,OpenAI宪章规定,人类的信托责任,要高于员工和投资人等利益相关方,并且他们在设立之初就预见到了将来雇员(员工)、投资人等利益相关方,将与其对人类的信托责任产生冲突。从OpenAI前段时间的“宫斗”剧中,可以分为两派:
首席科学家lllya为代表,他们更关注人工智能的安全性,避免失控AI对人类的威胁。为了达到这个目标,其宁愿OpenAI放慢研发步伐,在找到安全解决办法之前,不贸然推进更高级AI的研发;
首席执行官Altman为代表,他们更关注OpenAI的商业化能力,只有更好的商业化,才能有更多的资金,公司估值也才更高。
OpenAI的员工,当然希望公司能挣更多钱,公司估值也越高越好,因为他们的薪酬结构中,有很大一部分是股票。为此,他们甚至希望公司能早点上市,早点实现财务自由。与这个相比,人工智能对于人类的风险,就要先放一边了。
所以,这个时候,OpenAI的员工以及投资人的利益,明显与全人类的利益产生冲突了。如果完全以OpenAI当初制定的宪章为准,那人类的信托责任是要高于员工和投资人的,应该以人类的利益为重。
然而,从OpenAI那场宫斗大戏的最终结果来看,当员工利益与人类信托责任产生冲突的时候,OpenAI还是选择了员工、投资人等利益相关方的利益。因为这个时候做选择的就是这些利益相关方,他们不太可能为了人类大义,来损害自己的利益。
其实,我们把视角放大一点,会发现一个更严重的问题——在AGI这场竞赛中,部分利益群体与整个人类利益很可能是冲突的,很可能某些群体以损害全人类利益为代价,来满足一己私利。
在AGI这条道路上的军备竞赛,各个科技巨头都铆足了劲要训练更复杂、更强大的神经网络模型,不想竞争对手超过自己。但从全人类的角度来看,这些公司的军备竞赛,跟当初核武器的军备竞赛何其相似。
只是当初核武军备,是国家之间的竞争,而现在AGI的军备竞赛,是谷歌、微软、亚马逊、Meta、OpenAI,以及国内的百度、阿里巴巴、华为、腾讯、京东、科大讯飞、智谱AI等科技公司的竞争。
这些公司为了自己的市值,公司里的员工为了自己能有更好的收入,会争先恐后的训练更强大的AI模型。至于安全措施,尤其是避免AGI失控的措施,实际上已经被放在一边了。换句话说,人类的信托责任被放在一边了。
OpenAI最开始是比较理想主义的,他们甚至专门制定了一个《宪章》,明确提出以人类的信托责任为第一要义。但到后来,那群人还是为了自己的利益,违背了当初的信念和承诺,变得越来越商业化,越来越追逐利益。
要知道,OpenAI最开始可是由一个理念汇聚起来的一群人,既然他们都无法做到“舍己为全人类”,还能指望其他公司能做到么?
而且,在AGI这个领域,跟当初的核武器竞赛类似,吃亏的都是“老实人”。你不做自然有其他人做,并且别人做了,你就吃亏了。某种程度上,人类陷入了一种“囚徒困境”。
为什么这么说?
将AGI竞赛与囚徒困境进行类比分析时,我们可以发现几个核心相似之处:
1、互相不信任的参与者:在囚徒困境中,两名嫌疑人因为彼此不信任,倾向于做出对自己有利但对双方都不理想的选择。同样,在AGI竞赛中,各个参与者也可能由于不信任其他参与者会克制自己,而选择加速开发AGI,即使这可能导致安全风险增加。
2、最优选择带来集体不利结果:在囚徒困境中,虽然合作是最佳的集体结果,但个体选择自保导致了双方都受损。在AGI领域,如果所有参与者都选择迅速发展AGI而忽略安全考虑,这可能导致不可控的风险,对整个人类社会不利。
3、竞争与合作的冲突:与囚徒困境中的合作与自利选择相似,AGI的竞赛也面临着短期内的竞争与长期合作的抉择。选择竞争可能带来短期优势,但风险是集体安全和利益的损失。
因此,AGI的竞赛可以被看作是一种囚徒困境,它揭示了在缺乏足够信任和合作的情况下,如何平衡个体利益与集体最佳利益的复杂性。
作为地球上几十亿人,绝大部分都只能是这场AGI竞赛的看客。但是,如果有什么不利的后果,却要我们所有人来一起承担。
这真的很不公平!
硬核翻译局 2023-04-21
田丰说 2024-09-23