当前位置:首页|资讯|OpenAI|微软|马斯克|ChatGPT

OpenAI变赚钱机器?马斯克炮轰:已完全违背初心!微软正加速寻求Bing变现

作者:格隆汇发布时间:2023-02-20

原标题:OpenAI变赚钱机器?马斯克炮轰:已完全违背初心!微软正加速寻求Bing变现

继ChatGPT全球爆火之后,争议也在不断涌现。

先看一则最新消息,全球首本由ChatGPT撰写、AI翻译校对的图书即将要出版了。作为全球出版界首例,在出书速度上再度刷新大家的认知。

据韩媒消息,韩国一间出版商Snowfox Books即将发行一本由ChatGPT撰写的书籍《寻找人生目标的45种方法》,这本书的翻译、校对和插图工作都由AI完成,预料本周三(22日)上架。

值得一提的是,ChatGPT只用了7小时,就完成了必要的信息和数据研究,然后用英文撰写了135页内容。

接着,韩国翻译软件Papago以2小时完成韩文翻译,并交由釜山大学AI实验室和韩国新创Nara Info Tech共同开发的AI韩文检查工具,协助校对与纠正。最终由美国AI影像生成公司Shutterstock AI完成本书封面设计。

据悉,因翻译、校对、印刷等工序繁琐,以往在韩国出版一本其他语言的韩文译作,通常要两到三年的时间。业内人士指出,在AI的帮助下,现在整个出版流程可以在一个周之内完成。

然而,有分析人士指出,AI负责出版的书籍很有可能涉及侵犯版权,也会引发AI生成内容产生的获利归属争议。

而除了侵权隐患之外,ChatGPT此前写假新闻、向人类表白等一系列操作“翻车”之后,近来马斯克对OpenAI也看法颇多。

在他最新的公开发言中,他指出OpenAI最初作为一家开源的非营利性公司,现在已完全违背初心。

马斯克炮轰Open AI

当地时间2月17日,马斯克在推特上回应网友@GRDecter表示:

OpenAI 最初是作为一个开源(这就是为什么我将其命名为“Open”AI)、非营利性公司创建的,以作为对谷歌的制衡,但现在它已经成为一个闭源的、最大利润的公司,由微软有效控制。
根本不是我想要的。

一直走在科技前沿的马斯克事实上与OpenAI渊源颇深。

2015年马斯克联合LinkedIn 创始人、Y Combinator总裁及 Pay Pal创始人等共同宣布创立 Open AI,目标是打造属于全人类的、开放的AI,定位是非营利性的。

不过,2018年马斯克离开了OpenAI,原因则是特斯拉也在研究AI,因此他退出了董事会,之后继续担任了顾问。

在2019年7月开始,OpenAI的主要合作对象变成了微软,从起初投资的10亿、20亿美元,到最新一期直接给了100亿美元。OpenAI也在迅速蹿红之后,获得了多方青睐,目前估值超过了200亿美元。

不过值得一提的是,马斯克对目前OpenAI的现状一直不满。一方面是,他认为微软控制了OpenAI;另外一方面,则是近来ChatGPT表现一度引起“AI威胁论”的担忧。

所以,近来马斯克时不时就开启嘲讽模式,并跑在了吃瓜前线。

此前他曾发推文晒出一张ChatGPT回复“创建一个非营利组织,然后在其下用非营利组织的资源衍生一个盈利公司”要求的聊天截图,并称“有趣"。

再稍早前,在网友提议微软需要关闭Bing中的类ChatGPT功能时,马斯克就曾回应称:

“同意,它显然还不安全。”

而对于ChatGPT的未来以及微软版Bing马斯克在推特上也陆续发布了多条关于ChatGPT的内容。

我们需要的是诚实的GPT。
ChatGPT版Bing让我想起《等待戈多》中的幸运儿。
微软开始寻求变现

虽然被马斯克直指把OpenAI变成赚钱机器,但微软想要变现的想法似乎一直未停。

据外媒2 月 18 日报道,微软已经接洽了多家广告业主,探讨如何在基于 ChatGPT 的新版必应(Bing)中投放广告,探索变现方式。

据悉,微软已经在新版必应中进行了测试,投放位置是在用户回复进行植入。微软已经和广告商 Horizon Media 的执行副总裁 Michael Cohen 接触,双方合作计划投放广告。Cohen 还表示 AI 生成的响应下方的空间可以放置广告。

值得一提的是,微软此前已经表示,在搜索市场份额每提高 1 个百分点,每年就会额外赚取 20 亿美元。微软积极探索变现方式背后,或许是ChatGPT高昂的训练和使用成本下的必然之路。

而对于必应搜索回答的安全性,日前微软表示,在必应聊天机器人多次失控几天后,公司将对其人工智能实施一些对话限制。

其中包括:与其聊天将被限制在每天50个问题;每个问题5条回复;此外必应AI不会谈论有关它自己的事情。

必应团队称:

“我们的数据显示,绝大多数人在5次回复内找到了他们想要的答案,只有大约1%的聊天对话有50条以上的消息。”

微软早些时候也曾表示,15个或更多问题的较长聊天对话,可能会让必应模型变得混淆,导致必应给出重复的答案,或者被激怒做出不一定有帮助的回应,或者与设计的语气一不致。只问五个问题就结束对话,必应就不会被搞糊涂。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1