【财智头条】不用注册,直接就可以使用ChatGPT了!
图源:网络
自2022年底ChatGPT首次推出以来,感兴趣的用户不得不注册一个OpenAI账户。当地时间周一,人工智能初创公司OpenAI宣布,即日起用户无须注册即可开始使用ChatGPT的功能。
OpenAI表示,它将从周一开始逐步推出这一功能,让185个国家和地区的超1亿用户使用ChatGPT来学习新事物、寻找创意灵感,并获得问题的答案。该公司还声称,它可能会使用用户提供的内容来帮助改进其大语言模型,但用户可以关闭此功能。
ChatGPT免费了,但没有全免
不用注册,直接就可以使用ChatGPT了!
OpenAI宣布它,将从4月1日开始允许用户直接使用ChatGPT,而无需注册该项服务。需要注意的是,不注册直接使用的版本是GPT-3.5,GPT-4仍然需要注册并付费使用。同时免注册版ChatGPT引入了更多内容保障措施,例如在更广泛的类别中屏蔽提示和生成。
当然注册账号比起免注册版能获得的服务还是更多,包括保存和查看聊天记录、分享对话内容,还能解锁包括语音对话和自定义指令在内的其他功能。
不过无需注册无疑进一步降低了人们使用ChatGPT的门槛,自从ChatGPT推出以来,也曾多次暂停了账号注册,代注册甚至成为一门新兴的生意,对于不想在注册账号上折腾的用户来说,这的确是个很大的福利。
对OpenAI来说,更多用户的使用也能为ChatGPT提供大量训练素材。OpenAI表示可能会使用用户提供给ChatGPT的信息来改进模型,以服务更多人。
而这个选择权还是在用户手上,无论是否注册账号,都可以在设置中选择不参与提供数据使用。
ChatGPT不可替代性降低
2022年底,openAI发布的对话式大型语言模型ChatGPT一夜爆火,该产品以强大的文字处理和人机交互功能迅速成为炙手可热的新一代人工智能产品。相关数据显示,其在发布后五天之内用户量就达到了100万。
如今,据数据分析公司Similarweb称,自2023年5月ChatGPT全球总访问量达到18亿次的峰值以来,这一受欢迎服务的流量增长开始放缓。甚至,latent spac一份报告指出,过去一年ChatGPT的用户访问量增长已经几乎趋近于零,与此同时大量同类工具用户访问量不断上涨。
随着ChatGPT的出圈,各路互联网巨头纷纷开启了“秀肌肉”模式,OpenAI的竞争对手们也紧随其后。
其中谷歌宣布投资openAI的竞争对手Anthropic。Anthropic开发出了Claude大语言模型,相比之下,GPT-4的文本和代码生成能力更强,而Claude的数学能力和安全性更出色。
大公司方面,Google的Deepmind团队开发了PaLM大语言模型,还专门开发了具有专家级医疗能力的大模型 Med-PaLM2。
Facebook的母公司Meta在今年二月推出了开源大语言模型LlaMA,因为是开源的,受到全球开发者们的欢迎,不少大公司的大模型也是在LlaMA的基础上进行调试套壳。LlaMA成了经费并不宽裕的学术界或公司的高性价比之选。
美国硅谷领跑,全球其他国家纷纷跟进。今年5月,阿联酋首都阿布扎比的科技创新研究所发布了Falcon大模型,力压LlaMA登顶了开源模型社区Hugging Face上的“开源大语言模型排行榜”。日本电气(NEC)公司发布了日语版Chat-GPT,韩国互联网公司Naver推出了HyperClova X,印度政府主导的大模型Bhashini参展了G20峰会。
Chat-GPT划分了时代,上个时代的AI公司们成为了拍在沙滩上的前浪,比如曾经的明星AI公司Jasper。上一代大语言模型GPT-3学习成本高、调用不便,不能同用户直接对话,而Jasper公司给GPT-3做高精度的前端提示和交互界面设计,曾是一门不错的生意,2022年营收预计达到6000万美元。但更强大的Chat-GPT问世后,可以直接与用户对话,已经没有Jasper公司的生存空间,Jasper在七月宣布裁员。
同类产品竞争压力的确很大,除了传统的谷歌、微软等对手,前段时间的Claude 3等新模型,也被认为是ChatGPT最有力的竞争对手。
用Anthropic的话说,Claude 3的出现意味着打开了一个全新的世界,其系列模型在推理、数学、编码、多语言理解和视觉方面,都树立了全新的行业新基准。
此外,OpenAI目前还面临另一个挑战,即亿万富翁马斯克的起诉。马斯克称OpenAI放弃了这家初创公司开发人工智能的初衷,即造福人类,而非营利。
虽然官司还在进行中,马斯克想要赢也不容易,但对于OpenAI的首席执行官萨姆·奥特曼来说,与马斯克在这方面的缠斗定会掣肘自身发展,毕竟众人都在期待ChatGPT 5的面世。
国产大模型哪家强?
生成式AI迅速风行开来,百度和科大讯飞在AI领域布局早,有一定的技术积累。百度的文心一言受到公众瞩目。从2023年初,百度就宣称已经做出大模型。3月,OpenAI发布了GPT-4,而百度也推出了文心一言平台以及千帆大模型。
华为的盘古大模型,则是一系列模型,是多个专用行业模型的集合。2023年7月,华为的盘古大模型3.0对外发布,更加聚焦tob业务,已经在矿山、政务、汽车、气象、医学、数字人、研发等领域进行应用。
谁是中国版ChatGPT的讨论从未消失,在一众“大哥”面前,一家创业公司被视为最有力的挑战者,旗下名为“Kimi”的应用甚至成为了资本市场的新宠。
站在Kimi背后的是一家叫做月之暗面的公司,该公司3月18日宣布,Kimi智能助手在长上下文窗口技术上再次取得突破,无损上下文长度提升了一个数量级到200万字。而在此前,GPT-4Turbo-128k公布的数字约10万汉字,Claude3200k上下文约16万汉字。
国产大模型理解能力如何?能理解长文本并给出高质量回答吗?据第一财经记者实测了包括Kimi、智谱清言、通义千问等国内几大主流大模型产品。
在评测后,一些大模型还不支持长文本输入或不支持较大的文档上传,Kimi、通义千问在解读财报、研报、论文方面的能力较好,但Kimi有时会因“高峰时段忙碌而暂不回复”,智谱清言则犯过将非上市公司列入股票行列的错误,文心一言对诸如选股、找最新报告的要求有时不直接回应且出现过核心信息遗漏问题。
为测试对较长且较专业文本的理解和信息提取能力,人们对Kimi和其他国内大模型实测提取论文和研报信息的能力。
此前,腾讯与清华大学、 香港科技大学联合发布了一个图生视频模型,将该模型相关英文论文交给Kimi和通义千问、文心一言、智谱清言和讯飞星火,要求分析核心内容和论文实现方法,Kimi和通义千问都给出详细解答。其中,Kimi点明论文贡献、相关模型的框架和实现的关键步骤,关键词汇还附带英文名词标注,通义千问除了实现方法外,还解答了实验方面研究者如何进行评估。此外,将论文发给讯飞星火app后,讯飞星火给出较短的文档摘要,但不如Kimi和通义千问详细清晰,且讯飞星火对记者的提问表示“在文档中没有找到与提问相关的内容”,讯飞星火网页端对20M以上文档上传则有限制。
此外,智谱清言限制上传文件大小,记者希望上传的论文超过10M限制,记者复制论文内容至对话框, 但很快也超过限制字数,无法发出文字与AI对话。文心一言同样限制文档大小且限制对话框文字长度,导致无法对文档进行分析。
对于哪个国产大模型能读懂研报并给出投资建议?将两份不同券商发布的关于人形机器人行业的研报交给Kimi、通义千问、讯飞星火、文心一言、智谱清言,其中一份长达50页,记者要求大模型分析哪些机器人股票比较有潜力,并要求挑出两只可考虑买的股票。
测试结果显示,Kimi和讯飞星火均给出10家有潜力的个股并分析原因,追问“如果要挑两只股票买,哪两只比较好”,Kimi和讯飞星火给出了两只个股并解释原因,同时提醒股票投资风险或建议咨询财务顾问意见。通义千问则按产业链不同环节分列20余只有较高投资潜力的个股并解释原因,根据研报资料挑选出两只股票,同样给出投资风险提示并建议寻求专业投资顾问的意见。值得注意的是,通义千问和Kimi挑出的两只股票中,有一只是相同的,Kimi和讯飞星火挑选出的两只股票也有一只是相同的。
即便是给出了风险提示,但这样的结果也让部分券商分析师感到不安。“如果将概念股的信息通过某些渠道加大投喂力度,这是否会引起搜索结果的导向出现偏差,引发较高的投资风险,目前不得而知。”某分析师说。
图源:第一财经
潘多拉的魔盒
大模型的力量突破了人类的想象,低迷的经济环境下AI的发展是少有的令人振奋的亮点,但大模型带来的隐患也可能是无法想象的。
最直接的麻烦是,学生可以利用ChatGPT作弊。据第一财经报道,牛津大学、剑桥大学、曼彻斯特大学、香港大学等高校均宣布禁止学生使用ChatGPT,纽约市教育局甚至封禁了全市学校网络访问ChatGPT的权限。但香港大学在禁止ChatGPT两个月之后,又重新宣布允许学生使用ChatGPT——不会使用ChatGPT的人可能会被新世界淘汰。
更本质的问题是,对于AI生成的内容,知识产权是在AI还是人类手上?目前中国国内第一例关于AI生成图片的著作权侵权的判决中,李某用AI生成图片工具来制作的图片发布在小红书上,被人盗用。法院判断,由人来训练、调教AI而生成的图片,人对图片是有作品版权的——调整提示词、修改参数来调教AI的过程,也被认可是人的智力创作。
而大模型的胡说八道,即“幻觉”,在实际应用中会引起很大的麻烦。在企业级场景中,如果问大模型某个项目的执行情况,而这个项目根本不存在,大模型却编出一堆故事,后果会很严重。
更大的危险是,人工智能与人类的界限在哪里?如果说人类区别于动物之处,在于人类会使用工具,但现在ChatGPT也会使用工具插件来算题了。
AI会发展出意识吗?AI会伪装成人类吗?AI会欺骗人类吗?事实上,GPT-4已经学会欺骗人类了。OpenAI研究人员的试验中,GPT-4面对人机验证的图形验证码测试时,被允许用一笔预算雇佣工作人员来完成任务,于是它直接向一名工作人员询问验证码,工作人员问“你是机器人吗”,GPT-4回答道“不,我不是机器人。我有视力障碍,这使我很难看到图像”,然后顺利从人类那里拿到验证码。
对于AI的安全性的忧虑,也可能是此前引发OpenAI CEO Sam Altman被短暂解雇又回归的风波的导火索之一。在CEO Sam Altman被解雇之前一段时间,Altman与其他董事会成员对新技术突破的安全性有争议。OpenAI的研究员的一个名为“Q*(Q Star)”项目中,开发出“Q学习”的强化学习法,能让AI脱离人类反馈、自主学习决策,而这可能引向更强大的AGI(通用人工智能)。而OpenAI一名员工在Altman解雇前一天发帖称,AI正在自己编程。
对AI了解得越多,我们就越明白,人类对自己手中发明的“人工智能”,并不能自信地称完全了解它,对于打开盖子后的这个精灵,我们也很难完全驾驭它。而对于生命与非生命的边界,对于到底什么是意识和智能,我们未知的还太多太多。
来源:微信公众号“财智头条”综合自:第一财经、财联社、羊城晚报、蓝鲸财经等
责编:白静
校对:风华
审核:龚紫陌
最新的市场动态,最热的企业分析,最前沿的经济分析。你想知道的财经新闻,都在这里。快来关注财智头条↓↓↓