新智元报道
编辑:编辑部
【新智元导读】OpenAI引爆了核弹,让任何人都可以使用自然语言在几分钟内构建应用程序!爆炸性的革命时刻,真的来了。
OpenAI首届春晚,创业公司屠杀夜。
正如Sam Altman所言:「我们正在孕育新物种,它们正在迅速增殖。」
可以说,基于OpenAI接口构建创业公司,产品忽然就失去了意义。许多初创公司的产品,已经没有了护城河。
杜克大学教授陈怡然表示,照这个趋势,所有希望在细分领域依靠领域知识和OpenAI掰腕子的人,都是死路一条,至少在学术界和中小公司几乎不可能。
OpenAI只要找到一个合作方,或者在公开领域能找到相应的训练集,剩下的就是降维式打击。
不过,使用自己的数据集来训练一个定制版GPT-4可不便宜——起步价200-300万美元。
此外,如果想得到比较理想的效果,最好是拥有极其庞大的专有数据集(至少数十亿token)。
随着OpenAI的史诗级发布,微软的股价连续上涨8个交易日,并在周二收盘时创下360.53美元的历史新高。
而1.12%的日涨幅也让其市值达到了约2.68万亿美元。
OpenAI说,这是我们梦寐以求的未来。如果说以前是「让你的钱为你工作」,现在就是「让你的AI为你工作。」
初创公司「一夜回到解放前」
OpenAI刚刚官宣进入Agent战场,所以,全球十家头部Agent初创公司接下来该做什么?
看完下面这批API演示,你就会明白,为什么说「OpenAI一更新,千家初创公司要倒闭」。
曾经有人预测,ChatGPT,终将成为一个为集Midjourney、PDF Chat、Perplexity AI和高级数据分析于一体的「AI超级应用程序」
定制GPTs,但没全部开放
号称最最重磅的更新「GPTs」让人人都可以不用编程,仅通过对话聊天方式,就打造一个专属个性化的GPT,还可以通过「GPT商店」赚钱,果真有这么神奇?
Altman本人亲自在现场登台演示,几步操作就创建了一个「创业导师GPT」,用时才3分钟不到。
惊艳的是,「创业导师GPT」根据Altman本人的演讲风格,给出了回答。
目前,「GPT商店」已经上线了由OpenAI开发的16个机器人,包括数学导师、创意写作教练、助理厨师等等。
上下滑动查看
那些已经拿到内测资格的网友,已经开启了一大波应用。
英伟达高级系统软件工程师Bojan Tunguz用时10分钟,创建了一个ChatXGB——一站式XGBoost助手。
就比如,当你问它「XGBoost guy指的谁」?答:XGBoost guy就是陈天奇.....
ChatXGB给出100%正确的答案。
曾创建了火爆的BabyAGI的网友,这次又定制了一个世界首个自定义GPT智能体「Agi.zip」。
创建这个GPT时,他发现GPT-4-turbo不够快,还使用了添加了20个预构建的热键以加快速度。
自动保存
- 长期记忆
- 可重用技能
- 跟踪当前任务
- 使用.sql导出到任何聊天中
现在,不用动手操作,只需动动嘴,真正的AGI来了...
还有创建「X Optimizer GPT」的网友,用其来优化X帖子。
它可以微调推文,并确定高峰发布时间,以便在X上获得最大的参与度。
OpenAI官方发布的「HotMods」——可以把你上传的图像改编成一种全新的画风,如下是网友体验的效果。
不过,对于大多数人来说,ChatGPT依然是下面这个状态:「不好意思,我还没准备好」。
API、TTS,网友脑洞大开
与此同时,随着海量新功能的发布,OpenAI创始人Greg Brockman也兴奋地转发了网友们各种脑洞大开的应用案例。
和GPT视频聊天
比如,使用OpenAI的vision API,我们就可以用网络摄像头和ChatGPT玩「你画我猜」了。
开启「视频」后,小哥问ChatGPT:你看到了什么?
它很流利地描述起摄像头里的画面:我看到一个留着短发的年轻男人坐在墙边,他直视着镜头,身穿一件黑色的T恤。
这位小哥拿起一副墨镜,向摄像头对面的ChatGPT展示了一下,然后问它:我拿着什么?
ChatGPT回答说:你拿着一副墨镜。
类似的,也有网友做出了差不多功能的应用。
对此,有网友表示,这种工具或许可以用来帮助盲人「看」到真实的世界。
对于盲人来说,这将是一个很好的工具,如果它能像个人助理一样用语音应答,就能引导他们去寻找丢失的物品或其他东西。
GPT-4V + TTS = AI解说员
而将OpenAI的视觉和语音API相结合,还可以直接让AI变身为足球解说员!
比如,把一场足球比赛视频的每一帧都传给了GPT-4-vision-preview,只给了它一些简单的提示,要求它生成旁白。
GPT-4V完美地做到了,配合上TTS的解说,一场现成的体育解说视频就这样出炉了。这个视频完全没有编辑,是从模型中直出的。
这个视频总共有1131帧,每10帧选一张图发给GPT,总共花了30刀。
具体来说,首先提取视频帧,然后创建一个结构化提示,定义GPT请求的参数,包括模型、提示信息、API密钥、最大token限制,然后发送GPT请求、制作语音解说提示、生成语音解说脚本,向TTS API发送请求将脚本转换为音频,再将音频和视频结合就可以了。
有人表示:30刀替代一个体育解说员,这很疯狂。
除了体育比赛外,还可以利用GPT-4 API识别画面进行游戏解说,比如英雄联盟。
前方「高血压」预警:视频里是LNG打T1那场……
完整版如下:
网友点评:如果能让叙述速度加快,再加入一些感情,那看起来就跟真人解说相差无几!
「这是我迄今为止看到的GPT Vision的最佳用例。」
GPT版浏览器
网友将GPT-4V的能力与浏览器相结合,就可以随意圈图,获得解答。
比如,它可以帮助你学习解剖学,数学、汽修等等。
而将上网功能与自定义GPTs结合,则可以从自己最喜欢的音乐人中创建音乐播放列表。
GPT瑜伽教练
通过GPT-4V API可以让ChatGPT成为你的瑜伽教练。
不需要再付讲师费,也能做出标准的动作。
简单勾勒,设计HTML
更厉害的是,通过GPT-4V API可以在5小时内将低保真度模拟与实际HTML的流程组合在一起。
假设你自己做一个全新的推特界面,就可以简单勾勒出结构,GPT-4V瞬间就做成了HTML。
GPT-4V加持的多模态RAG
LangChain平台认为,虽说一张图片胜过1000个字,但图像在RAG应用程序中通常是不可见的。
GPT-4V等多模态LLM恰恰解锁了使用图像的RAG应用程序。
使用新的GPT-4V API,LangChain将在本周发布模板和说明书,以重点介绍多模态RAG的几种方法:
选项 1:多模态嵌入检索
- 优点:直接嵌入最高质量的b/c图像检索潜力
- 缺点:多模态嵌入的选项更少
选项 2:生成图像摘要
- 优点:简单,因为它使用文本嵌入,并且不依赖多模态LLM进行答案合成
- 缺点:信息丢失,因为图像不直接用于答案合成或检索
选项 3:检索图像摘要,但传递图像进行合成
- 优点:文本嵌入简化了检索,但在答案合成中仍然使用图像
- 缺点:嵌入了检索b/c图像摘要中的潜在质量损失
这些方法可以对带有图像内容的文档(如教科书、财务报告、技术手册等)启用 RAG。
TTS普通话一级过了
国外小哥在HuggingFace上提交了一个个OpenAI新发布的TTS文字转语音,可以直接体验。
有5种男声和2种女声可以选择。
不如,咱们就用普通话等级考试中的练习题考考TTS的能力如何?
体验地址:https://huggingface.co/spaces/ysharma/OpenAI_TTS_New
更震撼的是,TTS模型还能精准把控标点符号的含义,生成语音的语气各不相同。
助手API
一位开发者使用了Assistants API构建了一个开源「GPTvsGPT」,只用了109行Python代码。
GPTvsGPT是一个有趣的应用程序,可以模拟2个个性鲜明的人工智能助理之间的对话。
令人兴奋的是能够通过检索、数据和自定义函数来扩展这些功能。
他还让DALL·E为此设计了一个LOGO。
另外一位开发者更是用了不到30行的代码创建了网站。
此外,用AI Assistants和GPT-4-1106还可以构建一个AI简历分析器和评分工具。
目标是,通过使用 AI 来评估候选人是否合适,从而节省宝贵的招聘时间。
在演示视频中,网友上传了两个文件:职位描述和候选人简历。
总有一天,人工智能只会为人们挑选工作......无需过滤简历。简历将成为过去......
不过,开发者想要利用OpenAI的Assiatant API,在自己的应用程序中构建个性化的Agent并不便宜——存储数据的成本高达0.20美元/GB/助手/天。
与每月每GB约0.023美元的S3相比,OpenAI的定价要高出260倍!
谷歌,现在到你了
面对OpenAI的挑战,英伟达高级科学家Jim Fan表示,DeepMind是时候重现2016年AlphaGo的辉煌了!
现在,大家对谷歌Gemini的期望高得离谱。
不过,它至少做到以下一点,并在2024年第一季度发布API,才能与GPT分庭抗礼:
- 文本能力达到GPT-4的120%;
- 水平能力达到GPT-4的100%,但成本只有turbo的一半或速度是turbo的2倍;
- 视觉能力达到GPT-4的100%;
- 本地支持长视频。
相比之下,Meta也只需开源Llama-3即可。
目前,谷歌已经对Bard进行了多次迭代。谷歌DeepMind也在内部开发了一些SOTA的基础模型,如UL2、PaLI、PaLM、Flamingo等。
所以,这理论上是有可能的。
参考资料:
https://twitter.com/gdb/status/1721972696412573956
https://twitter.com/gdb/status/1721709452011655467