昨天,微软德国 CTO Andreas Braun 表示,GPT-4 将于下周推出,并将包括多模态模型。这篇在德国新闻媒体 Heise 上刊登的报道立即引发了关于 GPT-4 首次亮相可能性的在线讨论,距离 ChatGPT 微调的 GPT 3.5 系列发布不到四个月。
巧合的是,与 Geoffrey Hinton 和 Yann LeCun 一起获得2018 年图灵奖的深度学习先驱 Yoshua Bengio 昨天也对 ChatGPT 和多模态模型的潜力发表了评论。
在一个名为“ChatGPT 缺少什么?”的虚拟问答中,Bengio说,目前在具有图像或视频以及文本的多模态大型神经网络方面的工作,将“极大地帮助”解决“世界模型”问题——也就是说,模型需要了解我们世界的物理学。
他还警告说,市场压力可能会促使科技公司对其 AI 模型保密而不是公开,围绕 ChatGPT 的“媒体马戏团”是一个“警钟”,提醒人们强大的 AI 系统有潜力对社会有益,又会带来重大的道德问题。
━━━━
ChatGPT提高了人们对AI潜力的认识
Bengio 强调,ChatGPT虽然令人印象深刻,但在科学上是“非常小的一步”,并将其称为“主要是工程的进步”。他解释说,从社会的角度来看,ChatGPT 更重要——也就是说,它让人们意识到人工智能可以做什么。
但是,他警告说,从道德和负责任的角度来看,应该由人类决定如何设计这些机器——这些机器在某种程度上已经可以通过图灵测试了。
“我们是要建立一个能帮助我们在哲学意义上过上更好生活的体系,还是仅仅成为权力和利润的工具?”他说。
━━━━
监管的必要性
在我们的经济和政治体系中,“正确的答案是监管,”他说,并指出初创公司愿意承担风险,这导致像谷歌和微软这样的大型科技公司“感到有必要加入竞争”。
他补充说,“从长远来看,保护公众对每个人都有好处,它使竞争环境变得公平——因此,那些更愿意为公众福利冒险的公司就不会因此而得到回报。”
他强调,目前正在讨论确保人工智能监管不会损害创新经济。“但它会减慢一些事情的速度,但这可能是一件好事,”他说。
━━━━
以长远眼光看待ChatGPT和LLM
Bengio 承认,目前,公司感到将ChatGPT和其他LLM引入他们的产品和服务的紧迫性。但他指出,学术界和一些公司也在着眼于更长远的未来。
“我们如何成为该领域的下一个大公司?我们如何领导?为此,你必须考虑缺少什么,失败模式是什么,”他说。“这种研究很难,可能需要数年才能得到答案。希望有些人能有远见,超越我认为现在正在发生的直接恐慌。”