图片来源:由无界 AI生成
人工智能在2023年成为主流——这项技术的出现由来已久,但要达到人们在科幻小说中对类人机器的幻想,还有很长的路要走。
ChatGPT无疑引领了这一年的人工智能热潮。这个聊天机器人让世界看到了计算机科学的最新进展,尽管并不是每个人都知道它是如何工作的,也不太清楚该如何使用它。
人工智能先驱科学家李飞飞表示:“我认为这是一个拐点时刻。在历史上,2023年有望因技术的深刻变革和公众的觉醒而被铭记。这也显示了这项技术有多惊人”。
这一年,人们执着于弄清楚“这是什么,如何使用它,有什么影响?包括所有好的、坏的,甚至恐怖的影响”,她表示。
01.人工智能造成的恐慌
2023年初,新年伊始不久,第一次人工智能恐慌就开始了。当时教室重新开放,从西雅图到巴黎的学校都开始禁止ChatGPT。
学生们已经开始向这个于2022年底发布的聊天机器人“请教”,要求其帮助撰写论文并回答课后作业。
ChatGPT等技术背后的人工智能大型语言模型,是在“学习”了大量人类作品的模式之后,通过反复猜测句子中的下一个单词来工作。
它们经常会一本正经、错误地给到一些“事实”。从输出结果来看,却显得如此自然,以至于引发了人们的好奇心,对人工智能下一步发展及可能用来施行诡计和欺骗的可能有所担忧。
随着新一批生成式人工智能工具的出现,人们的担忧逐渐升级——它们不仅能撰写文字,还能产生新奇的图像、音乐、合成声音。
这威胁到了所有以写作、绘画、编曲或编码为生计的人,甚至引发了好莱坞作家和演员的罢工,以及视觉艺术家和畅销书作家的法律诉讼。
人工智能领域一些受人尊敬的科学家警告说,这项技术的无节制发展正在超越人类,并可能威胁到人类的生存;而其他科学家则称他们的担忧过于夸张,或提醒人们注意更直接的风险。
到今年年底,人工智能危机已经转移到ChatGPT自己的制造商——旧金山初创公司OpenAI,其CEO引起了一番“戏剧性的动荡”。
人工智能危机同时转移到了比利时的一个政府会议室,来自欧盟各国的政治领导人在经过数天的紧张会谈后,最终达成了一项协议,制定了世界上首个重要的人工智能法律保障协议。
新的人工智能法律需要几年时间才能完全生效,而包括美国国会在内的其它立法机构距离颁布自己的法律还有很长的路要走。
02.炒作过度?
毫无疑问,2023年推出的商业人工智能产品包含了人工智能研究早期阶段无法实现的技术成就,这些研究可以追溯到20世纪中期。
市场研究公司Gartner自20世纪90年代以来一直在追踪新兴技术的“炒作周期”。想象一下,一辆木质过山车“嘀嗒嘀嗒”地驶向最高峰,即将冲下Gartner所描述的“幻灭的低谷”,然后再驶回现实。
Gartner的分析师Dave Micko表示:“生成式人工智能正处于期望膨胀的高峰期,供应商和生产商围绕其能力、及提供的帮助进行了大肆宣扬。”
谷歌本月对其功能最强的人工智能模型Gemini的视频演示进行了剪辑,尽管使其看起来更令人印象深刻,也更像人类,但仍然招致了无数批评。
Micko表示,领先的人工智能开发商正在推动某些应用最新技术的方式,其中大部分都与他们目前的产品线相对应——无论是搜索引擎还是工作场所生产力软件。但这并不意味着全世界都会这样使用它。
他表示:“尽管谷歌、微软、亚马逊和苹果都希望我们采用他们的技术思维和技术交付方式,但我认为,采用实际是自下而上的。”
03.这一次人工智能商业化有什么不同?
人们很容易忘记,这并不是人工智能商业化的第一波浪潮。
李彦宏和其他科学家开发的计算机视觉技术帮助人们整理庞大的照片数据库,识别物体和人脸,并帮助引导自动驾驶汽车。语音识别技术的进步使Siri和Alexa等语音助手成为许多人生活中的固定工具。
Siri Inc.的联合创始人Tom Gruber说道:“当我们在2011年推出Siri时,它是当时增长最快的消费者应用,也是人们经历过的人工智能的唯一主要主流应用。”
Gruber认为,现在发生的事情是人工智能领域“有史以来最大的浪潮”。既带来了新的可能性,也带来了新的危险。
Gruber表示:“我们感到惊讶的是,通过训练机器在互联网上玩接龙游戏,我们竟然意外地遇到了这种惊人的语言能力。”
危机可能会在2024年迅速到来,因为美国、印度和其他地方的重大国家选举可能会充斥着人工智能生成的“深度伪造”。
Gruber认为,从长远来看,人工智能技术在语言、视觉感知和分步规划能力方面的快速提升,可以为数字助理的愿景注入新的活力,但前提是它们必须能够进入“我们数字生活流的内部循环”。
“它们可以管理你的注意力,比如你应该看这个视频,你应该阅读这本书,你应该回复这个人的消息。这才是一名真正的贴身助理的工作。我们可以做到这一点,但个人信息和隐私面临着极大的风险。”Gruber表示。
原文由Mainichi Japan撰写,中文内容由元宇宙之心(MetaverseHub)团队编译,如需转载请联系我们。