参考消息网5月10日报道《日本经济新闻》3月30日刊登题为《人工智能开发现状:需要进一步研究以搞清原理》的文章,作者是东京大学教授杉山将,内容编译如下:
目前的人工智能(AI)系统以机器学习为基础,判定所生成信息的真伪还得依靠人,我们应该讨论社会需要什么样的人工智能。
图像生成和文本对话型人工智能系统正备受关注。由于使用者不需要专业知识,只要输入简单的语句就能得到实用的输出信息,可以说人工智能的应用进入了新阶段。
本文将对作为人工智能系统基础的机器学习技术概况及其本质作一个介绍。
机器学习是指使机器(计算机)具备学习能力的信息技术的总称。它被应用于识别语音和图像、语言翻译、信息检索、商品推荐、顾客信息分析、股价预测、网络攻击检测、无人驾驶汽车控制等各种场合。
在媒体上经常出现“人工智能会自动学习”的说法。被拟人化的人工智能并非吸取我们的想法并主动学习,而是有技术人员编写程序让计算机学习。典型的学习方式是“监督学习”和“无监督学习”。
监督学习
在“监督学习”中,会使用大量由输入信息和输出信息组合而成的训练数据,来让人工智能学习隐藏在背后的“关系”。
由于这类似在学校的学习,输入信息被称为提问,输出信息被称为回答。如果能够从训练数据中学到输入信息和输出信息的关系,就能够预测针对未知输入信息的输出信息。这被称为泛化(普遍化)能力。
例如,在图像识别方面,智能手机拍摄的照片是输入信息,所拍摄物体的种类(如太阳、月亮、飞机等)是输出信息。只要拍摄大量照片,并提供其所包含物体的信息,就能生成训练数据。监督学习是基于统计学习理论进行的,一边要让人工智能记住训练数据,同时又要加以限制,使其所学习的输入信息和输出信息关系不会变得过于复杂。
早期的监督学习采用了简单方式,只处理一次输入信息就得到输出信息,使用了输入输出信息成比例关系的线性模式。
然而,由于现实世界中输入信息与输出信息的关系大多不是线性的,例如图像与物体种类的关系就不是线性的,因此研究正逐步向非线性模式发展,而非线性模式可以处理复杂的输入信息和输出信息关系。近年来,已开始采用深层模式,即通过对输入信息进行多次非线性转变来获得输出信息,使得人工智能在图像识别和围棋等领域的机能超过了人类。
但是,使用深层模式的机器学习,也就是深度学习的泛化能力原理还有许多待解之谜,全世界的机器学习理论研究者都在努力探究。基本的机制尚不清楚,有待今后进一步搞清原理。
另一方面,从实用性角度看,收集输出信息正成为普及机器学习的障碍。例如,在根据X光检查图像(输入信息)来判断是否患有癌症(输出信息)的问题上,是需要医生来进行判断的,尽管他们的工作非常繁忙。因此很难大量收集到训练数据。于是,从不完整的输出信息中进行学习的弱监督学习,转为应用基于其他目的所收集训练数据的迁移学习,将模拟推演和机器学习加以融合等正被广泛研究。
监督学习基于输入信息和输出信息的统计相关性正在泛化。例如在夏季,冰淇淋和空调的销售额具有很强的正相关关系,因此可以根据冰淇淋的销售额预测空调的销售额。如果能够进行预测,接下来就会想要在未来增加销售额,但即使对冰淇淋进行大力促销活动,空调的销售额也不会增加。
这是因为,冰淇淋和空调的销售额只有相关关系,没有因果关系,是气温这一隐藏在背后的因素决定着两者的销售额。为了在未来增加销售额,有必要对“干预”的影响进行评估,因此因果推理和循序决策等研究变得更加重要。
无监督学习
在机器学习的另一种学习方法——无监督学习中,人们试图仅从没有输出信息的输入信息中获取某些知识。例如,在制定广告战略的集群分析中,会根据商品的购买记录和朋友关系等将顾客分为几个群体,并研究针对每个群体的广告战略。在生产一线的不合格产品检测中,可以判定今天生产的产品质量与之前的产品相比有没有大幅变差。
无监督学习不需要收集输出信息,因此是非常方便的方式。但是,因为不明确要学习什么,所以不一定能得到合适的结果。因此,人们往往向人工智能提供少量输出信息,使无监督学习与监督学习结合起来。
在统计学领域被研究已久的概率分布推算也是无监督学习。如果能从数据中推算出概率分布,就能生成新的伪数据。近年来,基于深度学习的概率分布推算研究有了飞跃性发展,例如,通过推测面部图像的生成分布,已可以生成真假难辨的面部图像。
未解之处
综上所述,机器学习研究中,重点被放在了主要通过监督学习进行的预测和识别上。而且,人们正试图用计算机代替眼睛和耳朵等的知觉功能,使劳动从机械性的单纯工作转变为智力创造活动。
因此,随着技术发展,人们开始担心人工智能会夺走人类的一部分工作。再加上数据生成技术的飞速发展,输入被称为提示语的简单词语,就能得到想要的输出信息。
其结果,一直以来被认为只有人类才能完成的画画、写小说等智力创造活动,也开始得到人工智能的助力。例如,使用最先进的对话型人工智能,就能自动生成小型报告。
但是有一个众所周知的问题,即生成数据中会存在错误。虽然判定信息真伪是必要的,但研发判定技术是在与怀有恶意的人进行博弈,而且判定信息真伪本身也取决于时代和文化,最终还是要由人来做判断。
乍一看似乎会威胁人类社会的人工智能技术,其原理还有很多未解之处。对于数据,为了让人类能够使用而进行处理的工序也必不可少。
那么,我们应该如何应对新的人工智能时代呢?至少需要运用人工智能技术的能力,以及判断人工智能所生成信息真伪的能力。
判断真伪正是机器学习中的监督学习问题本身,所谓人判断真伪,归根结底等同于人给人工智能自动生成的输入数据添加输出信息。
现在是应该为了人工智能技术的现实性发展而费尽心思地继续制作输出信息,还是应该为了获得新的智慧而努力弄清人工智能技术的原理呢?这确实值得讨论。