9月1日,据法新社报道,微软副总裁Vik Singh在接受采访时表示,当前生成式AI技术最欠缺的一项重要能力是,在不确定答案准确性的情况下,能够主动向用户表明自己的不确定性,并请求进一步的帮助。这一观点反映了业界对于AI技术在面对未知或不确定情况时如何更负责任地与用户沟通的关注。
自去年以来,微软、谷歌等科技巨头纷纷加快了生成式AI应用程序的部署,如ChatGPT和Gemini等,这些工具能够根据用户需求快速生成各类内容,给用户带来仿佛无所不知的体验。然而,尽管在技术上取得了显著进步,生成式AI仍存在“幻觉”现象,即在某些情况下会生成不准确甚至错误的信息。
Singh强调,当前有许多顶尖的研究人员正致力于解决这个问题,希望通过技术创新使聊天机器人能够在无法提供准确答案时,能够明确告知用户其不确定性,并寻求外部验证或帮助。这种透明度不仅有助于提升AI系统的可信度,也能够减少因错误信息而导致的风险。
与此同时,Salesforce公司的首席执行官Marc Benioff也在最近的一次讲话中提到,他注意到越来越多的客户对微软Copilot等AI助手所提供的误导性信息表示不满。这表明,随着AI技术在各行各业中的广泛应用,确保信息准确性已成为一个亟待解决的关键问题。
近年来,随着人工智能领域的飞速发展,诸如聊天机器人这样的应用变得日益普及,用户可以通过简单的指令获取所需信息。但这些便捷的背后,依然隐藏着由于训练数据不准确、模型泛化能力不足等原因导致的“幻觉”问题。因此,如何提高AI系统在复杂环境下的鲁棒性和可靠性,成为了当前研究的重点方向之一。