~~~雅各布专栏——专注行业第一品牌商业模式研究~~~
来源:Melissa de witte
我们需要思考在日常生活中使用人工智能的人性方面,以及它将如何影响我们的感知和相互交流的方式。
--斯坦福大学通信教授 Jeff Hancock
自2022年11月公开发布以来,ChatGPT吸引了全世界的目光,向全球数百万用户展示了人工智能的非凡潜力,因为它对从实际到超现实的要求做出了听起来像人类的回答。它已经起草了求职信,创作了诗行,假装成威廉-莎士比亚,为约会应用程序的用户精心设计信息以招揽对象,甚至撰写新闻文章,所有这些都有不同的结果。
在这些充满希望的应用中,也出现了伦理上的困境。在一个越来越多地由人工智能驱动的工具所主导的世界中,可以模仿人类的自然语言能力,那么真实和真实意味着什么呢?斯坦福大学传播学者杰夫-汉考克(Jeff Hancock)在他的研究中一直在解决这个问题以及人工智能对人际关系的影响。
汉考克认为,图灵测试的时代已经过去:机器人现在听起来非常真实,人们已经不可能在对话中区分人类和机器,这为大规模的操纵和欺骗带来了巨大的风险。那么,这些工具如何才能被用来做好事而不是害人,这是一个让汉考克和其他人担忧的问题。
虽然他看到了人工智能在帮助人们更有效地完成工作方面的潜力,但汉考克也看到了隐患。他说,最终,我们的挑战将是开发支持人类目标的人工智能,并教育人们如何以有效和道德的方式最好地使用这些新技术。
几年来,汉考克一直在研究以人工智能为媒介的通信是如何改变--以及潜在地破坏--人际关系的。
本采访为保证篇幅和清晰度进行了编辑。
你如何看待像ChatGPT这样的人工智能中介工具融入人们的生活?
就像计算器并没有取代人们对数学的需求,也没有取代人们在收银台工作或成为会计师一样,我认为我们会找到将人工智能为媒介的沟通作为一种工具的方法。我认为我们越是把它看作是一个助手或一个强大无比的工具,我们就越能设想它将如何发挥作用。但重要的是要注意,这些系统还没有准备好,可以直接插入和播放。他们还没有到那一步,我们人类也没有。
ChatGPT正被数百万人使用,其中许多人没有受过任何培训或教育,不知道什么时候使用这些系统是合乎道德的,也不知道如何确保它们不会造成伤害。
从技术上讲,像ChatGPT这样的系统确实比我们过去的东西好得多,但仍然有很多问题。它们目前不能以非常高的比率提供准确的信息。最好的信息是在50%或70%的时间内产生有用的信息,尽管这可能会随着新的版本(如即将推出的GPT4)而改变。它们也可以产生虚假的信息或编造东西--我们称之为 "幻觉"。要真正让他们产生好的东西,可能需要大量的工作。提示是困难的,产生的反应确实不同。
你在人工智能和通信方面学到了什么,可能会让人们感到惊讶?
我的实验室一直对围绕人工智能的人类问题非常感兴趣。很多人说,"我不知道这些新的机器人--我从来没有使用过"。但大多数人都经历过某种人工智能通信,最常见的是电子邮件信息中简单、智能的回复,提供 "听起来不错"、"这很好 "或 "对不起,我不能 "等选项。我们发现的是,即使你不使用这些人工智能生成的回复,它们也会影响你的思考方式。这三个选项是你的首要任务。当你写一封回信时,你倾向于写一封更短的邮件。你倾向于写一个更简单的电子邮件。而且,它在语言上并不复杂:你有更多的积极情绪,这意味着你使用更多的积极情绪术语,更少的消极情绪。这是因为智能回复就是这样建立的:它们非常短,非常简单,而且过于积极。你甚至不需要使用这些系统就能真正受到它们的影响。
您认为ChatGPT在哪些方面有机会帮助人们更好地完成工作或更有效地完成工作?
我认为这将带来一个全新的沟通世界。这真的感觉是一个拐点。例如,在治疗和辅导的初始阶段,有巨大的潜力。比如说你在工作上有拖延症,或者你需要帮助进行谈判,或者你在工作上有一些焦虑感。与实际的咨询师或教练见面是困难的,而且可能很昂贵。这些系统提供了获得这种帮助的途径,至少在解决问题的最初阶段。我认为最好的组合是当ChatGPT可以支持一个真正的教练,然后他可以更有效地帮助更多的人。
"围绕真实性、欺骗和信任的问题将变得无比重要,我们需要更多的研究来帮助我们了解人工智能将如何影响我们与其他人类的互动"。
ChatGPT在做一些教练在试图了解客户需求时所做的准备工作方面可能会很有用。有时这些问题是标准问题,像ChatGPT这样的系统可以被训练来询问客户,然后为教练进行综合分析。这有可能使教练腾出手来与客户进行更深入的交流,或帮助更多的客户。
当然,我们仍然不知道人们对机器人参与这些对话会有什么反应。我们几年前做的一些工作表明,人们从与机器人的对话中获得的情感、关系和心理结果可能类似于与人类的对话。这方面是有潜力的,但在将这些类型的系统引入到这样的交流中时,肯定需要谨慎。
你研究的一个领域是信任和欺骗。你认为人工智能如何影响人们相互信任的方式?
我认为如果机器帮助你做你自己,那么我认为你可以做到真实。人工智能系统可以为一大堆事情进行优化,其中一些可以是人际关系的。你可以说,"我想要一个在线约会的描述,我想表现得非常有趣、热情和开放"。我刚刚在课堂上做了一个练习,让学生用ChatGPT创建一个网上约会的描述,当所有的学生都说ChatGPT的描述是对他们自己的准确表述时,我感到很震惊!他们还同意他们会修改这个描述!他们还一致认为,他们会对其进行一些修改,但这是出乎意料的好。这真的可以帮助一个人,特别是对于那些有交流焦虑症或不善于表达自己的人。
但是对于那些试图用这些描述作为一个人的信号的人来说,我们通常的印象形成过程会被打破,因为并不是你表现得非常有趣、热情和开放--而是一台机器在为你做这些。对于如何使用这些工具,我们将有很多责任。我认为这实际上是关于我们作为人类如何选择使用它。
围绕真实性、欺骗和信任的问题将变得无比重要,我们需要更多的研究来帮助我们了解人工智能将如何影响我们与其他人的互动
—Jeff Hancock
我们能信任这些系统吗?
有很多技术问题,比如人工智能是如何开发的。一个普遍的担忧是,这些系统是依靠有偏见的数据进行训练。但也有围绕意识和意图的更深层次的哲学问题。一个机器的欺骗性意味着什么?它可以在它是谁的问题上撒谎,谈论它没有的生活经历,这就是欺骗性。但大多数欺骗的定义包括误导他人的意图。如果这个系统没有这个意图,它是欺骗性的吗?这是否又回到了问问题的人身上,或让系统具有欺骗性?我不知道。在这一点上,问题多于答案。
你也研究虚假信息,对于人工智能如何被用于邪恶的目的,你担心的是什么?
我也想承认,这里存在着滥用的真正危险。我在斯坦福大学互联网观察站的同事和合作者Renée DiResta有一份报告,列出了这些系统可能成为围绕错误信息的威胁的一些主要方式,以及可能的解决方案。正如Renée和该报告所指出的,一旦不良行为者能够使用语言模型来开展影响活动,他们将能够以相当便宜的价格产生大量的内容,并有可能开发出大规模说服的新策略。它有可能改变和加剧错误信息的问题,因此我们现在需要开始研究解决方案。
如何才能验证沟通?
在过去的一年多时间里,有许多论文表明,这些大型语言模型和聊天机器人已经无法与人类同行区分开来。
因此,如何认证沟通是一个大问题。为了表现出真实性,你可以说,"这是人工智能写的或部分是人工智能写的"。如果你这样做,你就是诚实的,但研究表明,人们可能会认为你不那么真诚--有一篇论文发现,如果你道歉并表示你用人工智能帮助你写道歉信,人们会认为它不那么真诚。在我们的一篇论文中,我们表明,如果你申请一份工作,并说你用人工智能来帮助写,人们会认为你的能力较差。如果你透露你使用了人工智能,会有成本,但如果你不透露,你是否会被认为是不真实的?这些围绕真实性、欺骗和信任的问题将是非常重要的,我们需要更多的研究来帮助我们了解人工智能将如何影响我们与其他人类的互动。
汉考克是斯坦福社会媒体实验室的创始主任,也是人文与科学学院的哈里和诺曼-钱德勒传播学教授。他也是斯坦福大学以人为本的人工智能研究所的教员,并且是网络政策中心的联合主任和斯坦福大学互联网观察站的教员主任。
专栏活动报名中,点击了解详情
* 报名经主办方最终核定