ChatGPT也会出现性别歧视,这是清华大学交叉信息研究院的一个研究团队近日发布的一项研究结果的结论。该研究团队做了一个AI模型性别歧视水平评估项目,在包含职业词汇的“中性”句子中,由AI预测生成一万个模板,再统计AI模型对该职业预测为何种性别的倾向,结果形成了算法歧视。
其中,测试模型包括GPT-2,即由人工智能公司OpenAI研发并爆红的ChatGPT前身。测试结果发现,GPT-2有70.59%的概率将教师预测为男性,将医生预测为男性的概率则是64.03%。
在评估项目中,其他首测的AI模型还包括Google研发的BERT以及Facebook研发的RoBERTa。所有受测AI对于测试职业的性别预判,结果倾向都为男性。
不独于ChatGPT,其它AI也可能出现歧视,这并非新鲜事。但是,在是否真正构成歧视,也有一些区分和争议。例如,ChatGPT只是预测了哪些职业男性或女性多,未必就是歧视,它只是告诉人们一个统计事实。如果真有歧视,那也是由人类产生的,它只是描述了一个客观事实。
不过,要警惕的是那种真正的深度歧视,比如,把黑人识别为罪犯,这种歧视就是算法歧视,而且是AI有样学样的结果,责任应当在人类。
ChatGPT代表了今天生成式AI的集大成者,它接受了海量的文本数据的训练,能够对各种各样的问题输入生成类似人类的应答结果和反应。因此,它出现歧视,无论是性别歧视还是职业歧视、种族歧视等,都是人类的责任。
但另一方面,AI只是一个内容生成器,是从人类为它投喂的大量文本中学习而生成内容,因此,最大的潜在危害是那些现实中出现的歧视内容和事实。前几天,某地交警部门在公布酒驾醉驾案例时特别标注“女司机”,这就有了性别歧视的嫌疑。当然,无论透露男女司机的姓名等信息,也涉及歧视,是侵犯隐私的歧视。
互联网有记忆,如果未来有人对ChatGPT投喂这样的信息(这样的信息是大量存在的),或者ChatGPT无意抓取了类似的大量信息,它在回答人们的问题或应人的要求自动生成文本中,就不可避免地会出现性别歧视,比如在回答男性还是女性更适宜驾车时。如果ChatGPT被设计得更聪明,它不会回答这样的问题,但保不准会在其他的问题中作为例证。
反过来,如果它回答男性司机更容易出事故,是性别歧视吗?因为,人们认定歧视一般是认为强者对弱者的不平等,所以指出或暴露男性的过错,对作为强者的男性是不是歧视,也需要讨论。但无论涉及哪一种指向的性别歧视或其他歧视,都是不可忽视的问题。
之前出现的更离奇的歧视是,2016年3月,微软发布了聊天机器人Tay,它能抓取和用户互动的数据以模仿人类的对话。但上线不到一天,Tay就从人类那里学习,成为一个鼓吹种族清洗的极端分子,这已是在深度歧视的基础上走得更远,煽动仇恨了,因此微软不得不迅速将其下架。
ChatGPT和其他AI软件出现歧视的内容和生成文本不足为奇,问题是,如何管理。如果禁用,当然没有问题,但是禁是禁不住的,因此,需要管理。但核心问题涉及的是,人与AI的关系。
把这个问题抛给ChatGPT,它的回答可能比人的回答还全面,找不到破绽。比如:“你怎么理解AI与人类的关系?”
ChatGPT说:“我认为AI与人类之间的关系是复杂和密切的。AI是人类创造的技术,主要目的是帮助人类解决复杂的问题和完成繁琐的任务。但是,随着AI技术的不断发展,它也可能带来一些挑战和风险,例如失业和隐私等。因此,我认为AI和人类之间的关系是一种协作关系,需要我们通过认识、评估和沟通来解决问题和解决挑战。我们需要在利用AI的优势的同时,避免其带来的风险和影响,使AI为人类社会带来更多的价值和益处。”
ChatGPT并没有提到内容和文本生成中的歧视这个问题,但是,协作和避免ChatGPT带来的风险,包括内容和生成文本中的性别歧视都需要避免。对此,《自然》杂志最近提出要在5个方面采取措施。
一是坚持人类审查,二是制定问责机制,三是投资开源开放的大型语言模型(LLMs),
四是拥抱AI好的一面,五是展开大论战。
只要坚持人类审查和制定问责机制,ChatGPT和其他AI工具就不会出现歧视或把风险降到最低。《自然》《科学》《肿瘤学》等多家科学期刊已经发表声明,不接受论文将ChatGPT列为“合著者”,即否认ChatGPT是作者。
这是一种管理,但是否得当,也应当通过实践和讨论来取得共识。