当前位置:首页|资讯|人工智能

当你的简历被AI自动筛掉,人类该如何确保算法正义?

作者:DeepTech深科技发布时间:2023-11-03

原标题:当你的简历被AI自动筛掉,人类该如何确保算法正义?

本文是乔伊·布兰维尼(Joy Buolamwini)的《揭开人工智能的面纱:我在机器世界中保护人类的使命》的节选。内容经过了部分编辑。

(来源:STEPHANIE ARNETT/MITTR | ENVATO)

“X 风险”一词是人工智能带来的潜在生存风险的缩写。虽然我的研究支持人工智能系统因为过于危险不应该被集成到武器系统中,但这并不是人工智能系统本身(作为超级智能体)构成了生存风险。

人工智能系统可能会错误地将某人识别为犯罪嫌疑人,而那些用于警务的机器人以及有故障的自动驾驶汽车,都可能使你的生命处于危险之中。

可悲的是,人工智能系统无需拥有超级智能,就能对个人生命产生致命的后果。造成明显危害的现有人工智能系统,比假设的“有意识的”人工智能系统更危险,因为它们是真实存在的。

如果一些公司声称自己担心人工智能会带来生存风险,那么它们可以不发布自己认为可能终结人类的人工智能工具,以此来表明其保护人类的承诺。

我并不反对阻止创造致命的人工智能系统。关注人工智能致命用途的政府可以采取“阻止杀手机器人运动(Campaign to Stop Killer Robots)”所倡导的保护措施,禁止致命的自主系统和数字非人化。

这场运动旨在解决人工智能的潜在致命用途,而不会做出过于夸张的行动。

尽管人们很容易将身体暴力视为最终的伤害形式,但这样做很容易让人忘记人类社会持续的结构性暴力。

通过使用人工智能拒绝某个或某些人获得医疗保健、住房和就业机会,这会让个人伤害和几代人的创伤永久化。

鉴于我的“性别阴影”研究揭示了世界上一些领先的科技公司的算法偏见,我担心的是人工智能带来的直接问题和新出现的漏洞,以及我们是否能够以有助于创造一个未来,让人工智能的负担不至于成比例地落在边缘化和弱势群体身上。

当我想到生存风险时,我想到的是现在受到伤害的人,以及那些面临人工智能系统伤害风险的人。我想到了被“排除在外”的风险和现实。

当医院使用人工智能进行分诊,让你得不到应有的护理,或者使用临床算法阻止你接受能被挽救生命的器官移植时,你可能会处于“被排除在外”的状态下。当你根据算法决策被拒绝贷款时,你也可能会被排除在外。

当你的简历被人工智能自动过滤掉,你被剥夺了参与竞争那些人工智能系统无法取代的剩余工作的机会时。

当租户筛选算法拒绝你获得住房时,你可能会被排除在外。所有这些例子都是真实的。没有人能免于被排除在外,那些已经被边缘化的人面临着更大的风险。

这就是为什么我的研究不能局限于业内人士、人工智能研究人员,甚至是善意的影响者。是的,学术会议是重要的场所。对许多学者来说,发表论文是具体研究探索的顶点。

对我来说,在美国纽约大学汇报“性别阴影”是一个跳板。我觉得我有动力把研究付诸行动,超越与人工智能从业者的谈话、超越学术演讲、超越私人晚宴。

仅仅接触学者和业内人士是不够的。我们需要确保每天面临人工智能危害风险的人都参与到算法正义的斗争中来。

支持:Ren


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1