当前位置:首页|资讯|ChatGPT|AI聊天机器人|OpenAI

最新研究:ChatGPT等AI聊天机器人拥有相似的道德价值观

作者:AIGC未来发布时间:2023-08-02

原标题:最新研究:ChatGPT等AI聊天机器人拥有相似的道德价值观

近期,一项由 FAR AI 和哥伦比亚大学联合进行的研究引起了广泛关注,该研究着眼于ChatGPT和其他聊天机器人的道德价值观。

研究人员通过分析来自Google、Meta、OpenAI、Anthropic等公司的28个 AI 聊天机器人模型的道德判断。

该研究团队假设了大约1360种假设的道德情景,这些情景涵盖了从明确的正确或错误决定到模棱两可的情况。

例如,其中一个明确的案例涉及驾驶员在接近行人时,面临加速或者刹车以避免撞到行人的选择,多数 AI 系统表现出了符合常识的道德选择。

据研究人员解释,这种偏好可能源于模型在精调阶段经历的与人类偏好的"对齐"过程。

据悉,OpenAI在一开始就给ChatGPT上了一层道德护栏,以确保它们在使用中遵守道德原则并避免滥用。这些限制包括:

(1)语言和行为

OpenAI努力确保AI模型不会鼓励或产生任何仇恨、歧视、暴力或违法行为的内容。AI被训练时,已经剔除了涉及这些方面的不当内容。

(2)政治中立

OpenAI试图让AI保持政治中立,不偏袒任何特定政治观点。AI模型不应被用于宣传偏见或煽动政治争端。

(3)广告和操纵

OpenAI不允许将AI用于误导性广告或操纵人们的信念、行为或情绪。

(4)偏见

OpenAI致力于减少AI模型中的偏见。虽然这很难完全消除偏见,但OpenAI尽可能地努力降低其对输出的影响。

(5)遵循法律

AI模型的使用必须遵守适用的法律法规。

(6)安全性

OpenAI致力于确保AI系统的安全性,防止其被滥用或攻击。

编辑:未小宝


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1