近期,一项由 FAR AI 和哥伦比亚大学联合进行的研究引起了广泛关注,该研究着眼于ChatGPT和其他聊天机器人的道德价值观。
研究人员通过分析来自Google、Meta、OpenAI、Anthropic等公司的28个 AI 聊天机器人模型的道德判断。
该研究团队假设了大约1360种假设的道德情景,这些情景涵盖了从明确的正确或错误决定到模棱两可的情况。
例如,其中一个明确的案例涉及驾驶员在接近行人时,面临加速或者刹车以避免撞到行人的选择,多数 AI 系统表现出了符合常识的道德选择。
据研究人员解释,这种偏好可能源于模型在精调阶段经历的与人类偏好的"对齐"过程。
据悉,OpenAI在一开始就给ChatGPT上了一层道德护栏,以确保它们在使用中遵守道德原则并避免滥用。这些限制包括:
(1)语言和行为
OpenAI努力确保AI模型不会鼓励或产生任何仇恨、歧视、暴力或违法行为的内容。AI被训练时,已经剔除了涉及这些方面的不当内容。
(2)政治中立
OpenAI试图让AI保持政治中立,不偏袒任何特定政治观点。AI模型不应被用于宣传偏见或煽动政治争端。
(3)广告和操纵
OpenAI不允许将AI用于误导性广告或操纵人们的信念、行为或情绪。
(4)偏见
OpenAI致力于减少AI模型中的偏见。虽然这很难完全消除偏见,但OpenAI尽可能地努力降低其对输出的影响。
(5)遵循法律
AI模型的使用必须遵守适用的法律法规。
(6)安全性
OpenAI致力于确保AI系统的安全性,防止其被滥用或攻击。
编辑:未小宝