当前位置:首页|资讯|人工智能|法律

制约生成式人工智能发展的因素有哪些?

作者:业内今日报发布时间:2024-01-04

伴随着各类模型的不断开发,人工智能不断深入各行各业之中,并承担起相应的角色。虽然看似前景美好,但在实际落地过程中却存在着诸多问题。尤其是生成式人工智能,其与目前的法律框架与道德准测存在诸多矛盾。



数据偏见:生成式人工智能在进行模拟训练时,其输出内容受训练数据的影响较大。如果训练数据本身在某些方面存在主观偏见,那么在最终输出时,其内容也会有明显的倾向性。


逻辑漏洞:受限于底层逻辑的缺陷,生成式人工智能在分析时无法完全模拟人类的逻辑思维进行,因此得出的结果常常缺乏连贯性。在实际应用时,会极大限制其输出内容的实用性。



无法理解情境:生成式人工智能当前很难结合具体情境来进行分析,无法辨别同一情境内不同事物间的关联性。这方面的欠缺,令其在具体应用时往往兼容性较差,并且对输出结果也有一定影响。


道德问题:生成式人工智能创作内容的归属权以及真实性等问题,正挑战者当前人类社会的诸多规则。虚假内容所带来的误导性,可能会导致人类本身在一些问题的认知上出现偏差,结果不堪设想。



可解释性:大多数人欠缺对人工智能的认知,不了解其运作原因。而开发方也对技术进行保密,群众很难对其进行具体了解。这种不透明性,让人工智能输出结果的可解释性较弱,进而导致在监管等领域存在诸多隐患。


对抗性减弱:生成式人工智能在进行对抗训练时,有可能会被植入的错误指令指引,导致其输出结果带有明显错误的倾向性。



一项技术的成熟离不开开发,也离不开监督。生成式人工智能仍旧存在诸多亟待优化改善的地方,需要社会各界提升对它的关注度,才能更好促进其发展。



Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1