当前位置:首页|资讯|AIGC|人工智能

宣讲家文稿:AIGC对社会治理的机遇和挑战

作者:宣讲家网发布时间:2023-09-21

原标题:宣讲家文稿:AIGC对社会治理的机遇和挑战

马亮 中国人民大学国家发展与战略研究院研究员、公共管理学院教授

黄璜 北京大学政府管理学院副院长、教授

段伟文 中国社会科学院哲学所科学技术哲学研究室主任、研究员

闵勇 北京师范大学新闻传播学院计算传播学研究中心副主任

马亮:大家好,本次圆桌论坛的主题是“AIGC对社会治理的机遇和挑战”。今天请到三位专家来到现场,三位专家关注人工智能技术在数字政府建设和社会治理创新方面的不同领域。AIGC(生成式人工智能)技术是人工智能技术的一种重要应用,它具有广泛的应用前景,可以为人们带来更多的便利和创新。我们特别关心的是,AIGC技术在数字政府建设和社会治理方面有哪些应用?首先请段老师为我们分享,您长期关注技术哲学的问题,谢谢。

段伟文:谢谢主持人,我认为AIGC可以被视为一种尝试性的表述。从对话式和生成式人工智能的发展态势来看,这次人工智能革命的重点并不在于其内容,而在于它作为一个新的知识生产引擎。如果从知识生产引擎的角度来理解,我们可以更全面地把握这次人工智能革命的真正意义。从数字治理和公众使用的角度,人工智能可以成为我们的助手,提高效率,但也可能会导致就业替代。然而,这次的人工智能革命也面临着巨大的挑战。由于它基于跨模态或多模态的基础大模型,在全域应用中,其准确性和恰当性面临着巨大的挑战。换言之,人工智能的发展已经采取了许多技术手段,但在治理环节中仍可能存在一些疏漏。因此,这种技术最大的挑战在于其稳健性,而稳健性又与其规模密切相关。如果某项技术只应用于某个垂直领域,其影响较小,可是一旦在全方位铺开,某些事件可能会放大其影响。

马亮:非常感谢段老师的分享,下面有请黄老师分享您的观点。

黄璜:我们从数字政府的角度,在调研过程中发现各级领导干部对人工智能都非常关注。尤其是ChatGPT的出现,引起大家对这项技术的重视和思考。其实,ChatGPT只是一种标志性技术,它的出现引起大家对人工智能的关注和重视,并引发对未来可能带来的变化的思考。随着技术的不断发展,我们需要传递正确的声音,让大家知道,现在很多人对AIGC和ChatGPT的畅想,是建立在整个人工智能技术的基础上的。虽然这种畅想很有意义,但是目前我们更需要思考的是如何使用这项技术解决现实问题。我们需要从实际出发,利用这项技术去解决具体的问题,这是我们后面需要开展的工作。

马亮:对,大家刚才谈得特别好。我现在想问各位老师,人工智能技术在哪个典型场景的应用是你特别期待的?首先请教黄老师,特别是在政府领域,您可以谈一下。

黄璜:从AIGC的角度考虑,其场景需要考虑到政府治理或社会治理中的生成需求,这可能涉及到对外部的智能问答和对内部的知识集成。政府本身也是一个知识系统,需要一套知识来指导其政策制定,因此AIGC可以发挥一定作用。至于使用这种技术来公文写作或制定政策,我想用ChatGPT辅助公文写作可能有一定作用,但在体制内的同志应该知道,制定政策是一项非常复杂的工作,不能简单地通过数据集成来完成。虽然未来可能有所期待,但至少目前还不用担心。

马亮:谢谢,接下来有请段老师。

段伟文:目前所谓的AIGC或类似ChatGPT的应用实际上主要是一种演示,展示了一个样本。它们之所以能够进行大规模的演示,是因为背后调动了巨大的算力。这些应用是资本竞争的产物,资本和技术紧密结合,旨在抢占市场。在某些领域,例如翻译,这些应用确实能够为外语水平不高的人提供帮助。因此,从大的方向来看,我们可以借助这个机会反思并改变以往对互联网内容的管理方式,将其真正转变为以信息搜索引擎作为知识生产引擎的基础。在这种情况下,一个大的应用领域是AI驱动的科学研究平台。这个平台中,大量的国内外文献本身质量较高,如果能够善于运用机器翻译并与专业人士相结合,就可以充分利用这个机会,推动科学研究的发展。

马亮:对,这点我觉得也特别重要。下面请闵老师分享。

闵勇:我想回顾一下社会中应用比较广泛的几个人工智能领域。第一个是人脸识别,这个现在大家经常都会碰到,比如坐车和进出单位可能都会有这个应用。第二个是算法推荐,这是中国本土原生态比较成功的一个人工智能应用。第三个是以ChatGPT为代表的内容生成应用。这三个应用有一个共同的特点,我把它叫做容错性。即使人脸识别系统有时刷不出或认错人,一般都会有保安或工作人员进行人工干预。算法推荐可能会推送错误的内容,但一般不会对用户造成太大的损害。ChatGPT的应用场景是在搜索引擎上,搜索引擎产生错误是被允许的。

从这些已经成功应用的人工智能领域来看,我们需要对人工智能有一定的宽容度。企业应该适度放宽对人工智能的要求,不要期望其完全替代劳动者。如果我们能够对人工智能的要求适度放宽,把它作为一个信息辅助和知识采集的角色,这样我们能够看到更多人工智能的应用领域。

马亮:闵老师提到了非常重要的一点。我们现在所讨论的AIGC只是提供建议,而不是决策,因此容错和包容特别重要。我们之前讨论了很多关于如何使用这些技术以及如何管理这些技术的问题。如果管理不好,也就无法很好地使用。像ChatGPT这样新一代人工智能技术出现后,许多国家和地区的政府已经出台或正在研究相关的监管政策。例如,国家互联网信息办公室起草了《生成式人工智能服务管理办法(征求意见稿)》,这样一份征求意见稿的出台引发了社会广泛关注和热议。我们特别想请各位来谈谈,在面对这些所谓的颠覆性技术创新时,我们应该如何管理好它们?监管政策出台的背后体现出怎样的治理逻辑?下面请黄老师来谈谈。

黄璜:在监管方面,首先需要考虑可能出现的问题。像AIGC这样的技术可能会引发传统的安全问题,包括治安和公共安全问题。例如,合成图像可能会引发欺诈等安全问题。此外,这些内容可能涉及意识形态方面的问题,如何进行管理是一个挑战。另一方面,像ChatGPT这样的知识引擎可能会影响未来孩子的知识获取,因为它们生成的内容可能不是权威的。从监管的角度来看,这是一个难题。因为这些技术背后代表着去中心化的趋势,使得传统方式的管理变得越来越困难。

然而,从积极的角度来看,这种技术使得越来越多的人可以自行生产。尽管这可能会对一些行业产生影响,但这也降低了创业的门槛,使得更多的人可以创业。因此,未来的监管将面临更大的挑战,需要寻找新的方式来应对去中心化的趋势。

马亮:感谢黄老师的分享。下面有请闵老师。

闵勇:在算法推荐治理中,我们面临着一个问题,即生产力的个体化转移,并且生产力规模的扩大程度已经达到指数级。传统的信息管理方法主要集中在生产端,即对主要的媒介进行管理。然而,在去中心化的环境下,我们需要转移到消费端去管理。从技术和成本的角度来看,在生产端进行管理可能不太现实。

另外,我们需要使用一些对冲性技术来识别哪些内容可能是由AI生成的,并评估其可信度。在搜索引擎中,我们需要标识出哪些结果是广告,而不是搜索引擎提供的内容。在社交媒体和社交网络上,我们不可能对所有信息进行人工标注,因此需要使用另一套AI技术来识别由AI生成的内容。在研究中,我们发现使用ChatGPT来查找文献时,在很多领域找到的文献都是拼凑的,它们可能会告诉你有一篇文章在《自然》上发表,但实际上并没有。因此,我们需要使用对冲性技术来解决这个问题。

马亮:闵老师提出了一个非常有启发性的观点,即技术的出现会带来新的问题,但最终需要用技术来解决问题。例如,ChatGPT的出现引发了如何识别其生成内容和实现可追溯性的问题。我们之前探讨了技术的使用和管理,但归根结底,这些都是科技创新的问题。如果没有科技创新,我们将无法使用和管理相关技术。因此,我们期待相关的科技企业能够勇往直前,推动人工智能技术进一步发展。最后,非常感谢各位老师,本次论坛到此结束。谢谢大家。

(根据宣讲家网报告整理编辑,

未经许可,不得印刷、出版,违者追究法律责任)


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1