OpenAI是一家致力于创造和推广友善的人工智能(AI)的非营利组织,也是最受关注的AI公司之一。它的旗舰产品是ChatGPT,一个能够与人类进行自然对话的聊天机器人。
但是,随着AI技术的发展和普及,它也面临着越来越多的挑战和风险。比如,AI可能被用来干扰选举、传播虚假信息、侵犯隐私等等。
为了应对这些问题,OpenAI正在寻求全球范围内的AI监管,并测试如何收集广泛的意见来影响他们的AI决策。据路透社报道,该公司的总裁Greg Brockman在5月22日举行的一个名为AI Forward的活动上,谈到了他们的一些想法和计划。
其中一个想法就是借鉴维基百科的模式,让不同观点的人在一个平台上就AI相关的话题达成共识,并形成百科条目。Brockman说:“我们不是坐在硅谷,认为我们可以为所有人制定这些规则。我们开始思考民主决策。”
这种模式可能会让更多的人参与到AI的发展和管理中来,也可能会提高AI的透明度和可信度。但是,它也可能会遇到一些困难和挑战。比如,如何保证参与者的质量和代表性?如何防止操纵和误导?如何协调不同国家和地区的法律和文化差异?
OpenAI并不是唯一一个关注AI监管的组织。美国政府、欧盟、联合国等都在制定或讨论相关的政策和标准。中国也在积极推进AI治理体系建设,并提出了“新一代人工智能治理原则”,强调了“尊重人类、服务社会、遵循法律、保障安全”的价值取向。
作为全球最大的互联网市场和最活跃的AI创新中心之一,中国有责任也有能力在AI监管方面发挥重要作用。我们应该积极参与国际合作和交流,分享我们的经验和观点,同时也借鉴其他国家和组织的做法和建议。只有这样,我们才能共同推动AI技术向着更加友善、公正、可持续的方向发展。