近日,由OGCIO、HKIRC、Cybersec Infohub、HKU(香港大学)共同举办的网络安全研讨会The Rise of Artificial Intelligence-Applications and Challenges在香港大学举办。研讨会深入探讨了在人工智能兴起的背景下,尤其是ChatGPT等AIGC类产品被广泛应用的当下,网络安全行业面临的挑战与机遇。绿盟科技安全研究员刘黄骁烈受邀出席了研讨会,并发表了《ChatGPT Research: Applications and Challenges for Cyber Security》主题演讲。
刘黄骁烈介绍,ChatGPT对网络安全造成的影响,主要可以分为挑战与应用两个方面,挑战方面包含:攻击武器化、引入安全隐私风险、造成不良社会影响;应用方面包含:优化产品交互、辅助安全任务、提供咨询顾问。
在介绍ChatGPT给网络安全造成挑战方面的详细案例后,刘黄骁烈认为虽然ChatGPT武器化导致的影响在企业机构网络安全投入充分的前提下仍在可控范围,但使用ChatGPT所引入的特有的安全隐私风险,目前仍很难通过技术手段进行有效控制,需要用户加强安全隐私意识,并对ChatGPT引入的风险加以评估与防范。此外,ChatGPT的使用有必要依照使用场景进行监管,为此绿盟科技也投入了对AI生成内容检测工具的开发。
在介绍ChatGPT在网络安全方面的应用案例与实现分析后,刘黄骁烈认为对于ChatGPT在网络安全中的应用场景,应当更多聚焦在内容生成场景,通过ChatGPT强大的内容生成能力,实现自然语言维度的“安全可视化”。关于ChatGPT辅助安全任务,目前来看由于ChatGPT处理问题的正确率总体上仍处于较低水平,因此很难集成到全自动化的安全产品中,但是能够作为工具提高安全从业人员的工作效率。ChatGPT作为咨询顾问,在宏观问题上有较好表现,但是其给出的细节有时会存在错误,且不使用插件的ChatGPT掌握的知识不具备时效性,因此在威胁情报、安全研究等方面的使用仍然具有一些局限性。总体上看,ChatGPT目前已经能够很好地辅助安全从业人员提高工作效率。目前。绿盟科技在ChatGPT融入安全产品方面已经进行了一些分析与尝试。
4月11日,国家互联网信息办公室就《生成式人工智能服务管理办法(征求意见稿)》公开征求意见。提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。其中提到,用于生成式人工智能产品的预训练、优化训练数据,应满足以下要求:符合《中华人民共和国网络安全法》等法律法规的要求;不含有侵犯知识产权的内容;数据包含个人信息的,应当征得个人信息主体同意或者符合法律、行政法规规定的其他情形;能够保证数据的真实性、准确性、客观性、多样性;国家网信部门关于生成式人工智能服务的其他监管要求。
《生成式人工智能服务管理办法(征求意见稿)》是国家首次针对于当下爆火的生成式AI产业发布规范性政策。绿盟科技将紧跟行业发展需求,对AIGC领域以ChatGPT为代表的一系列大规模语言模型进行了详细的研究与探索,并在网络安全的角度进行了分析与尝试,为客户安全合规地应用AIGC技术提供协助与指导,支撑政府与监管机构构建安全可信的AIGC行业生态,并利用AIGC技术,优化公司网络安全产品的使用体验,强化产品安全能力。