全国政协委员周鸿祎:建议制定保障通用大模型安全的标准体系
文/本刊记者 郑茂典
2024年03月11日

“现在企业对AI普遍比较向往,但不知道从何切入,特别是非AI企业距离相关技术还比较远,所以我们提出来一个概念,企业应该首先建立AI信仰。”全国政协委员、360集团创始人周鸿祎在2024全国两会现场接受《科技创新与品牌》记者采访时表示。
当前,人工智能引领的全球新一轮科技革命和产业变革加速演进,通用大模型作为推动技术变革的核心,是时代发展的关键引擎,在国家的高度重视下,我国通用大模型发展迅速。然而,安全问题随着技术的发展愈发凸显。安全与发展是一体之两翼,驱动之双轮,通用大模型的安全意义重大,关系到技术研发落地全产业链的安全,微小的安全问题便有可能引发系统性的安全风险,因此更需要国家和企业重点应对和保障。
今年,是周鸿祎正式进入履职的第七年。作为安全科技领域的委员代表,周鸿祎向大会提交了《关于鼓励兼具“安全和AI”能力的企业解决通用大模型安全问题的提案》。
周鸿祎表示,AGI(人工通用智能)的进步速度超乎想象,OpenAI系列模型工具发布后,AGI加速实现,将引发更加复杂的安全风险,主要包括技术安全、内容安全和人类安全三个方面。技术安全主要涉及大模型技术本身引发的安全问题,如网络、数据和生成内容的安全;内容安全则是对大模型的控制、滥用、误用和恶意应用等问题;而人类安全问题则是大模型强大后带来的安全可控问题。
对于上述情况,周鸿祎建议,国家应该更加重视通用大模型安全问题,给予兼具“安全和AI”能力的企业专项扶持政策,更好发挥其解决通用大模型安全问题的重要作用。
目前,国内的大模型安全问题不容乐观。一方面,国内大模型企业不熟悉内容安全、数据安全、科技伦理、网络安全等人工智能带来的安全挑战;另一方面,大部分安全公司又很少真正有能力深入大模型研究,上述两方面原因导致国内大模型安全领域成为整个产业链的薄弱环节。建议国家有关部门采用“揭榜挂帅”等方式,鼓励并扶持兼具“安全和AI”能力的企业,给予专项扶持政策,支持企业担起大模型安全重担,聚焦攻坚,为解决通用大模型安全问题提供坚实保障。
其次,他建议国家在内容安全、数据安全、科技伦理、网络安全等细分领域,牵头研究制定安全检测标准,在规范的安全标准体系下,推动通用大模型的安全评测工作,通过接入安全服务来保障大模型的安全。
最后,他建议政府和央国企加强与兼具“安全和AI”能力企业的合作,在政策和招投标条件上,给予更多合作机会,发挥此类企业在人工智能安全领域的优势作用,为国家安全贡献力量。
责编:建安

