国产推理大模型DeepSeek-R1的诞生标志着我国AI技术从“追赶者”向“领跑者”实现历史性跨越,成为全新的生产力工具,其开源、透明、免费等特质,尤其适合在政府与企业开展私有化部署,随之而来的安全问题也日益凸显。
今年两会期间,全国政协委员、360集团创始人周鸿祎再度聚焦大模型安全。他认为,DeepSeek-R1等先进模型带来了前所未有的机遇,也同样面临无法通过传统网络安全手段解决的安全挑战。对此周鸿祎呼吁各界共同努力,构建更加完善的大模型应用安全治理体系,在保障安全的前提下最大化地释放大模型技术的潜力。
周鸿祎认为开源带来大模型的广泛应用,未来将会有各类专业大模型、垂直大模型、场景大模型,连接内部知识库,以智能体的形式在大批政府机构和企业中广泛部署,推进“数转智改”,实现降本增效。然而大模型存在幻觉、内容安全等诸多问题无法通过传统安全方案有效化解,一旦部署在政府、企业内部的基座模型、知识库或智能体中任一环节出现安全隐患,都极有可能诱发整个生产环境爆发系统性风险。
周鸿祎认为,大模型应用安全主要集中在基座模型、知识库和智能体三个方面。基座模型安全方面,由于大模型普遍存在的幻觉现象,特别是在生成文本时可能输出与现实不符的信息,这在政策制定、法律条文解读或商业决策等场景下可能导致误导性后果。
知识库安全方面,政府和企业核心数据资产存储于内部知识库中,若缺乏有效的安全控制措施,未授权用户可能利用与大模型交互的机会窃取这些宝贵的数据资源。
智能体安全方面,智能体通常与政府、企业内部各类IT、邮件、控制系统相连,一旦遭受攻击,可能会引发一系列连锁反应,从发送有害邮件到中断生产线运作,造成严重的物理损害。
周鸿祎介绍,针对上述挑战,360运用人工智能技术重塑安全格局,采用“以模制模”的方式应对新难题,依托安全大模型技术搭建起覆盖“基座模型—知识库—智能体”的全链路安全体系,护航政府与企业“数转智改”。
为进一步强化这一防御体系,周鸿祎建议采取两项措施:一是推动安全技术创新与成果转化。建议相关部门及时出台配套政策措施,鼓励具备“安全+人工智能”完整解决方案的链主企业,针对人工智能应用所涉及的基座模型、知识库、智能体等安全问题,基于安全大模型技术开展研发工作,加速推动技术成果转化,将安全要素深度嵌入人工智能应用全流程。
另一方面,组建产业联盟,推广安全产品。引导相关链主企业发挥牵头作用,广泛吸纳产业链上下游企业、科研机构及终端用户,组建人工智能大模型安全联盟,在联盟内部实现技术成果共享,共同开展产品及服务测试,待产品与服务成熟稳定后,向更广阔的市场加以推广,助力大模型安全保障普及至千行百业。