2025上合组织论坛 周鸿祎建言AI安全应对与柔性监管
2025上合组织论坛 周鸿祎建言AI安全应对与柔性监管
2025上合组织论坛 周鸿祎建言AI安全应对与柔性监管5月29日,以“智汇中国 智惠上合”为(wèi)主题的2025中国—上海合作组织人工智能合作论坛在(zài)天津举行。360集团创始人周鸿祎受邀参加“安全风险与监管治理”议题交流时表示(biǎoshì),人类(rénlèi)在享受AI带来的巨大机遇时,也必须正视与之伴生的安全风险与监管挑战。他提出,一方面,应“以模(mó)制模”,利用安全大模型解决大模型安全问题;另一方面则应以辩证(biànzhèng)、客观的态度看待监管问题,力求在保障安全的前提下,为创新预留足够(zúgòu)空间。
周鸿祎在发言中(zàifāyánzhōng)表示,从现实应用层面来看,大模型面临着传统安全(ānquán)威胁与AI自身安全隐患的双重挑战,这些问题已成为制约AI产业健康发展(fāzhǎn)的关键瓶颈,亟待系统性解决方案。在传统安全风险方面(fāngmiàn),系统漏洞与供应链攻击(gōngjī)成为AI领域的“心腹大患”。一旦漏洞被攻击者利用,企业(qǐyè)的核心商业机密、用户敏感数据等将面临被窃取的风险,可能给企业带来难以估量的损失。
而(ér)AI自身的(de)安全(ānquán)问题(wèntí)同样不容忽视。大(dà)模型存在的“幻觉”现象,以及易遭受提示注入攻击等特性,可能导致严重后果。特别是众多企业基于大模型构建了能够自主工作的智能体,这些“数字员工”具备调用各类(gèlèi)工具的能力,一旦大模型被恶意操控或出现“幻觉”,智能体可能出现误发重要邮件、错误操作致使生产线停摆等误操作,将风险从虚拟世界传导(chuándǎo)至现实生产生活中,传统的安全防护手段在这些新型风险面前显得捉襟见肘。
周鸿祎(zhōuhóngyī)提出,必须以创新思维重塑安全(ānquán)(ānquán)体系,“以模制(mózhì)模”成为破局关键。所谓“以模制模”,即利用人工智能技术自身的优势,通过安全大(dà)模型赋能数字安全,实现安全防御的智能化升级。据了解,360依托10年300亿元的技术投入成果,结合20年来积累的海量安全大数据,以及世界顶级安全专家的丰富(fēngfù)经验(jīngyàn),训练(xùnliàn)出专业(zhuānyè)的安全大模型,并形成完整的安全解决方案。目前,该安全大模型已成功应用于政府、能源、金融、教育等关键行业,为其筑牢AI安全防线。同时360牵头成立大模型安全联盟,联合科研机构、高校和行业头部企业,共享技术成果,共同研发安全产品与(yǔ)服务,携手推动AI安全有序地融入各行各业。
而在监管治理层面,周鸿祎指出,合理有效的监管是(shì)人工智能(réngōngzhìnéng)产业健康发展的重要保障。当前,全球各国纷纷(fēnfēn)出台AI监管政策,旨在规范技术应用、防范(fángfàn)潜在风险。然而(ránér),人工智能技术发展日新月异,其优势与局限并存,这就要求监管部门以辩证、客观的态度看待,在保障安全的前提下,为创新预留足够空间。
以大(dà)模型(móxíng)的“幻觉”问题为例,这一特性虽可能(kěnéng)导致信息偏差,但同时也赋予大模型创造力和想象力,在科研领域,如新药分子结构设计、蛋白质结构预测等方面发挥着积极作用。周鸿祎认为,可借鉴互联网早期发展的“避风港原则”,在AI监管中采取柔性治理策略具有重要意义(yìyì)。即在坚守(jiānshǒu)安全底线(dǐxiàn)的基础上,对企业因技术特性导致的一般性失误给予一定宽容度,以鼓励(gǔlì)创新。通过制定统一的技术标准和监管框架,明确规则边界,引导企业在规范内积极探索创新,避免因过度监管抑制(yìzhì)产业发展活力。

5月29日,以“智汇中国 智惠上合”为(wèi)主题的2025中国—上海合作组织人工智能合作论坛在(zài)天津举行。360集团创始人周鸿祎受邀参加“安全风险与监管治理”议题交流时表示(biǎoshì),人类(rénlèi)在享受AI带来的巨大机遇时,也必须正视与之伴生的安全风险与监管挑战。他提出,一方面,应“以模(mó)制模”,利用安全大模型解决大模型安全问题;另一方面则应以辩证(biànzhèng)、客观的态度看待监管问题,力求在保障安全的前提下,为创新预留足够(zúgòu)空间。
周鸿祎在发言中(zàifāyánzhōng)表示,从现实应用层面来看,大模型面临着传统安全(ānquán)威胁与AI自身安全隐患的双重挑战,这些问题已成为制约AI产业健康发展(fāzhǎn)的关键瓶颈,亟待系统性解决方案。在传统安全风险方面(fāngmiàn),系统漏洞与供应链攻击(gōngjī)成为AI领域的“心腹大患”。一旦漏洞被攻击者利用,企业(qǐyè)的核心商业机密、用户敏感数据等将面临被窃取的风险,可能给企业带来难以估量的损失。
而(ér)AI自身的(de)安全(ānquán)问题(wèntí)同样不容忽视。大(dà)模型存在的“幻觉”现象,以及易遭受提示注入攻击等特性,可能导致严重后果。特别是众多企业基于大模型构建了能够自主工作的智能体,这些“数字员工”具备调用各类(gèlèi)工具的能力,一旦大模型被恶意操控或出现“幻觉”,智能体可能出现误发重要邮件、错误操作致使生产线停摆等误操作,将风险从虚拟世界传导(chuándǎo)至现实生产生活中,传统的安全防护手段在这些新型风险面前显得捉襟见肘。
周鸿祎(zhōuhóngyī)提出,必须以创新思维重塑安全(ānquán)(ānquán)体系,“以模制(mózhì)模”成为破局关键。所谓“以模制模”,即利用人工智能技术自身的优势,通过安全大(dà)模型赋能数字安全,实现安全防御的智能化升级。据了解,360依托10年300亿元的技术投入成果,结合20年来积累的海量安全大数据,以及世界顶级安全专家的丰富(fēngfù)经验(jīngyàn),训练(xùnliàn)出专业(zhuānyè)的安全大模型,并形成完整的安全解决方案。目前,该安全大模型已成功应用于政府、能源、金融、教育等关键行业,为其筑牢AI安全防线。同时360牵头成立大模型安全联盟,联合科研机构、高校和行业头部企业,共享技术成果,共同研发安全产品与(yǔ)服务,携手推动AI安全有序地融入各行各业。
而在监管治理层面,周鸿祎指出,合理有效的监管是(shì)人工智能(réngōngzhìnéng)产业健康发展的重要保障。当前,全球各国纷纷(fēnfēn)出台AI监管政策,旨在规范技术应用、防范(fángfàn)潜在风险。然而(ránér),人工智能技术发展日新月异,其优势与局限并存,这就要求监管部门以辩证、客观的态度看待,在保障安全的前提下,为创新预留足够空间。
以大(dà)模型(móxíng)的“幻觉”问题为例,这一特性虽可能(kěnéng)导致信息偏差,但同时也赋予大模型创造力和想象力,在科研领域,如新药分子结构设计、蛋白质结构预测等方面发挥着积极作用。周鸿祎认为,可借鉴互联网早期发展的“避风港原则”,在AI监管中采取柔性治理策略具有重要意义(yìyì)。即在坚守(jiānshǒu)安全底线(dǐxiàn)的基础上,对企业因技术特性导致的一般性失误给予一定宽容度,以鼓励(gǔlì)创新。通过制定统一的技术标准和监管框架,明确规则边界,引导企业在规范内积极探索创新,避免因过度监管抑制(yìzhì)产业发展活力。

相关推荐
评论列表
暂无评论,快抢沙发吧~
你 发表评论:
欢迎