设为首页 - 加入收藏
您的当前位置:首页 > 科技 > 正文

算法偏见 技术滥用 人工智能如何安全可控发展?

来源:实事新闻头条 编辑:李丽 时间:2021-06-04

科技日报记者 付丽丽

作为引领第四次科技革命的战略性技术,人工智能给社会建设和经济发展带来了重大而深远的影响,但数据隐私、算法偏见、技术滥用等安全问题也正给社会公共治理与产业智能化转型带来严峻挑战。未来人工智能如何兼顾创新发展与安全可控?6月3日,作为北京智源大会重要内容之一,在由北京瑞莱智慧科技有限公司与阿里安全联合举办的“AI安全与产业治理”论坛上,专家们直击问题、建言献策。

算法偏见 技术滥用 人工智能如何安全可控发展?

算法脆弱 存安全隐患

“未来人工智能产业发展在扩大应用场景的同时,必须实现数据、算法与应用层的安全可控。”中国科学院院士、清华大学人工智能研究院院长张钹说。

张钹表示,AI的发展引发了新一轮的产业变革,一方面带来传统产业的智能化,但也带来了新的风险和安全隐患。从算法层面看,现有的AI算法很脆弱,泛化能力差。这意味着,如果将算法运用到与训练场景区别很大的实际场景中,就会存在安全问题。以无人驾驶为例,人工智能训练的时候不可能穷尽所有的情境,当遇到新的突发事件便无法处理了,造成AI技术的误用。同时,这种脆弱性还使人工智能系统容易被攻击、被欺骗,给AI技术的滥用造成可乘之机。

从数据层面看,现在人工智能应用效果很大程度上依赖数据质量,但由此会带来隐私泄漏、数据确权等问题。如果解决不好数据安全的问题,人工智能产业也不可能健康地发展。

“以上事例说明,AI的发展与治理之间存在很多的矛盾。因此,人工智能的安全可控问题要同步从技术层面来解决。”张钹说,在具体的实现路径上,他提出发展“第三代人工智能”,即融合了第一代的知识驱动和第二代的数据驱动的人工智能,利用知识、数据、算法和算力四个要素,建立新的可解释和鲁棒的AI理论与方法,发展安全、可信、可靠和可扩展的AI技术。

作为第三代人工智能的践行者与引领者,瑞莱智慧CEO田天表示,现阶段人工智能产业正经历从高速增长向高质量发展的转变,产业期待的提升让金融、医疗等更复杂的高价值场景的应用需求不断增加,安全性的重视程度也不断提升,但由于传统技术范式存在天然的算法漏洞和缺陷,难以支撑人工智能的长久高质量发展,为此田天提出,需加快发展第三代人工智能,发展“安全、可控”核心能力。

如何定义人工智能的“安全可控”?田天阐述道,“安全”是指打造数据安全与算法安全两大核心能力,解决数据强依赖带来的隐私泄漏与数据投毒等隐患,同时提升算法的鲁棒性与可靠性,“可控”既指应用层面的合规可控,更指核心技术的自主可控,以自主可控为根基,通过理论创新、技术突破形成核心竞争力。安全可控是发展第三代人工智能的核心基准,也是加快人工智能高质量发展的有力支撑。

相较数据安全,算法安全问题仍处于刚“兴起”阶段,但其安全危害仍然不容小觑。阿里安全资深算法专家何源介绍,虽然人工智能技术已经在净化网络环境、知识产权保护、生物识别、线下安防等安全工作中发挥着越来越大的助力作用,让安全更智能,但其本身也面临着鲁棒性不够、可解释性差、技术滥用等安全风险,比如算法漏洞的存在可以针对图像检索系统开展攻击,导致非原创图片逃逸检测等,对网站安全与商家权益造成威胁等。

百度安全主任架构师包沉浮也表示,算法安全风险的实际危害正逐步体现,自动驾驶场景下,模型鲁棒性的欠缺将导致自动驾驶系统在对抗环境或光线、天气条件多变的复杂环境中发生错误识别而引发严重后果。除了算法安全,他认为人工智能安全还包含“实现安全”。他强调,代码安全与场景安全的“实现安全”也直接影响着AI系统最终决策的完整性与安全性。

需打造配套“基础设施”

“发展安全可控的人工智能是一项系统性的工作,需要行业标准、法律规范等治理工作与技术发展等多个维度共同推进,打造与之配套的‘基础设施’。”与会专家认为,

针对算法治理路径的探索,清华大学人工智能治理研究院副院长梁正表示,从社会治理的角度看,算法模型存在难以解释、难以控制、难以问责的特征,可能导致歧视、脆弱不稳定、操纵剥削、信息茧房等安全风险。与国际算法治理经验相比,国内的治理依据虽然初步形成,虽然政策引导、标准指南、法律规章等相继发布,但尚未形成完善的治理体系。

本站内容收集于互联网,站务联系QQ :

Copyright © www.szworkshops.com 版权所有

Top