设为首页 - 加入收藏
您的当前位置:首页 > 科技 > 正文

“人工智能+”理性正视挑战

来源:实事新闻头条 编辑:李丽 时间:2021-06-04

语音识别、文本识别、视频识别……数字经济时代,人工智能技术已走近你我身边,被视为经济增长的新引擎、国际竞争的新阵地和推动智慧社会建设的有效工具。而加快“人工智能+”产业融合、赋能更多行业应用落地,更成为社会各界共同的期待。

然而,不久前在由中国人工智能学会主办的2020中国人工智能产业年会上,最新发布的报告指出,目前已成熟应用的人工智能技术仅为语音识别,机器学习、计算机视觉、自然语言处理、知识图谱、智能机器人等技术距离生长成熟尚需数年时间,而无人驾驶汽车在未来10年内都不太可能出现。

从实验室走向大规模商用,人工智能还需要多久?尚存在哪些“堵点”“痛点”?在许多业内专家看来,正视人工智能尚存在的诸多挑战,对技术赋能抱有理性期待,方能让其回归技术本质,成为更多产业变革创新的动力源泉。

算法不透明导致的不可解释

2016年,谷歌人工智能系统AlphaGo击败世界围棋冠军李世石,令世人大为震动。依靠人工智能深度学习理论的突破,计算机可以模仿人类作出决策,然而,这仅基于大量的数据学习,而非因果或规则推理,整个决策过程仍是一个“黑箱”,人类难以理解,导致追责难。

复旦大学计算机科学技术学院院长姜育刚举例,此前,美国IBM公司研发了人工智能系统“沃森”帮助医生进行诊疗决策。然而,许多医生很快发现在使用“沃森”时,系统给出了多个不安全、不正确的治疗意见,甚至在极端的诊断案例中,“沃森”给有出血症状的癌症病人开出了容易导致出血的药物,严重时可致患者死亡。然而,医生却并不知道为什么“沃森”给出了这样的意见。决策步骤的不可解释,带来诸多不确定性。

近年来,人工智能应用于新药研发被寄予厚望。然而,算法的不可解释性却横亘在前。相关研发和监管部门需要清楚地知道药物开发中使用的算法,从而理解人工智能主导的决策背后的逻辑。如果不对监管实现算法透明化,人工智能将会是一个无法进行严谨的科学评价及验证的“黑匣子”。这可能会导致在药物审批过程中出现种种无法预料的问题,比如对人工智能“发现”的生物标记物的接受度不明。此外,对于智能政务、无人驾驶这样安全性要求极高的行业,人工智能的引入自然更为谨慎。

“深度学习的算法和核心模型需要能够真正展开,让公众知晓它的机理模型”,上海人工智能研究院有限公司总经理宋海涛建议。中科院软件研究所研究员薛云志则指出,人工智能面向不同知识背景的用户,要能以简单、清晰的方式,对决策过程的根据和原因进行说明,并能对系统决策过程关键节点的数据加以追溯并能够审计,这在未来人工智能应用大规模落地时,是特别需要关注的特性,也是实施监管的必要。

易受欺骗引发安全性质疑

作为人工智能技术的“大热选手”,深度学习可以通过对大量已知样本的训练,制作自己的样本,这是深度学习的特点,同样也是痛点。

京东人工智能研究院院长周伯文坦言,人工智能目前在面向产业化落地时,遇到的巨大挑战正是真实环境的开放边界和规则模糊,数据的“噪音”非常多,使得智能模型的部分结果和使用情况难以让人信赖。

姜育刚指出,人工智能目前的智能判别模式存在缺陷,容易被对抗样本所欺骗。比如图像识别,在一张人像图片上加入一些非常少量的干扰,人为视觉看上去基本没有区别,但人工智能模型就会产生识别错误;再如自动驾驶,一张“限速80码”的交通标牌,加入一些干扰后,就可能被机器识别成“禁止通行”。显然,存在很大的安全隐患。

语音识别领域也存在这种问题。技术人员在语音上任意加入非常微小的干扰,语音识别系统就可能会识别错误。同样,在文本识别领域,改变一个字母就可以使得文本内容被错误分类。

此外,若深度学习的数据集中存在隐藏的偏见,人工智能系统无法发现,也不会否定。缺少反馈机制的“照单全收”,最终可能导致生成的结果并不客观。

例如在行业内已经出现的,人工智能在深度学习后对女性、少数族裔、非主流文化群体产生“歧视”:亚马逊通过人工智能筛选简历,却发现了系统对女性存在偏见导致最终关闭。更为常见的是手机软件利用人工智能算法导致的大数据“杀熟”,如根据手机类型的不同,可能会推荐不同类型的商品,甚至打车时推荐不同价格、档次的车辆。

本站内容收集于互联网,站务联系QQ :

Copyright © www.szworkshops.com 版权所有

Top