导读:当下火爆的人工智能领域还存在着许多技术瓶颈。其实,我们离真正的人工智能之间的距离还很远。
人工智能现在已经火的不能再火了。各种新闻机构都在不断地放出猛料,有的说现在IBM的Waston人工智能已经能够彻底取代劳动者了;还有的说现在的算法在医疗领域已经能够打败医生了。每一天,都有新的人工智能初创公司出现,每一家都声称自己在利用机器学习,彻底颠覆你个人的生活,商业性质的活动。
还有一些大家平日里司空见惯的产品,比如榨汁机,无线路由器,一夜之间也都换上了全新的广告语:“我们都是由人工智能技术所支持的!”智能桌子不仅能知道你平日里工作时所需要的合适高度,甚至还能帮你点午餐!
但事实是什么呢?那些报道新闻的记者,其实从来没有亲自去介入到一个神经网络的训练过程当中,而新闻源头的初创公司以及营销团队也有自己的盘算:都是想扩大自己的名声,获取到资本和人才的关注,哪怕它们压根没有解决一个现实中存在着的问题。
也正是在这样的喧嚣气氛中,难怪在人工智能领域会出现那么多一知半解,其实大家都搞不清楚什么是AI能做的,什么是AI无法办到的。
深度学习确实是一个让人心驰神往的技术,这无可辩驳。
其实,神经网络这个概念自上个世纪60年代就已经出现了,只是因为最近在大数据、计算机性能上面出现的飞跃,使得它真正变得有用起来,由此也衍生出来一门叫做“深度学习”的专业,旨在将复杂的神经网络架构应用在数据建模上,最终带来前所未有的准确性。
现在的技术开发成果也确实让人印象深刻。计算机现在可以辨识图片和视频里的东西都是什么,可以将语音转化成为文字,其效率已经超过了人力范畴。Google也将GoogleTranslate服务中添加了神经网络,现在的机器学习在翻译水平上已经逐步逼近人工翻译。
现实中的一些应用也让人大开眼界,就比如说计算机可以预测农田作物产量,其准确性比美国农业部还高;机器还能更加精准的诊断癌症,其准确度也比从医多年的老医师还要高。
DARPA(美国国防部高级研究计划局)的一名负责人JohnLauchbury形容如今人工智能领域内存在着三股浪潮:
1、知识库,或者是类似于IBM所开发的“深蓝”和Waston专家系统。
2、数据学习,其中包括了机器学习和深度学习。
3、情境适应,其中涉及通过利用少量数据,在现实生活中中构建出一个可靠的,解释型的模型,正如人类能完成的程度一样
就第二波浪潮而言,目前深度学习算法的研究工作进展的不错,用Launchbury的话来说就是因为“流形假设”的出现。
在最近在湾区召开的一次人工智能大会上,Google的人工智能研究人员FrancoisChollet强调了深度学习的重要性,它比一般的数据统计和机器学习方法都要更高级,是一款非常强大的模式辨别工具。但是,不可否认它是存在着严重局限性的,至少目前来说是这样。
深度学习的成果是建立在极其苛刻的前提条件之上
不管是“监督学习”(supervisedperception),亦或者是“强化学习”(reinforcementlearning),它们都需要大量的数据进行支撑,而且在提前计划上面表现的非常差,只能做某些最简单直接的模式辨认工作。
相比之下,人就能够从极少数的例子上学到有价值的信息,并且善于在时间跨度很长的计划,在针对某个情境上有能力自己建造一个抽象模型,并利用这样的模型来做站在最高处的归纳总结。
事实上,随便在街边上走着的一个路人所能做到的最为稀松平常的事,对于深度学习算法来说都是难如登天。还是举个例子好了:现在比如说我们要让机器来学会如何在路上走的时候避免被车撞到。
如果你是采用的“监督学习路径”,那么你需要从汽车驾驶的情境中提取海量的数据,而且还要以明确标示出来的“动作标签”进行分类挑拣,比如“停止”、“站住”等等。再接下来,你还需要训练一个神经网络,使得它能够从眼下的情景和所与之相对应的行动之间构建因果联系;
如果你是采用的“强化学习路径”,那么你应该给算法一个目标,让它能够独立地判断当下最优解(也就是最理想的行动)是什么,电脑在不同的情境之下,为了实现避免撞车的这个动作,它估计要宕机上几千次;
Choliet总结道:“你不可能就以今时今日的技术研发成果作为基础,就能实现某种一般意义上的智能。”
而人则不一样,你需要告诉他一次:你需要躲避车子走。然后我们的大脑就有能力从少数的例子中提取经验,有能力在大脑中想象出来被车碾压后的凄惨场景(在计算机那里被称之为“建模”),为了避免丧生或者缺胳膊少腿,绝大多数人都能快速地学习到不被车撞到的要领。
虽然现在已经有了比较大的进展,一些神经网络可以从数据层面,在相当大的样本数量上给出一个惊人的成果,但是它们如果单独拿出一个出来,都是不可靠的,所犯的错误是人一辈子都不可能犯的,比如说错把牙刷当作篮筐。
数据质量的不稳定性带来的是:不可靠、不准确,以及不公平。
而且,你的结果,还得取决于输入的数据质量如何。神经网络中如果输入的数据是不准确的,不完整的,那么结果也会错的离谱,有些时候不仅造成损失,而且还会很尴尬。就比如说Google图片错把非裔美国人当作了猩猩;而微软曾经试着把一个人工智能放在Twitter上进行学习,几个小时之后,它就变得充满恶意,满口脏话,带有严重种族歧视。
也许推特上的这个例子有些极端,但不可否认,我们输入的数据本身就存在着某种程度的偏见和歧视,这种带有主观性的,潜移默化的观念或者暗示,有时我们甚至自己都无法察觉。就比如说:word2vec是google推出的做词嵌入(wordembedding)的开源工具,从GoogleNews里提取了300万个词。这组数据传递出来的信息包括了“爸爸是医生,妈妈是护士。”这明显就带有性别上的歧视。
这种歧视不仅仅是被原封不动地搬运到了数字世界,而且还会得到放大。如果“医生”这个词更多的指向“男人”而非“女人”,那么算法在面对一份公开的医生职位筛选的时候,它会将男性放在女性前面优先考虑。
除了不准确、不公平,还存在着最大的风险:不安全。
“生成对抗式网络”(GAN)的发明人IanGoodfellow提醒我们:现在的神经网络可以很容易被不轨之徒操纵。他们可以以一种人的肉眼无法识别的方式,篡改图片,让机器错误地辨识这个图片。
左边的是熊猫(机器的确认度是57.7%),加上中间的这层图片之后,机器的确认度上升到了99.3%,认为图片上出现的是长臂猿。
不要小看这样的风险,这种恶意篡改人工智能系统的做法,会带来极大的危害,尤其是被篡改的图片和最初的图片在我们看来完全是一回事。比如说无人自驾驶汽车就会受到威胁。、
以上就是深度学习所存在着的种种瓶颈,目前它要发挥作用所需要的前置条件太过苛刻,输入的数据对其最终的结果有着决定性的影响,另外,它存在着很多漏洞,安全性也无法得到保证。如果我们要驶向理想中的人工智能未来,这些瓶颈还有待于人们的进一步的突破与挑战。