我们对人工智能的误解有多深
人工智能技术具有正、反两方面的作用,在造福于人类的同时,也存在各种风险。理论上可能存在以下四种风险。
技术失控。技术失控指的是技术的发展超越了人类的控制能力,甚至人类被技术控制,这是很多人最为担忧的风险。现有人工智能技术仅在满足强封闭性准则的条件下,才可发挥其强大功能;在非封闭的场景中,现有人工智能技术的能力远远不如人类,而现实世界的大部分场景是非封闭的。所以,目前不存在技术失控风险。
技术误用。与信息技术相关的技术误用包括数据隐私问题、安全性问题和公平性问题等,人工智能技术的应用可以放大这些问题的严重程度,也可能产生新的技术误用类型。在现有条件下,人工智能技术本身是中性的,是否出现误用完全取决于技术的使用。因此,对人工智能技术误用的重视和风险防范应提上议事日程。
应用风险。应用风险指的是技术应用导致负面社会后果的可能性。目前人们最担心的是人工智能在某些行业中的普遍应用导致工作岗位的大量减少。应用风险是由技术的应用引起的,因此关键在于对应用的掌控。根据强封闭性准则,人工智能技术在实体经济中的应用往往需要借助于场景改造,而场景改造完全处于人类的控制之下,做多做少取决于相关的产业决策。
管理失误。人工智能是一项新技术,它的应用是一项新事物,社会缺乏管理经验,容易陷入“一管就死,一放就乱”的局面。为此,更需要深入理解人工智能现有成果的技术本质和技术条件,确保监管措施的针对性、有效性。
目前对人工智能存在三种认识误区:
一是人工智能已经无所不能,因此现有人工智能技术可以无条件地应用。根据强封闭性准则,现有人工智能技术远未达到无所不能的程度,应用是有条件的。因此,在产业应用中亟须加强对强封闭性准则的认识,加强场景裁剪和场景改造,避免违反强封闭性准则的盲目应用,而这种盲目目前在国内外都十分普遍,不仅浪费资源,更严重的是干扰了有希望成功的应用。
二是现有人工智能技术不能大规模实际应用,因为现有人工智能技术依赖于人工标注,并不智能。现有人工智能技术并不局限于深度学习,而暴力法和训练法的结合可以避免人工标注,而且符合强封闭性准则的应用场景可以有效地实施数据采集和人工标注。目前一些应用不成功的原因在于违反了强封闭性准则,而不是因为现有人工智能技术不能应用。这个误区往往发生在对人工智能技术有一定了解而认识不到位的情况下。与第一种误区一样,这种误解会严重影响我国人工智能产业应用的进度。