揭秘:AI 的神话与现实

前言

几年前,在学术机构之外很难找到人认真讨论人工智能(AI)。但在今天,几乎每个人都在说AI。和所有新技术趋势一样,这波新浪潮正源源不断地带来好奇心和热情。普罗大众的参与,虽然创造了不少伟大的想法,但在许多情况下也导致了错误看法的出现。

揭秘:AI 的神话与现实

AI是由伟大的思想家和学术研究者建立的,接着被世界各地的学术界和工业界进一步发展,它的发展速度比任何人所预料的都要快。事到如今,人类自身的生物局限性正日益成为创建智能系统的主要障碍,这些智能系统本应和我们一起工作,利用我们的生物认知能力来实现更高的目标。

在过去几十年里,AI克服了许多学术方面的障碍。然而,在进入现实场景中,它出现了许多问题,围绕它产生了不少神话和误解。不幸的是,由于对于AI能做什么和不能做什么的信息令人困惑和冲突,行业很难在狂热者、平台供应商和服务供应商造成的拥挤和嘈杂的生态系统中区分事实和虚幻,带领行业前进。

所以,现在最主要的挑战是,如何让行业对AI能和不能做什么有一个现实的界定,并不断地对其进行更新,从而引导他们的组织以正确的方式应用AI来解决现实世界中的问题和改造他们的业务。此外,学者和AI从业者有责任走出泡沫,与行业专家合作,以进一步发展AI的学术基础,使其在现实世界中的应用得更快。

行业认知“一团乱麻”

过去几年,几乎所有行业都在试图了解AI以及企业如何从中受益。不幸的是,直到现在,AI的应用大多还没超越概念证明(POC)阶段,即小范围分散使用机器学习(ML)算法阶段。

如今的许多POC项目,基本还是使用简单的统计方法给他们的问题添加一些简单的预测或分类,就堂而皇之地冠以AI的名字。实际上,这仍然可以定义为分析或是高级分析,在理解结果和作出决定或采取行动时仍然需要广泛的人为干预。

随着业务流程和操作条件的不断变化,新生成的数据和不同业务因素的不断变化降低了精度和价值,这些算法可能会随着时间的推移变得无用,甚至导致危险的决策。这一现实使企业感到困惑,阻碍了他们以适当方式采用先进的AI技术。

目前,不少企业选择少量采用ML算法以快速获得收益,但是这可能会对跨行业AI应用造成挫折,从而引发另一个“AI寒冬”。当然,这次在行业方面,而不是在学术方面。

不过,这也并非全无坏处。虽然这一水平的AI应用让公司浪费了许多机会和资源,但它有助于使企业和IT高层相信,AI可以推动变革性和相关的创新。

分散式ML的诅咒

以往常见的现象是,一些有雄心的商业大咖使用开源ML库,在他们自己和业务领域内启动AI计划,但只重点关注一些需要优化的关键决策。这些行动通常不是整个公司有组织计划的一部分,虽然可以获得一些价值,给使用AI解决问题提供了第1次经验,但它导致了分散的跨组织的ML算法。不幸的是,这种分散的ML算法不能完全释放数据中隐藏的价值,也不能充分利用组织所拥有的宝贵业务知识。此外,它们还会给公司带来潜在风险。

分散的ML算法带来的一些主要风险是:

  1. 算法如果通过有限类型的特性和数据进行培训,会导致在业务领域之外做出错误的或有时是危险的业务决策;
  2. 在优化本地运营决策时,此类算法可能会无意中对其他业务领域甚至全球运营产生负面影响;
  3. 这种单独的算法很容易被内部或外部参与者操纵和误导,从而增加了一个新的网络安全风险类别;
  4. 培训ML算法可能需要昂贵的计算能力,这会增加小型企业单位的高成本。在许多情况下,这导致业务部门完全放弃AI,因为他们错误地认为采用AI的成本很高。

如果企业的业务职能部门和运营部门能够直接连接的,它们生成的数据、创建的知识以及所遵循的角色是共享的且相互依赖的,那么AI可以在人类忽略的大量数据和特征中找到到一些相互依赖的关系,创建一个强大的数据和知识平台,使跨组织分布式AI系统能够将分散的数据、知识和决策性质从弱点转换为主要优势。

因此,各企业现在能能够迅速采取行动,整合所有松散的AI战略和ML算法,将其整合成整个企业级别的安全AI平台。这将使现在分散但其实相互关联的AI解决方案提供真正的智能,从而在需要做出决策时为企业带来利益和转型能力。这一举措还将降低采用成本,增加投资回报率,从而加速AI的采用。

使用AI技术还是创建智能企业?

就算AI还不具备这种能力,企业也必须预先向好一个问题:他们是只想部分使用AI技术,还是最终创建一个全智能企业?

目前围绕机器人工序自动化(RPA)以及它们是否是AI一部分的讨论,让关于整个AI应用的讨论偏离了轨道。有许多企业在引入了这种自动化工序后,就自满于自己成为AI应用的先锋。

然而,RPA不是AI的一部分,至少基于学术定义是如此。当前的RPA技术只是简单的脚本,在许多情况下,这些脚本只是将人类多年来积累起来的当前业务流程交由自动化机器人完成而已,在设计时也主要围绕人的需求。

事实上,这也是一个机会,一个通过RPA和智能工序自动化(IPA),重新设计员工队伍的机会,在新员工队伍中,人和机器更智能、紧密地协作。

企业应该从一开始就立志于创建一个智能企业,它不仅提供智能产品和服务,还要在内部采用智能流程。它要充分利用人类的生物智能和机器的AI能力,而不仅仅是自动化重复过程。

考虑到智能企业的人工制品和内外部业务环境日益复杂,而我们的生物能力又着实有限,过多的传统人工干预其实正日益成为实现智能企业目标的主要瓶颈。因此,组织需要停止浪费时间讨论RPA,转而动手制定智能企业的战略和路线图,其中应包括:

  1. 智能企业的总体愿景、定义和路线图,包括如何以动态方式找到产品、解决方案和服务问题的原因、内容、方式;
  2. 新智能流程的路线图,设计用于更紧密的人机工作方法;
  3. 超越AI和ML算法的策略,以识别对端到端智能解决方案和产品至关重要的其他技术,例如新的传感技术、智能物联网网关、边缘计算硬件以及包括量子计算在内的高性能计算机;
  4. 在构建、使用、操作和维护此类智能系统和解决方案的过程中,创建所需文化和组织运作转变的计划;
  5. 创建创新生态系统的计划,该生态系统应是新业务的一个组成部分,以预见并向新业务和联合客户提供新的智能服务。
  6. 由AI技术赋能的人机界面(HMI)。

对数据的误解

到目前为止,培训、测试和验证当前的ML算法仍然称得上是挑战,尤其是深度学习,因为它们需要大量的良好数据。过去几年的数据表明,在许多情况下,企业在编写ML方法时,没有足够数量和质量的历史数据。

即使在有足够的数据的情况下,人类也必须在数据工程、数据分析、特征工程、特征选择、预测建模、模型选择和验证等不同领域投入大量精力,然后才能使用初始算法。此外,手动调整第1代算法的内部结构设计,以及后续的持续改进,都还需要大量繁琐和重复的工作,并且需要大量的计算能力。

当前的各种“预测分析”算法实际上都是在用简单的统计模型,根据可用的历史数据来预测某些内容。它建立在一种假设之上,即未来将简单重复过去发生的事,显然,这种假设是错误的,部分“昂贵”的历史数据反而会产生误导效果。

此外,科学家们对统计推断和滥用统计显著性和“P值-概率值”的警告日益增多,在某些情况下,这可能导致灾难性后果。一些科学家甚至呼吁放弃传统统计学上的概念,特别是在需要高精度预测的情况下。

AI解决方案的安全性

我们都希望AI方案能够以不同于传统软件解决方案的方式进行自我保护。从技术上讲,AI系统有可能自动检测到敌方行为,甚至在某些情况下,主动采取先发制人的措施来保护自己。如今,AI正被有效地用于增强传统的网络安全解决方案,使其能够早期识别或预测威胁,并建议对敌方系统。

但是,这只是针对目标的保护,对于自身的保护,AI不一定有那么好。黑客也许不需要再窃取数据,只需向AI系统提供错误的数据,从而操纵他们做出正确决策的能力。例如,黑客可以访问电子病历(EMR)来添加或删除MRI扫描中的医疗状况,这将导致ML算法误判。同样的情况也可能发生在核电站或智能电网的财务数据或关键设备的运行数据上。

AI特点之一,就是它们能根据我们解决问题或做出决策的方式,以及我们授予它们访问权限的外部数据源来自己学会保护方法。这种独特的性质也使其更容易受到新类型的网络威胁。这和误导人类行为的方法差不多。

AI系统的道德风险

AI伦理和偏见是当今最常讨论的话题之一。当我们根据经验创建的ML算法规则时,这些算法也将直接反映我们思考和处理事情的方式。

在许多情况下,如诊断医学图像、预测设备故障或优化生产能力时,道德和社会偏见可能不是迫切需要解决的问题。这造成了一种误解,即AI没有偏差,许多公司都不知道ML算法可能会给组织带来高风险甚至法律负担。

例如,我们通常使用特定设备的技术数据和其他操作和环境数据来训练ML算法,这些算法可以主动预测设备故障或指导我们如何提高其性能。在某些情况下,由于许多已知和未知的变量,算法可能会倾向于以故障率为基准做决策,从而导致业务中断。

结论

各企业必须认真制定全面而灵活的AI战略,并立即启动适当的执行计划,为新时代做好准备。这一面向智能企业的战略将有助于创造未来的新的人机合作方式,并重新塑造整体业务格局。这要求企业和IT领导层对AI现在和未来能做的事情有一个现实而准确的看法。

此外,如果是由拥有在AI领域具有丰富学术和实践经验的人来领导这类行动,有助于摆脱炒作,避免代价高昂的社会误解。

AI不应局限于几个功能领域,企业应预先考虑采用嵌入式、边缘化和集中化智能的混合平衡方法,以确保组织的集体智能在所有团队、职能领域、产品和服务中得到良好的协调发展。

相关推荐