AI 黑箱难题怎么破?神经网络模型算法给你答案
现在对于AI 完成某项任务已不是什么新鲜事,毕竟在工业、医疗、农业等诸多方面都大放异彩。最近,机器人的大脑又不断被开发,不但开始拥有好奇心来驱动自学,而且还像人们解释为什么作出了某些决策?机器人发展将迎来质的飞跃。
“我们需要质疑为什么算法程序会做出这样那样的决定,如果我们不在 AI 动机解释上花功夫,就无法信任这个智能系统。”卡内基梅隆大学计算机科学教授 Manuela Veloso表示说。
据了解, 创业公司 OptimizingMind 发明了一项能观察智能机器决策过程的技术。 这个算法的目的是创造“透明访问”系统,以呈现机器学习是如何做出预期的。OptimizingMind的负责人 Tsvi Achler 说:“该系统以人脑的神经模型为基础,能把任何深度网络转化为该系统的模式。它的目的是探索 AI 行为的潜在预期,并且找出 AI 思维模式的哪个方面对决策影响最大”。
“我感兴趣的是,大脑和计算机的共同点在哪里?为什么人脑可以在学会任何模型之后把它解释出来。如果我说 ‘章鱼’,你是否能告诉我那是什么?如果我问章鱼触手长什么样,你能告诉我吗?”
当然AI与人类大脑的主要区别之一在于:我们会条件反射地自主去学习,而AI则要有一系列的程序输入,而且牵一发动全身。这种灵活性与自主性对于AI来说还有很大的潜力可以突破。
此外,这个系统的“透明访问“也十分炫酷。这个系统提供了一种实时观察 AI 决策的方法,抓取重点信息上节省大量的时间。它可以程师们大幅减少机器开发的时间,帮企业节省资源。Achler 还表示,在提供透明度之外,这个算法还可以被修改。不但预期(expectations)能被表达出来,每个单独预期还能随着新信息立刻改变。