AI人工智能管理框架
权力意味着新的责任
过去人们会研究一个过程,它的输入和输出,然后编写可以自动化该过程的代码。构建此类软件是以数字形式获取知识产权的一种形式,直到现在它一直是一种主要由人类驱动的认知任务。如今AI正在编写自己的软件,从噪声中提取信号,自己搞清楚很多规则; 它正在承担数字化编码世界的认知任务。人工智能正在彻底改变可自动化的内容以及可以部署的规模。随着新的领域出现,也带来了新的责任那就是就是确保人工智能正在为正确的目标服务。
现代的人工智能可以找出对应的模式,然后对对象进行分类,做出决策并评估结果。它可以使用反馈循环学习和适应新情况。这是非常棒的软件。不需要花一分钱去请人做分析,然后在花钱请人去做一个软件,然后花钱请人去验证你的结果,最后发现到它没有达到你的预期,再返回去调整软件。这整个周期在大型组织中可能需要数年时间,但由人工智能驱动的设计合理的流程可以在几天内完成。它可以自我重新编码,推演变化,并验证它是否实际上是朝着你想要的方向移动 - 所有这些都是以超出人类能力的准确性和速度进行的。这相当强大。但也相当具有威胁性。
这种新方法正在以前所未有的规模向组织引入新的风险。编写代码的方式是显示数据示例,而不是自己编写或编辑系统。此时,对结果的监控非常少,因为当前的数据治理领域仅涉及数据本身的质量,完整性和安全性。另一方面,人工智能管理更广泛地关注数据中的信号及其驱动的结果。
与人为驱动流程的数据相比,人工智能的运营流程有时会比过去好10倍或更快,从而导致以前从未见过的场景。仅从价值的角度来看,这可能会有些问题。但如果在向特定的消费群体销售的方面会变得超级高效,虽然可能会将自己锁在里面,而忘记掉市场的其他部分。所以你的模型是否关注到这些问题?
负责管理新资讯系统的机构主要有三个工作重点:
- 准确定义代理要解决什么问题和目标,以及应该寻求的结果。这包括正确的绩效指标,以及应提取的IP(洞察力,世界模型等)以及用户和供应商之间的所有权梯度。
- 协调驱动模型学习和改进的反馈循环,从原始集合到结果解释以及与其他智能系统洞察力的连接。
- 评估风险,找出代理系统可能出错的所有点。模型将在流程的每个阶段如何进行自我评估?如何监控自动化系统以确保它做正确的事情的?
让人工智能学习和执行汽车的基本功能一样都是非常简单的。挑战在于它是否可以在所有不同的背景下这样做,例如不断变化的道路条件,暴风雨的天气,行人等。使用数据示例进行编码可以大大降低成本,但仍需要大量的人类的聪明才智来考虑如何应用它,管理人工智能系统的工作将更多地考虑人工智能是否正在处理全局。而管理价值创造和风险是治理框架的目的。
所以,我认为对人工智能的管理从内到外都应该是可信的,而这里有一个人工智能管理的框架:
自我管理的水平
0.分离
你的组织中有一些活动是人工智能所不知道的。你需要将这些考虑到你的风险评估中,甚至分离的活动最终也会如何连接起来。例如:人工智能系统可以分析10年前制作的手写笔记或旧的商店视频片段获取相关信息。
1.观察
观察是人工智能的基本实现之一,它收集和分类信息以驱动其他进程。它在观察什么,关注什么或忽略的是什么?它收集的信息连接到哪些进程?示例:有一种人工智能系统可以观看一场冰球比赛并记录一些数据,包括人类无法看到的统计数据,例如支票的力量。
2.指导
指导就是在人工智能不采取行动的情况下提出建议。人工智能训练仍然可以发挥强大作用,一定程度上归功于我们对人类行为的了解。举个例子:假如我在做脱口秀,而摄像机在看着观众,人工智能就可以分析他们的肢体语言以判断他们是否感到无聊。它还可以告诉我观众喜欢什么和不喜欢什么,什么时候我可以尝试讲另一个笑话。
3.合作
在这种情况下,机器还不能完全的自动化运行,但仍然可以驱动大部分的场景。举例:在保险索赔处理中,人工智能可以进行60%或70%的自动化任务。这意味着许多任务都是由人工智能完成的,而人类则处于任务中进行处理和分析其他30%的任务。
4.自主
当一个人工智能代理完全进行自我管理时,事情就会进行的特别快了,以至于人类无法参与到这里面来。人工智能将会调整系统、监控结果和提供反馈。示例:这就好比是今天网络安全或高频机器人交易的大部分内容,机器以超出任何人类监督的速度自行制定大量的策略。
对不同的组织来说,对这些自我管理的水平进行分类也会有所不同,但这体现了它的广泛范围。
工业中的AI治理框架
以下是我对每个类别的含义解释。每个组织都需要为每个部分考虑自己一般的原则,但也要将它们单独应用于每个代理,针对特定情况制定具体规则。出于个人考虑,我将添加代理的角色、部署的需求、要注意的风险,对抗性治理模型的参数,以及它如何与更广泛的、现有的公司治理相关联(尤其是围绕数据和道德)。
性能
人工智能需要按照说明书的说法去做。也就是说,它需要正常运行并满足期望。只有能够以可预测和准确的方式执行的人工智能才能够获得对其提供的实际结果的信任。
准确性
准确性是指人工智能的信心和能力,正确的将一个或多个数据点分类为正确类别的能力,以及基于这些数据点和分类做出正确预测,给出建议或决策的能力。准确性是相对的。您希望确定在给定的上下文中对你的业务或产品有多大程度的准确度。如果你预测呼叫中心的每分钟的呼叫,70%准确率就已经不错了,但如果你试图预测杂货店本周的销售情况,70%那可能就有点糟糕了
偏差
偏差在系统中存在的方式有很多种,而且永远都无法完全消除。所有数据都是通过某种偏见,意图或对重要事物的世界观来收集的。在许多情况下,可以在收集阶段消除不需要的偏差。鉴于数据总是带有某种偏差,这也是一个在模型中对其进行核算和控制的问题。重要的是要确保偏差不足以将结果影响到对业务有害的结果。根据应用程序和环境的不同,有几种方法可以抵消AI中的偏差,包括添加更多不同的数据集和输入,以及确保正确描述目标的子目标。
完整性
完整性的概念与“平衡”密切相关,尽管它没有包含太多有害的结果,而是缺少一些有用的信息。不完整的人工智能会丢失一些数据的输入,而这些数据的输入会阻止它有效的执行任务。例如,一个交通应用程序预测拥堵模式,但缺不考虑天气的影响。是一个特定的关注领域,需要适当的自我管理水平。
安全性
为了保护性能,人工智能需要确保过程、数据和结果的安全性。使人工智能不会受到敌对的数据、不可预见的场景、外部影响以及可能对其决策能力产生负面影响的操作的影响。
适应性
这是人工智能处理不断变化的情况的能力。如果我要推出新产品和对手竞争,那么预测产品的可靠性以及调整人员配置的决策有多可靠?一个适当可以适应条件的人工智能可以在新的情况下用于相同的案例。确定阈值的有效措施可能是在部署之前就可以看到的情况的数量和多样性。足够多的的边缘案例将表明该模型将随着时间的推移而扩展,并且应该定期添加到训练方案中。
对抗性强
一种特定类型的适应性是针对试图破坏模型的代理(人或人工)。这基本上是网络安全的重点。通过将人工智能暴露给具有恶意或甚至是目标不一致的各种情况或代理,组织可以在部署后遇到这些情况和代理之前做好准备。
隐私
在用户交互的所有时刻都需要保证隐私。这包括用户输入的所有信息,以及在与人工智能交互过程中生成的有关用户的所有信息。
IP获取
知识产权是许多人工智能开发组织商业模式的核心。IP获取的参数需要与他们驱动的业务价值挂钩,以确保获取了正确的东西,但他们还需要确定谁拥有什么。需要在供应商,员工,组织和最终用户之间明确定义这些知识产权。什么构成“正确”的权利分配取决于具体的环境,并意味着就数据的控制和所有权概念达成一致,而目前还没有对此达成一致。在GDPR世界中,这些决定也需要越来越多地被披露。
受影响的用户
通过定义这些IP的权利,任何支持人工智能的组织都需要注意不同信息的使用方式,以及影响不同级别的用户。跟踪数据流(即数据的来源和去向)及其在组织内外的使用数据流对于保证隐私至关重要。需要有适当的机制允许用户将数据带到别处(可移植性)或删除他们的数据(被遗忘的权利)。
透明度
只有在正确沟通的情况下,才能建立对系统的信任。如果没有关于价值观、流程和结果的透明度,那么信任的建设将会是有限的。
可解释性
关于可解释性,我们目标不应该是暴露我们用于获得某种结果的算法的精确内部技术工作。相反,我们的目标应该是揭示为什么满足或不满足当前应用程序的某些标准。例如:自动驾驶汽车没有看到一个小路标而撞上了它。这是为什么?因为它配备的特定传感器不能处理路标上涂料的反射涂层。在这种情况下,自动驾驶人工智能如何精确处理数据并不重要。重要的是事故是如何发生的,之后可以由用户在事情发生的时候进行调整,然后由系统的管理员进行事后调整。
目的
从事人工智能工作的组织应记录其目的,并使用某些理想价值标准(如人权,透明度和避免伤害)来限制它们。这不仅强制进行有意识的设计过程,而且声明的意图也确保用户(无论是内部还是外部)了解应该如何应用该工具。误用该工具可能会破坏此框架中的所有其他注意事项。
这里有一些最后值得思考的东西
如果你想大规模推广人工智能,治理绝对不能是事后诸葛亮。它必须是战略的一部分并且有详细的记录。就我个人而言,我认为这将通过执行不同的项目来实现。在问题/解决方案定义期间,需要与公司中的业务部门协作制定规则来治理。然而,无论谁负责组织中的网络系统,它都是最终的责任,他们需要为每个人清楚地定义它。
问责制
即使付出了最大的努力,事情也难免会出错。良好的人工智能治理应包括问责机制,根据目标的不同,可以有很多选择。机制可以包括货币补偿(无过错保险),故障发现和无货币补偿的和解。问责机制的选择还可能取决于活动的性质和权重,以及发挥自主权的程度。系统误读药品索赔并错误地决定不赔偿的情况可以通过金钱来补偿。然而,在涉嫌歧视的情况下,解释和道歉可能至少同样重要。
道德与公司治理
合作的一个关键领域是与更广泛的公司治理结构进行合作,这是组织的道德指导来源。因为使用人工智能,组织有能力采取行动,而这些行动很难或不可能雇用人员去做。你可以使用一个非常人性化的、友好的机器人给你的每一位客户打电话,并在不告诉他们这是一个机器人的情况下,提供更多的建议。你会这样做吗?这是一项神奇的工程技术,但它也带来了一些道德问题。关键是,技术团队不能确定支撑治理框架的道德规范,因为这是一个主观问题。最有可能的是,治理委员会需要自己的道德委员会(如果还没有委员会)来回答这些问题。
增强治理
我不认为人工智能治理能够在没有人工智能增强的情况下工作。治理可能需要自己的一群对手,它们的角色是用来测试和挑战基础架构和系统。我认为这将会是下一代的监管系统,用于监控所有治理考虑因素的稳健性。他们将能够积极的、强制的对决策进行解释,独立的衡量偏差和评估的完整性,也可能与公司治理和外部审计师进行不同的迭代。这些将是单元测试和持续的压力测试,将跨组织推广甚至强制执行问责制。
当然,首先需要实现框架。将这些注意事项纳入到代理的开发过程中,并开始在整个组织和用户之间共享结果的做法。收益不仅仅是更强大的模型,而是避免了监管陷阱,以及还让所有用户对系统拥有了更多信任。
本文作者认为随着人工智能的发展必然会使人工智能拥有一部分人类的权利,而人工智能拥有了这些权利那么必然的也会要承担一部分责任,人类是否需要让人工智能拥有自我管理的能力,这一点是毋庸置疑的,人工智能肯定会拥有这个能力,而人类要做的是如果让人工智能拥有了自我管理的能力后,可以做出对人类有益的事情,而不是将事情想坏的一面发展,而作者分析了人工智能自我管理水平的发展路线,首先是并没有使用人工智能,然后是观察、指导、合作、自我管理这五个步骤,而这五个步骤中,前三个是以人类为主导地位的,后两个是以人工智能为主导地位,而人类对于人工智能的管理绝对是不可以等到以人工智能为核心的时候再去指定一套详细的规则,那时候未免就有点晚了,所以作者探讨了从性能、安全、隐私、透明度这四个方向中讨论了应该如果去指定针对人工智能的管理框架,并且人们还应该在组织内部中建立问责制度、道德管理以及加强治理的政策来使组织积极的应对人工智能的发展,使人工智能在未来成为可以帮助人类走向更好的工具,而不不是可能会成为人类灾难的工具。