人工智能(AI)似乎无处不在。我们可以在家中和手机上体验它。在我们知道它之前——如果企业家和业务创新者是可以相信的——人工智能只会涉及我们购买和使用的每种产品和服务。此外,其在商业问题解决方面的应用正在飞速发展。与此同时,人们对AI的影响的担忧也在增加:我们担心AI支持的自动化对工作场所、就业和社会的影响。
在诸如Alexa,Siri和AlphaGo这样的恐惧力量和头条新闻的鼓吹中,有时候人们忘了思考AI技术本身——即机器学习及其子集,深度学习——有很多局限性,仍然需要相当大的努力克服。这是一篇关于AI局限性的文章,旨在帮助管理人员更好地理解可能阻碍其人工智能工作的因素。在此过程中,我们还将重点介绍有希望的进展,以解决一些局限性并创造新的机会。
麦肯锡的观点取决于前沿工作的组合——研究,分析和评估数百个实际使用案例——以及我们与一些在AI前沿工作的思想领袖,开拓性科学家和工程师的合作。我们试图提炼这些经验,以帮助那些经验丰富的经理人员,他们经常只能接触到他们自己的倡议,而且没有很好地校准边界在哪里,或者准备工作人员已经在用AI来做什么。
简而言之,人工智能的挑战和局限性正在为领导人制造一个“移动目标”问题:很难达到始终前进的领先优势。当人工智能的努力陷入现实世界的障碍时,也会令人失望,这可能会减少对进一步投资的兴趣,或者鼓励观望态度,而其他人则会提前收费。正如麦肯锡全球研究院最近的研究所表明的那样,领导者与部门之间在应用人工智能方面存在着巨大的分歧(图表1)。
希望缩小差距的高管们必须能够以知情的方式解决AI问题。换句话说,他们不仅需要了解人工智能可以促进创新,洞察力和决策制定的位置,导致收入增长;并获得效率,但也是人工智能尚不能提供价值的地方。更重要的是,他们必须了解技术约束与组织因素之间的关系和区别,比如文化障碍;缺乏能够建立业务就绪,人工智能驱动应用程序的人员;以及将AI嵌入产品和流程的“最后一公里”挑战。如果你想成为领导者,理解一些减缓AI进步的关键技术挑战,并准备利用有希望的进展来克服这些限制,并有可能弯曲AI阅读的轨迹。
挑战,局限和机遇
一个有用的出发点是理解最近的深度学习技术的进步。可以说,人工智能领域最令人兴奋的进展是,这些进步在分类和预测的准确性方面带来了飞跃,而且没有与传统监督学习相关联的“特色工程”。深度学习使用了大规模的神经网络,这些神经网络可以包含数以百万计的模拟“神经元”。最常见的网络被称为卷积神经网络(CNNs)和递归神经网络(RNNs)。这些神经网络通过训练数据和反向传播算法学习。
虽然取得了很多进展,但还需要做更多的工作。关键的一步是将AI方法应用于问题和数据的可用性。由于这些系统是“受过训练”而非编程的,因此各种过程往往需要大量标记数据才能准确执行复杂任务。获取大数据集可能很困难。在某些领域,它们可能根本就不可用,但即使可用,标签工作也可能需要巨大的人力资源。
以下探讨了五种局限性:
局限1:数据标签
目前大多数人工智能模型都是通过“监督学习”进行训练的。这意味着人类必须对基础数据进行标记和分类,这可能是一个相当大的和容易出错的杂事。例如,开发自动驾驶汽车技术的公司正在雇用数百人手动注释来自原型车辆的数小时视频反馈,以帮助培训这些系统。与此同时,有前途的新技术正在出现,如流式监督(由EricHorvitz及其微软研究院的同事演示),其中数据可以在自然使用过程中加以标记。无监督或半监督方法减少了需要大量标记的数据集。两个有前途的技术是强化学习和生成敌对网络。
强化学习。这种无监督技术允许算法简单地通过反复试验来学习任务。该方法学听到了“胡萝卜和大棒”也就是软硬兼施的方法:对于算法在执行任务时所做的每一次尝试,如果行为是成功的,它会收到“奖励”(例如更高的分数),或者如果它失败,则给予惩罚。随着重复,在许多情况下,性能会提高,超越人的能力——只要学习环境代表真实世界。
强化学习在训练计算机玩游戏方面有着广泛的应用,最近与深度学习技术相结合。例如,年5月,它帮助AI系统AlphaGo围棋比赛中击败了世界冠军柯洁。在另一个例子中,微软提供了决策服务,这些决策服务利用了强化学习和用户偏好。强化学习的潜在应用可以跨越许多商业领域。可能性包括一个人工智能驱动的交易组合,分别获取或失去价值收益或损失点数;一个产品推荐引擎,可以接收每个推荐驱动的销售点数;以及卡车路线软件,可获得准时交货或减少燃油消耗的奖励。
强化学习还可以帮助AI超越人类标签的自然和社会局限性,通过开发以前无法想象的解决方案和策略,即使经验丰富的从业人员可能从未考虑过这些。最近,例如,使用新型强化学习的AlphaGoZero系统在学习从头开始下围棋之后,击败了其前身AlphaGo。这意味着从完全随机的对自己的比赛开始,而不是训练和与人类一起玩的围棋。
生成敌对网络(GAN)。在这种半监督学习方法中,两个网络彼此竞争以改进和改善他们对概念的理解。例如,为了识别鸟类是什么样子的,一个网络尝试区分真鸟和假鸟的图像,而其相反的网络试图通过产生非常像鸟类但不是鸟类的图像的方式来欺骗它。当这两种网络相互抵消时,每一种模型对鸟的描述就变得更加精确。
GAN生成越来越可信的数据示例的能力可以显著降低对人类标记数据集的需求。例如,训练算法以从医学图像中识别不同类型的肿瘤,通常需要数百万个具有给定肿瘤类型或阶段的人类标记的图像。通过使用经过训练的GAN生成越来越逼真的不同类型肿瘤图像,研究人员可以培训一种肿瘤检测算法,该算法将一个更小的人类标记数据集与GAN的输出相结合。
虽然GAN在精确疾病诊断中的应用仍然存在,但研究人员已经开始在日益复杂的情况下使用GAN。其中包括以特定艺术家的风格理解和制作艺术作品,使用卫星图像以及对地理特征的理解,以创建快速发展地区的最新地图。
局限2:获得大量的训练数据集
已经表明,使用线性模型的简单AI技术在某些情况下可以接近医学和其他领域的专家的能力。然而,机器学习的当前浪潮需要训练数据集,其不仅被标记,还得足够大及全面。深度学习方法需要数千个数据记录才能使模型在分类任务上变得相对较好,在某些情况下,需要数百万个数据记录才能在人类层面上执行。
并发症是,大量数据集可能很难获得或创建许多商业用例(想想:以有限的临床试验数据来更准确地预测治疗结果)。而分配任务中的每个小变化都可能需要另一个大型数据集来进行更多的培训。例如,让自动驾驶汽车在天气持续变化的矿区导航时,需要一个包含车辆可能遇到的不同环境条件的数据集。
一次学习是一种技术,可以减少对大型数据集的需求,允许AI模型在给出少量现实世界演示或示例(甚至在某些情况下为一个)时学习某个主题。人工智能的功能将更接近于人类,他们可以在仅显示一个样本(例如皮卡车)后相对精确地识别出多个类别的实例。在这个仍在发展的方法论中,数据科学家首先会在模拟虚拟环境中预先训练一个模型,该环境会呈现任务的变体,或者在图像识别的情况下,显示对象的外观。然后,在展示AI模型在虚拟训练中没有看到的几个真实世界的变体之后,该模型将利用其知识来达到正确的解决方案。
这种一次性学习可能最终有助于让系统扫描文本以检查是否存在侵犯版权的内容,或者在仅显示一个标签示例之后在视频中标识公司标志。今天,这些应用程序只处于早期阶段。但它们的效用和效率很可能会在多个行业迅速扩大人工智能的使用。
局限3:可解释性问题
AI系统的可解释性不是一个新问题。但它随着深度学习的成功和采用而不断发展,这种深度学习带来了更多样化和先进的应用程序以及更不透明。更大更复杂的模型使人们很难从人的角度解释为什么达成某种决定(甚至在实时达到时更难)。这这也是为什么一些人工智能工具在应用程序领域的使用率仍然很低,因为它们的解释能力是有用的或者确实需要的。此外,随着人工智能应用的扩展,监管要求也可能会推动更多可解释的人工智能模型的需求。
两个新的方法有望增加模型透明度,这是局部可解释模型的不可知解释(LIME)和注意技巧(图2)。LIME试图确定训练好的模型中哪些部分的输入数据最依赖于开发代理可解释模型的预测。该技术一次考虑某些数据段,并观察预测结果的变化,以微调代理模型并形成更精确的解释(例如,通过排除眼睛而不是鼻子来测试哪些更重要面部识别)。注意技巧可视化模型认为最重要的那些输入数据,因为它会做出特定的决定(例如