人工智能将赋能哪些行业(四)

人工智能还将逾越哪些鸿沟?
参考来源 / IEC:《Artificial intelligence across industries》白皮书
编译 / Helen
谈到部署AI技术,人们更多在讨论技术问题,然而,AI想要真正落地,需要解决许多与技术、道德、可信度和监管相关的各层面的挑战 。
本篇是人工智能专辑文章的第四篇,探讨人工智能规模化落地面临的挑战。
有些挑战是多个不同的应用领域共同面临的,例如道德和社会影响、人工智能基础设施的计算能力和效率、数据的可用性和质量等。只有解决这些挑战,AI技术才能真正为各个行业中带来变革。
社会和经济挑战
人工智能通过破坏和创造就业机会影响就业市场。而人类发展的某些技能(例如创造力的应用)在将来变得越来越重要。人类与AI系统一起工作,将产生新的工作环境。
决策中的挑战:人工智能越来越多地参与决策,但也可能会犯错误。算法越复杂,对社会或行业产生的影响就更大,而且需要更多的人为判断来确保决策质量。
先进供应链运营:通过AI进行智能化的供应链管理,对消费者购买作出越来越多的决策,会对供应链的各个环节带来威胁。例如 ,如果智能冰箱自主决定食品供应商及其所有者的饮食,则可能会扰乱整个市场(如超市)。必须保护消费者和市场参与者免受AI系统推荐的供应商的不当行为的侵害。

数据相关的挑战
AI需要大量数据来训练机器学习算法。但是,由于缺少适当的规则和法规,不同行业的数据共享和分发都受到限制。数据孤岛问题仍然是充分实现AI全部潜力的障碍。另外,整体的数据可用性问题导致难以为机器学习算法收集到足够的可靠数据,导致认知偏差和误解。
训练数据的选择
训练数据本身存在偏见会导致人工智能系统表现出性别或种族偏见。在开发AI模型时,开发过程中使用的数据的相关性、数量和质量至关重要。
是否满足这些条件通常只能在用各种不同的模型进行数轮初始训练和测试后才能确定。即使模型几乎可在所有时间都达到或者超过预期 ,也必须额外花时间来验证模型所犯的错误,以保证整个应用的可用性。由于训练数据本身存在人为偏见,模型也就会从数据中学会偏见。即使从训练数据中删除容易产生偏见的属性(如种族、性别、性取向或宗教),也不足以消除模型中的此类偏见。
标准化数据
数据的多样性是与生俱来的,带来的问题是,如何在不先发现相关数据集含义的情况下正确地理解和解释异构信息和数据集。语义技术可以确保统一表示机器和人类可以理解的信息,并以清晰、全面的形式提供数据。基于此,合适的语义工具可促进隐性知识的推导,因此代表了一种有效的数据预处理形式。
但是,对异构数据的理解不仅必须在语义上得到保证和标准化,而且必须在语法上得到保证和标准化。
为正确理解而对数据进行预处理和描述可以显著改善分析结果。使用标准化的数据类型、格式和信息模型,将简化这一耗时的步骤。

算法相关的挑战
AI需要大量数据来训练机器学习算法。但是,由于缺少适当的规则和法规,不同行业的数据共享和分发都受到限制。数据孤岛问题仍然是充分实现AI全部潜力的障碍。另外,整体的数据可用性问题导致难以为机器学习算法收集到足够的可靠数据,导致认知偏差和误解。
人工智能使用的算法也存在一些相关的挑战。在这些算法的部署中,最值得注意的问题是鲁棒性、适应新任务的能力以及缺乏可解释性。
鲁棒性
鲁棒性意味着即使输入与训练数据不同,该算法也会做出正确的决策。因此,鲁棒的算法对对抗输入是稳定的,并且在不同训练和应用数据集的性能上也没有显著偏差。
强化学习的成功推动了对鲁棒算法越来越多的研究。有两种与决策有关的情形。要么系统向操作员推荐一个决策,然后由操作员审核并确认该建议,要么系统自动强制执行其决策。后者引发的问题是,在新的输入数据的情形下,系统不一定意识到自己犯了错误,从而决策不会继续进行验证,并可能导致对基础设施甚至人身的伤害。
与现实数据不匹配的失配数据集会导致算法无法正常运行。算法需要能够适应数据集的变化,而与预期输出的差异不大。目前,算法鲁棒性领域正在开展一些研究诸如验证、有效性、安全性和控制的深入研究。
迁移学习
人类能够运用以前的经验知识转移消化解决新的问题,但是机器却没有这种能力。为了减少成本和工作量,迁移学习可以帮助将知识从一个应用迁移到另一个应用。

迁移学习的目的是允许使用来自不同应用领域、具有不同分布或不同任务的训练数据。迁移学习的实现需要解决几个问题,例如如何确定哪些知识可以迁移。如果训练数据来自另一个应用领域 ,则迁移的信息可能相关或无关。目前,迁移学习方法仍存在许多难题,比如如何迁移知识,何时可以迁移等。迁移学习的突破可以使机器学习更易于应用,并减少开发成本和时间。
可解释性
大多数AI算法(特别是神经网络)被称为“黑匣子 ”。这意味着可以理解输入数据和网络的输出结果,但无法理解算法是如何产生这个结果的。这是人工智能面临的一个关键挑战,因为理解模型是最终用户广泛接受AI的最重要的出发点之一。
此外,不只是算法本身,将原始数据转换为可以通过数学模型处理的数据,也会让即使较简单的算法无法被人们理解。随着人工智能算法被部署在越来越多的行业应用中,在医学或金融等具有高度敏感数据的领域,可解释性必将成为主要挑战。
目标函数
AI系统关注的另一重点是目标函数,如果函数不正确或不精确,可能会导致负面效应或奖励黑客。负面效应可能包括由系统引起的对商品或人的伤害,因为以这种方式操作,可使系统更快地实现其目标。奖励黑客会导致系统任务无法充分完成,因为它发现了一种无法预料的满足奖励函数的替代方法。即使会影响系统实现其目标的能力,系统的目标函数也不应妨碍系统被关闭或修改。即使正确地表述了目标函数,当需要监督可伸缩性问题时,系统仍需能够正确执行。
基础设施相关的挑战
要运行实时的AI应用,需要稳定地提高计算速度和基础设施效率。不仅需要定制的硬件来加速AI工作负载,还需要软件堆栈、库或工具链。
硬件瓶颈
人工智能和深度学习需要并行处理大量数据,当前使用的GPU和FPGA有许多技术限制,局限了最先进AI算法的实现。在新的计算时代,内核芯片将决定AI的基础设施和生态系统。因此,处理器的能力被认为是推进AI开发的主要瓶颈。
异构计算平台的设计和体系结构(集成了各种加速器以应对各类AI工作负载)是AI研究和商业实现的重要课题。此外,鉴于云基础设施的可伸缩性、可靠性和自动化资源管理,在其内部提供硬件资源已经成为一种新兴的趋势。此外,云原生的应用程序编程接口API被用来提供一致的接口、广泛的支持和AI应用的轻松部署。
缺少平台和框架
由于AI技术可能在不同的系统或子系统(云、边缘 或终端设备)上实现,因此,平台设计应根据系统的个体需求和资源限制量身定制。用于AI开发的可重用和标准化的技术框架、平台、工具和服务尚未成熟;包括体系架构、框架、应用模型、评估和可视化工具以及云服务在内的完全模块化和标准化的AI生态系统,仍需要一段时间才能达到适合的成熟度等级。
可信度相关的挑战
人工智能需要许多不同利益相关者合作并共同开展工作,必须共享数据,提供专业知识并共同努力,以实现高效实施。为了促进这种合作,需要解决许多问题,例如确保信任。
信任
利益相关者之间的信任至关重要。认证技术可能会提供解决数据源可信度的解决方案。来自集中和可信发行人的电子证书与数据密封相结合,是在各方之间建立信任的一种可选方案。但是,该解决方案仅着眼于在合作伙伴之间建立信任,并未解决数据质量问题。为此,可以建立一个可信数据池,或者使用评估或评价算法避开错误的数据库。此外,元算法可以帮助AI系统随着时间的推移保持可靠和透明,从而提供有关所使用数据源的出处和分布的信息。
隐私性
由于AI系统通常需要更高的计算能力,许多公司和政府已开始在云上存储数据。但云的隐私保护也具有隐藏的威胁。对于任何一个AI玩家来说,如何合法地收集和使用数据并遵守现有和未来的法律都是至关重要的问题。
安全性
技术滥用、缺陷和未来超级AI的发展都对人类社会构成了安全威胁。人工智能对人类的影响在很大程度上取决于人们如何使用和管理它。在犯罪分子手中,人工智能肯定会导致重大的安全问题。此外,如果安全措施不够有效,类似无人驾驶汽车、机器人和其他AI设备可能会伤害人类并面对法律层面的挑战。

监管相关的挑战
在许多AI领域仍然缺乏适当的监管。世界很多国家政府将寻找平衡监管人工智能发展列为的重要优先事项,如果找到适合的方法,将促进并支持工业创新,可提升生产力和竞争力,同时确保高水平的安全与健康,提供消费者保护、社会保障以及权利和自由的保护。
可靠性
基于AI的新产品中正在出现的可预见性、可解释性和因果关系问题使得解决诸如产品缺陷之类的责任问题越来越困难,这可能会造成巨大的责任缺口。但是,数字技术的复杂性使得发生故障时很难确定谁是责任人,以及它应承担多大责任。在当前的法律框架下,机器人本身不对造成第三方损害的行为或疏忽承担责任。面对这些预期的责任挑战,对新法规的需求在许多行业应用中将变得越来越重要。
隐私
我们必须在数据隐私和人工智能产业蓬勃发展之间取得微妙的平衡。人工智能正在通过启用复杂的匿名化和加密方法来帮助确保个人数据的安全。人工智能可以通过无需人类访问数据而执行任务,进而限制敏感信息(例如健康记录)的暴露,提高隐私性。
欧盟通用数据保护条例(GDPR)是欧盟对数据保护和隐私进行的一系列重大监管变更,解决了AI系统的自动决策问题。尽管目前尚不清楚数据保护机构将如何在实践中实施GDPR,但AI决策的透明度要求是公司和监管机构都必须应对的主要挑战。
伦理
人工智能系统需要(如自动驾驶汽车)在其决策过程中做出道德选择(如伤害行人,或避开行人但可能伤害到驾驶员或乘客)。这说明AI安全不仅是个技术问题,还是一个政策和道德问题。
此外,在授予机器决策权后,人们将面临一个新的伦理问题:机器是否有资格做出这样的决策? 随着智能系统不断掌握特定领域的知识,其决策能力将开始超越人类,这意味着人们可能会在越来越多的领域中依赖于机器主导的决策。在今后的人工智能发展中,这类伦理挑战需要特别关注。
人工智能应用市场的落地及推进与其标准化进程息息相关。下期,我们为大家解读人工智能应用的标准化进程及挑战。
