马鞍山方宏自动化科技有限公司

http://haoshengyuan.c2p.rongbiz.com/

工业机器人及机器人关键零部件的研发、生产、销售;电机及其配件的销售与维修
头像

什么是可解释的人工智能

   可解释的人工智能意味着人类可以理解IT系统做出决定的路径。人们可以通过分解这个概念来探究人工智能如此重要虽然人工智能应用越来越广泛,但关于人工智能也有一些误解。有些人采用“黑盒”这个术语描述人工智能,认为然而,像机器学习或深度学习这样的人工智能系统,确实需要人工输入,然后在没有可解释的场景的情况下产生输系统就是这么做的,而这就是人工智能的黑盒模型,它确实很神秘。在某些用例中应用很好,而在其他情况下却不一定PubNub公司首席技术官兼联合创始人Stephen Blum表示:“对于像人工智能驱动的聊天机器人或社交信息的情驶车辆、飞行导航、无人机、军事应用)能够理解决策过程是至关重要的任务。随着人们在日常生活中越来越依赖人工输入可解释的人工智能——有时以缩写词XAI或类似术语(如可解释的AI)来表示。

   而包括美国国防部高级研究计划署(DARPA)在内的多个组织正在努力解决这个问题。

   “信任”这个词很关键。为此,人工智能专家Blum和其他专家提出了可解释的人工智能定义,并解释这一概念对助组织中的其他人员理解可解释的人工智能及其重要性。以下先从定义开始。

   简单定义的可解释人工智能

   SAS公司执行副总裁兼首席信息官Keith Collins说,“‘可解释的人工智能’术语是指人类能够通过动态生成的图PubNub公司首席技术官和联合创始人Stephen Blum说,“可解释的人工智能可以等同于数学问题中的‘展示工和理解的能力。”

   Sutherland公司首席分析官Phani Nagarjuna说,“可解释的人工智能是我们可以解释人工智能的结果,同时在人SPR公司数据分析师Andrew Maturo说,“可解释的人工智能是一种机器学习或人工智能应用,伴随着易于理解能的黑盒不透明性。”

   CognitiveScale公司创始人和首席技术官Matt Sanchez说,“简单来说,可解释的人工智能意味着人工智能在其特定的洞察力或决策的吗?”

   为什么可解释的人工智能很重要

   Sanchez的问题引发了另一个问题:为什么可解释的人工智能很重要?其原因是多方面的,这可能对人们、企业、IBM Watson物联网高级产品经理HeenaPurohit指出,人工智能(IBM称之为“增强型智能”)和机器学习已经在以复杂的方式处理大量数据方面做得非常出不知道他们为什么要做出这些决策,这就更加困难了。

   Purohit说:“由于人工智能的目的是帮助人们做出更高的决策,当用户改变行为或根据人工智能输出(或)预测议。当用户感觉到有能力并知道人工智能系统如何得出建议(或)输出时,就会建立这种信任。”

   从组织领导的角度来看,可解释的人工智能在某种意义上是让人们信任并购买这些新系统,以及它们如何改变人们“看到‘人工智能黑盒’问题仍然存在,我现在确保我们的人工智能解决方案是可以解释的。”Purohit补充说,解其决策过程?”

   可解释的人工智能有助于识别人工智能偏见和审计可解释的人工智能对于信任和透明度至关重要的其他领域将越来越重要,例如任何人工智能偏见可能对人们产生有SPR公司的Maturo说,“尽管这种解释的任务很麻烦,但这是一项值得努力的尝试,通常可以揭示模型中的偏见用户就会越多。”

   可解释的人工智能对于问责制和可审计性也很重要,它将(或者至少应该)仍然存在于组织的人员中,而不是其技“企业和个人总是需要进行决定。只是按照算法推荐的做法并不具有说服力。”Ness公司数字工程首席技术官MKranc说。Kranc指出,可解释的人工智能对于识别错误的结果是至关重要的,这些错误的结果来自于诸如有偏见或调再次发生。

   “人工智能技术并不完美。尽管人工智能的预测可能非常准确,但模型总是有可能出错。”Clara Analytics公司数Li说,“人工智能技术具有可解释性,帮助人类快速做出基于事实的决定,但允许人类仍能使用他们的判断力。有了可测。”

   事实上,可解释的人工智能最终将使人工智能在商业环境和日常生活中变得更有价值,同时也防止了不良后果。

   “可解释的人工智能对业务很重要,因为它为我们提供了解决问题的新方法,适当地扩展流程,并**地减少Collins指出,这在医疗和银行等受到严格监管的组织尤为重要,这些组织最终需要能够展示人工智能系统是如何做可以具有良好的商业意识。