实用可解释AI:解锁黑匣子和建筑值得信赖的AI系统

行业背景

如今,公司正在业务的各个方面使用AI。 AI的采用特别有影响力,特别是在金融和医疗保健部门,实施AI解决方案的影响非常显着。在金融服务中,AI正在发挥一个非常重要的作用,优化从信用决定到数量交易到金融风险管理的过程。在医疗保健中,我们正在通过采用会话机器人,自动诊断和预测疾病的尖峰。

这种通过的增加也在导致我们与AI的关系中的文化转变。随着AI系统变得更加无处不在,他们正在受到严格审查的聚焦。政府正在呼吁调节这些AI模型,讨论他们对社会的道德影响,并为用户提供了对自动决策的解释要求的权利。这种转变突出了这些AI系统的信任,透明度和解释性的问题,到目前为止已经是黑匣子 –我们不知道他们是如何用答案提出的。

随着人工智能(AI)系统获得行业范围内的采用和政府要求法规,这些AI系统对自动化决策的准则来说是至关重要的。

增加AI系统中的偏差报告

输入可解释的ai.

可解释的ai(xai)或可解释的ai解决了阻止我们不完全信任AI决策的主要问题,并通过其实际应用,可以帮助我们确保更好的结果。

通过实用可解释的AI,我们能够解释“为什么”和“如何”在AI决策中以可口且易于理解的方式。我们必须记住,解释性在负责执行关键任务的系统中非常重要。例如,在医疗保健中,如果科学家依赖于AI模型来帮助他们弄清楚患者是否会有癌症,他们需要100%确定他们的诊断,否则这可能导致死亡,很多诉讼和一个信任的伤害。自然是这个问题如此强烈的解释性坐在这个问题的核心:数据科学家和人类运营商,在这种情况下,医生需要了解机器学习系统的行为以及如何决定是如何做出的。

最近, 谷歌制造了头条新闻,当它医疗ai未能在现场执行。它有责任筛查糖尿病患者患有糖尿病视网膜病变,如果没有早期捕获,这可能导致失明。在实验室中,它很棒,但在现实生活中,反应并不是那么积极,护士对结果不满意–特别是因为他们不知道如何做出具体的决定。这清楚地向我们展示了我们的实验室实验需要将实验室留下并放置在人类面前,为他们在现实生活中使用它,以便实际确定它们有用。即使系统失败,我们也应该处于一个位置,以确定失败的原因并尽快修复它。今天,当一个系统失败时,一般答案是“我不知道”,我们想要改变它。

另一个例子是 今天的AI系统中固有的种族偏见。仅仅因为有人看起来,我们不能依附于刻板印象,尤其是在部署AI算法以帮助我们决定时。这是我们需要真正了解AI系统如何结束的区域,是否在数据处理中的子组中是公平的,是否有一个问题首先收集数据。因此,针对需要改进的特定区域非常关键,并加强我们的案例,以解释可解释的AI。

黑匣子AI创造了混乱&怀疑(信用:Krishnaram Kenthapadi)

此外,黑盒AI模型中没有解释性,为业务增长创造了障碍,并且无法添加任何真正的商业价值。当我们查看整个业务功能时,它会变得更加清晰:对于业务决策者,我们需要回答他们可以信任我们的模型的原因&操作,我们需要告诉他们如何监控和调试如果发生错误,我们需要告诉他们他们如何进一步提高其模型的准确性,最后,对于监管机构和审计员,我们需要成为能够回答我们的AI系统是否公平?


如果我们能够实现所有这些事情,我们的决策能力将以指数增强,并且将实现实际业务价值。我们希望设计我们的AI应用程序和系统,以确保它们是:

  1. 可解释:我们应该对多个层面的决定进行解释
  2. 符合要求:我们应该能够评估模型的性能并衡量遵守审计师和法规信任我们的系统的遵守情况
  3. 监控:我们应该能够监控模型的性能和公平,因为它们为我们做出决定
  4. 调试:我们应该能够诊断和识别故障的根本原因,偏差以消除误差,从而提高模型精度和公平性。

端到端XAI系统

对Xai的需求只会在未来几年加速

AI定位以改变每个行业 - 从医疗保健到金融服务到执法部门。越涉及的人越多,越重要,让我们了解和规范对我们的影响越重要。坏消息是,即使在今天,我们对AI系统如何到达这些决策的理解很少。总之,我们并不完全掌握AI决策后面的逻辑或推理,因为许多先进的算法是全黑盒子。超过这一点,在工业中,数据科学家仍然存在大的信任差距,以商业友好语言向业务利益相关者解释结果。正如我们向前迈进的那样,我们必须解决这些挑战。 AI正成为我们生活的重要部分,我们必须能够相信到位的AI系统。为此,我们必须了解这些系统所做的决定。我们还必须确定可能为业务创造缺点的任何固有偏差或错误。凭借公众利益在AI和法规中越来越多,要求利用AI系统的行业的解释权,公司将别无选择,只能更新或采用将从这些算法中删除黑匣子的AI工具,从而提高可解释性,缓解偏差,并改善所有结果。

Raheel Ahmad.(//www.linkedin.com/in/raheelahmad12/) 是一位在Nyu Tandon的AI研究员,是Sexpressx.ai的Cofounder(//www.explainx.ai/),可解释的AI启动,可帮助企业构建值得信赖,透明和无偏见的AI系统。

图像积分

特色图片:越来越多的AI系统偏差报告(拼贴)

链接:

http://news.mit.edu/2018/study-finds-gender-skin-type-bias-artificial-intelligence-systems-0212
//www.bbc.com/news/technology-35902104
//www.bloomberg.com/news/articles/2019-11-11/apple-card-s-ai-stumble-looks-familiar-to-old-school-banks
//phys.org/news/2018-04-uber-tesla-incidents-artificial-intelligence.html

特色图片: 黑匣子AI创造了混乱& doubt

帖子照片:由Krishnaram Kenthapadi,2019年8月创建的图片

特色图片: 端到端XAI系统

帖子照片:由Raheel Ahmad创建的图片2020年6月

贡献者

Raheel Ahmad. 是一位在Nyu Tandon的AI研究人员,是SexpressX.ai的Cofounder,可解释的AI启动,可帮助业务构建值得信赖,透明和无偏见的AI系统。

贡献者表达的意见是他们自己的意见。

关于Raheel Ahmad.

Raheel Ahmad. 是一位在Nyu Tandon的AI研究人员,是SexpressX.ai的Cofounder,可解释的AI启动,可帮助业务构建值得信赖,透明和无偏见的AI系统。

查看Raheel Ahmad的所有帖子→