再见AI黑匣子:研究人员教会AI进行自我解释

2018-03-01 14:52:45来源:thenextweb 热度:
AI决策过程的黑匣子问题一直是AI领域最大的担忧之一,但近期黑匣子决策问题似乎被破解。来自加州大学伯克利分校、阿姆斯特丹大学、Facebook AI Research团队的研究人员创建出一个AI自我解释模型,该模型可使AI在回答问题时指出问题对应的证据,在回答相关图像问题时,其能够为其决策提供自然语言理由并指出图像显示证据。
 
来自加州大学伯克利分校、阿姆斯特丹大学、Facebook AI Research团队的研究人员创建出一个AI自我解释模型,该模型可使AI在回答问题时指出问题对应的证据,在回答相关图像问题时,其能够为其决策提供自然语言理由并指出图像显示证据。
 
“黑匣子”变得透明,这是一件大事。
 
在许多环境中,深度模型既有效又可解释;先前可解释的模型是单峰模型,提供了基于图像的注意权重的可视化或基于文本的事后理由的生成。
 
这次的研究提出了一种多模式的解释方法,并且认为这两种模式提供了互补的说明性优势。
 
团队收集两个新的数据集来定义和评估这个任务,并提出一个新的模型,可以提供联合文本理性和可视化生成。我们的数据集定义了活动识别任务(ACT-X)和视觉问题解答任务(VQA-X)的分类决策的视觉和文本理由。
 
在数量上表明,使用文本解释进行培训不仅可以产生更好的文本理由模型,还可以更好地定位支持决策的证据。我们还定性地展示了视觉解释比文本解释更具洞察力的情况,反之亦然,支持我们的论点:多模式解释模型提供了超越单峰方法的显着优势。
 
 
VQA-X定性结果:对于每个图像,PJ-X模型提供了答案和理由,并指出了该理由的证据。
 
弄清楚为什么一个神经网络做出它所做的决定是人工智能领域最大的担忧之一。正如它所称的那样,黑盒问题实际上使我们不能相信AI系统。
 
像人类一样,它可以“指出”它用来回答问题的证据,并且通过文本可以描述它如何解释证据。它的开发旨在回答那些需要九岁小孩平均智力的问题。
 
这是人们第一次创建了一个可以用两种不同方式解释自己的系统:
 
我们的模型是第一个能够为决策提供自然语言理由并指向图像中的证据的人。
 
研究人员开发了AI来回答关于图像的简单语言查询。它可以回答关于给定场景中的对象和动作的问题。它通过描述它看到的内容并突出显示图像的相关部分来解释它的答案。
 
它并不总是让事情正确。在实验过程中,人工智能感到困惑,无法确定一个人是否在微笑,也无法分辨出一个人在使用吸尘器的人和一个正在使用吸尘器的人之间的区别。
 
但是,这是一个重点:当电脑出现问题时,我们需要知道原因。
 
为了达到任何可衡量的成熟度,AI的领域需要调试,错误检查和理解机器决策过程的方法。神经网络发展并成为我们数据分析的主要来源时尤其如此。
 
为人工智能展示其工作并以外行人员的角度解释自己,这是一个巨大的飞跃,可以避免每个人似乎都很担心的机器人启示。
 
论文地址:https://arxiv.org/pdf/1802.08129.pdf

责任编辑:吴一波

为您推荐

巴帝电信梦想成真:107亿美元收购Zain非洲资产

这笔交易将为巴帝电信在15个非洲国家带来4200万用户,意味着其跻身新兴市场顶尖运营商的梦想终于成真。Zain出售非洲资产套现90亿美元在双方约定的107亿美元中包括90亿美元的股份收购,支付方式将为现金。其中83亿美元将在交易结束后支付,7亿美元将在交易结束一年后支付。此外,巴帝电信还须代替Zain承担起17亿美元的综合债务。据称,Zain可分派储备和40亿美元循环贷款偿付的规模须经股东批准,它打算以股息的形式向股东分配前期大部分净收入。Zain集团董事长阿萨德·艾尔·班万(AsaadAlBanwan)评价该交易时相当得意:“自2005年收购Celtel以来,我们大幅增长成为非洲主要的移动运

Inter BEE 2010展览会AUDIO BRAINS 公司展台

在日本广播协会(NHK)和日本民间广播联盟(NAB-J)的支持下,日本电子信息技术产业协会(JEITA)于11月17日(星期三)至19日(星期五)在日本东京千叶市美滨区的幕张展览馆(MakuhariMesse)举办了为期三天的InternationBroadcastEquipmentExhibition(简称“InterBEE2010”)音频、视频和通信专业展。在本次