“可解释性”OR“准确性”?压缩深度神经网络模型让你两者兼得

编者按:在机器学习的世界里,准确性和可解释性总是不可兼得:复杂的模型准确但令人费解,简单的模型容易理解也容易出错。微软研究院首席研究员Rich Caruana在他数十年的职业生涯中花了很多精力来探索这个问题,在这个访谈中,他为我们分享了一个更精简、更可解释的“压缩”模型,使“黑匣子”般的机器学习过程更加透明。本文是Rich Caruana采访内容的文字精简版,了解完整内容,请收听文中采访音频。

微软首席研究员Rich Caruana博士

采访音频

在机器学习领域,长久以来存在一个难以取舍的问题——模型的准确性与可解释性像“鱼与熊掌”般不可兼得简单如线性回归、逻辑回归,过程清晰明确,但无法用于分析复杂的问题复杂如神经网络,机器学习过程和预测结果的准确来源于它繁复的结构。在今天,随着神经网络模型的不断发展,为了得到更精确的结果,这个模型越来越大,从初始的三、五层,变成五十、上百层,加上千万个样本、数亿个权重,这使人们更难理解机器做出的预测,模型的运行速度也更缓慢。

线性回归、逻辑回归这些简单又准确的模型,能够很好地解决一些基础的问题。但是随着数据驱动时代的来临,庞大的数据量要求我们使用更复杂的模型去囊括数据呈现的各种情况。但复杂的机器学习模型就像一个“黑匣子”,我们将数据送进去,它把结果输出来,那盒子中发生了什么呢?

我认为有两个原因,使机器学习的过程像“黑匣子”般难以捉摸。

第一,是复杂模型本身的特性。三四十年前的人工智能(例如专家系统)完全是由人们手动编写的,我们很容易理解背后的工作机制,而现在的人工智能大都基于机器学习和大数据。面对海量的数据,人们难以手动为机器创造一个准确的规则。通常的做法是将数据集交给一个数据引擎,让它找到与目标结果相关的规律,学习这个规律,捕捉数据集中的所有规律,最后给出预测结果。这个过程中我们无法确信机器找到的规律是否准确,机器也不会告诉我们它的所作所为,这使我们难以透彻地理解整个过程。

第二,是模型的所有权归属问题,模型的所有者通常希望保护自己的模型。比如,某个公司开发的供法院付费使用的评估罪犯再次犯罪概率的模型,根据法律规定,这个模型的所有权是属于这个公司,而法院也不希望有人通过研究该模型的工作机制从而找到钻空子的机会。所以类似于这种模型是对其他人是严格保密的。

在读研究生时,我的朋友在一个肺炎数据集上训练模型时,得出了“哮喘病史能减少患者因肺炎死亡的几率”的荒谬结论,事实上,哮喘病是肺炎的一个高危相关因素,但是数据显示,哮喘病史的患者肺炎死亡率仅约为无哮喘病史患者的50%,这是因为哮喘病患者会较早注意到自己的发病症状,及时就医,能够获得高质量的、更加积极的治疗。尽管在模型中修复这个小问题并不难,但这段经历给了我一个警告:如果对机器学习模型的内部运行机制缺乏理解,模型的预测结果可能和现实情况存在很大的偏差

意识到这一点后,我花了很多精力试图解决这个问题。90年代初,麦迪逊大学的一名研究生做了一件有趣的事,他训练了一个决策树模型来模拟神经网络,使它和神经网络模型的尽可能接近,以了解神经网络模型的运行机制。15年前当我在康奈尔大学时,我们也采取了这个用简单模型模拟复杂神经网络的方法,用一个小而快的模型成功模拟了复杂模型所做出的预测,而且速度加快了上千倍

过去七年,我们在微软开发了一个更简单、可解释的模型,我们叫它“压缩模型”或“蒸馏模型”。我们先训练出庞大、精确的、上百层的深度神经网络,再将深度神经网络压缩成较浅的神经网络,保持它的准确率的同时提高运行效率

同时,为了避免机器学习产生类似“哮喘病史能减少患者因肺炎死亡的几率”的结论,我们借鉴了由80年代后期统计学家提出的GAMs模型(Generalized Additive Models),在原本简单的GAMs模型基础上扩充了机器学习的方法,使它能更准确地拟合数据集的真实状况,也更具可解释性。

最后我想说,在人工智能的早期,行业里流传着这样一句话:“你应该从事最困扰你的问题,因为这是突破瓶颈的绝佳机会,否则它总有一天会继续困扰你。”在研究领域,我发现最困扰我的问题,往往就是最好的下一个研究方向。因此我也鼓励大家去探索最令人困扰、最具有挑战性的任务,即使不确定能否获得回报,它也很值得。

了解更多可解释机器学习的内容,请点击阅读原文访问项目页面。

你也许还想看

感谢你关注“微软研究院AI头条”,我们期待你的留言和投稿,共建交流平台。来稿请寄:msraai@microsoft.com。

“可解释性”OR“准确性”?压缩深度神经网络模型让你两者兼得由 admin 发布于

评论 0