机器学习进阶(一)

机器学习的下一步

识别马的深度学习模型,或许学到的不是马的特征,也可能是一些其他的特征,如文件下方的水印。

终身学习,机器可不可以像人类一样,可以一直不断地去学习不同的能力,完成不同的任务?

机器能不能获得自主学习的能力?

能不能通过很少的数据集来完成一个学习任务?

增强学习?神经网络压缩?训练资料和测试资料不一样?

可解释的机器学习

机器学习解释做了一些什么事情,来提高学习效果,判断学习目标是否正确。

神奇宝贝?数码宝贝?

在神奇宝贝和数码宝贝的图片上train一个model,能够分辨出一个图片是神奇宝贝还是数码宝贝。

但Saliency Map并没有一个好的表现,机器更多在意边缘部分。

让机器学习更符合人的预期

参数指标只是机器学习的一个方面,机器生成的东西更应该被人所理解。需要积雪约束来完成这一部分的工作。

Using a model to explain another

通过构建一个可解释的model,来接近一个难解释的model,通过该可解释性model来研究不可解释的model。

Local Interpertable Model-Agnostic Explantions(LIME)

在一定的区域可以用一个可解释的模型去拟合未知的模型。

需要选择一个合理的附近区域。

Devision Tree

\(\theta\)为黑盒的参数,\(T_\theta\)为Decision Tree的参数

\(O(T_{\theta})\): how complex \(T_{\theta}\) is

  • Train a network that is easy to be interpreted by decision tree. \[ \theta^{*} = argmin(L(\theta)) + \lambda O(T_{\theta}) \] 通过另外一个network来求得这个\(O(T_{\theta})\)

机器学习进阶(一)
https://www.spacezxy.top/2022/03/23/ML-Advanced/ML-Advanced-1/
作者
Xavier ZXY
发布于
2022年3月23日
许可协议