化妆品最新资讯AI Time 第二期揭秘自动机器学习与可解释的美学智慧

在前一期「探索 AI 安全与伦理」的深刻讨论后,AI Time 第二期如约而至,以「自动机器学习与可解释机器学习」为主题。第二期的嘉宾们围绕自动机器学习(AutoML)和可解释机器学习(Explainable ML)的区别、优劣及未来发展展开了精彩的讨论,让我们在这场思辨会中对 autoML 和 Explainable ML 有更深入的认识。

本次研讨会继续延续第一期的大咖阵容,这次参会的嘉宾是学者、青年才俊或资深专家,他们分别来自美国伊利诺伊大学芝加哥分校 (UIC) 的俞士纶教授、美国密歇根大学梅俏竹教授、北京大学王立威教授以及百度高级研究员李兴建。以下便是此次研讨会的精彩内容:

王立威:对于机器学习,我们可能都有所了解,它能给你一些数据,然后得到一个识别图像的分类器,或者语言翻译器。在过去,这些模型设计和超参数调节,全都是基于人的经验积累,而现在,我们希望把这些过程变成一种自动化过程,不再依赖于人类经验。这可以用数学公式来定义,简单来说,对于给定的任务,希望机器能够自动学习模型结构和设置,并达到最优层级。举个例子,比如过去大家用的比较多的是 ResNet 或者 DesNet,這些网络结构都是通过经验设计出来的。而现在谈到 AutoML,我们希望网络结构设计变成一个优化问题,由机器自己去解决。

我的学生把深度学习调参叫做炼丹,我相信真正做过这件事情的人都有同感。古代术士去炼丹,火候要掌握到什么程度需要多长时间,这些都凭长期经验积累。当我们把这件事情变成机器自动化过程,那么自己去找到最优超参数,而不是人在那儿炼丹,这应该就是 AutoML 非常大的意义。

另外,现在完全可以用学习方式来学出网络拓扑结构,学到的结构可能极其复杂,但从效果上来说,对于一些具体问题,这个网络可能比人为设计得来的效果要好。

梅俏竹:关于可解释性与自动性并非矛盾

我想说的是,可解释性并不意味着必须排斥所有形式的事物,只是在某些情况下,更重要的一点是确保信息透明,从而建立起信任。在医疗领域,如果系统能提供清晰简洁且易于理解的情报,那么医生和患者就更容易接受这种诊断结果。而如果系统无法提供这样的信息,那么即使它能够准确无误地进行诊断,也不会被接受。

百度高级研究员李兴建:从产业界讲 AutoML

作为百度,我们也在这个方向上进行了一系列实践性的工作,比如使用进化算法等方法来搜索神经网络模式,最终发现搜索出来的 GAN 比人为设计得出的网格更加稳定,并且生成效果更佳。此外,在头像风格迁移任务中,我们通过叠加多个 auto encoder 进行特征融合,最终发现这样只需少量操作即可获得同样甚至更好的效果。

王立威:我认为很多问题里,可解释性其实很片面。大部分问题本质上不可解释。在医疗领域,大量的问题类似拍 X 光片判断肺癌时,就只能看到“毛刺”、“空洞”,但这些定义是什么?之所以今天的人工智能、机器学习能超越人类,就是因为它们处理那些难以或无法简短描述的问题时表现卓越。

以上便是我对可解释的一个看法,我们不一定非要追求可解释,有时候需要看是否真的能实现有效沟通。如果仅仅为了追求技术上的完美,而忽视实际应用中的需求,那恐怕我们的目标将变得遥不可及。此外,对于 AutoML 技术层面上的挑战,我认为虽然它在简单场景下表现良好,但当涉及到复杂情境时,如交通预测等,它仍然存在许多挑战待解决。