在前一期「AI 安全与伦理」研讨会的热烈回响中,AI Time 第二期如同一道光芒照亮了技术探索的道路。第二期以「深入解析自动机器学习与可解释机器学习」为主题,邀请了一批领域内的顶尖专家,以AutoML和Explainable ML为核心议题,展开了精彩纷呈的讨论。
首先,王立威教授从AutoML的角度出发,对其简单介绍,并强调了自动化过程中的数学公式定义。他认为AutoML旨在将模型设计和超参数调整转变为机器学习的问题,从而减少人工干预,让机器自主优化网络结构。在他看来,这不仅是对传统网络设计的一次革新,也是对炼丹艺术的一种现代理解。
接着,梅俏竹教授指出,可解释性并非与自动化相矛盾,而是一种建立信任路径。她用医疗诊断案例说明,在提供诊断结果时,如果没有足够的可解释性,就无法有效地沟通给患者,同时也影响到医生的信任感。因此,她认为可解释性机器学习正成为确保人与AI之间信任关系必不可少的一环。
李兴建博士则从产业界分享了百度在神经网络结构搜索方面取得的进展。他展示了利用进化算法、强化学习或可微结构等方法进行神经网络拓扑结构搜索,以及应用于生成对抗网络(GAN)和头像风格迁移任务中的多尺度特征融合策略。这些实践证明了AutoML在提高效率、效果上所带来的巨大价值。
然而,在一些问题中,可解释性的必要性备受争议。王立威教授提出,在很多情况下,可解释性可能过于片面,因为大部分复杂问题本质上是不易或不可完全揭示清楚的事物。他举例说明,即使是在医疗领域,当医生已经充分信任系统后,对系统性能超过自己时,不再需要过多关注可解释性的问题。此外,他还提出了关于皮毛和爪子的不可解释性的观点,即即使可以通过复杂模型描述,但这种描述往往难以被人类理解。
最后,他们共同探讨了AutoML技术层面的局限,如如何应对复杂问题,以及如何平衡成本效益。在这场思辨会上,每位嘉宾都从自己的专业视角,为我们揭开了一层又一层关于自动机器学习与可解释机器学习之谜,使我们对于这两个概念有着更加深刻且全面认识。