AI Time 第二期从自动机器学习到可解释机器学习NBA最新资讯启航新征程

在AI Time的第二期研讨会上,学者们围绕自动机器学习与可解释机器学习展开了深入探讨。美国伊利诺伊大学芝加哥分校特聘教授俞士纶、美国密歇根大学梅俏竹教授、北京大学王立威教授以及百度高级研究员李兴建等嘉宾,共同分享了他们在这两个领域的见解和经验。

王立威教授首先介绍了AutoML(自动机器学习)的概念。他指出,传统的机器学习模型设计和超参数调节往往依赖于人工经验,而AutoML则尝试将这些过程转化为一种自动化的优化问题,让机器自己去寻找最优解。通过数学公式定义,这种方法可以使网络结构设计从人为精确到机器自动生成,从而实现炼丹般复杂的问题被简化。

接着,梅俏竹教授阐述了可解释性与AutoML之间并非矛盾。她强调,无论是全自动还是完全手动进行训练,可解释性都是建立信任的关键路径。在医疗诊断中,不仅要准确诊断,还需要能够清晰地向患者和医生说明诊断结果,因此她认为可解释性不仅是对公众的一个需求,也是推动技术发展不可或缺的一部分。

李兴建博士则从产业界角度谈到了AutoML,他提出了基于进化算法、强化学习或者可微结构搜索神经网络结构的方法,并且举例说明了这种方法在生成对抗网络(GAN)和头像风格迁移任务中的应用。他的观点表明,在实际应用中,企业已经开始使用AutoML来提高模型效率和性能,同时减少人类干预,以达到更快捷、高效的地步。

王立威又进一步提出了一些关于可解释性的看法。他认为,在很多问题中,可解释性其实很片面,因为大多数问题本质上是不可能完全理解或描述清楚的。而他自己的工作经历表明,只有在初期阶段,当医生还不完全信任AI系统时,可解释才是一个重要诉求,但当系统性能达到甚至超过医生的水平后,便不再成为必要的问题。此外,他也指出了对于一些复杂数据集,如交通预测所需融合历史数据、实时数据及社交媒体文本数据等情况下,即便是简单的问题也是难以完全自动解决。

最后,他们也讨论了ACL2019一篇名作,它计算各种模型产生计算量与碳排放,这体现社会对技术伦理责任方面的一种关注,以及考虑成本因素限制盲目搜索,以减少消耗,将人工智能设计与自动学习相结合,为未来AI技术提供更多思考空间。