大神Bengio的新书《Deep Learning》完稿了。和Bengio之前的《Learning Deep Architectures for AI》相比,风格变化很大。
本书目标受众是希望学习机器学习的大学生们(本科生或研究生)和没有机器学习背景的软件工程师们。因此,增加了一些基础知识,比如线性代数、概率论以及机器学习等,同时对于不同神经网络模型的介绍也更加详细,并加入了最新的研究成果,特别是2015年的很多工作也都进行了介绍。如果书名起的俗气一点,可以套用从入门到精通之类名字。
Ian Goodfellow,谷歌大脑团队科学家,Bengio的研究生。AaronCourville,蒙特利尔大学助理教授,Bengio的博士后。这两位不太熟悉,这里不太过多介绍了。
Yoshua Bengio,蒙特利尔大学教授,人工神经网络研究领域的超级大牛(我个人倾向的big4为Geoff Hinton、Yann LeCun、Yoshua Bengio以及Jürgen Schmidhuber),最新Google Scholar统计的论文引用3万7千次,机器学习泰斗Michael Jordan的博士后。其主要贡献在于:1)神经网络语言模型[1] :开启了基于神经网络自然语言处理方法的先河,引发了embeddings热潮;2)可以自动求梯度的Theano,给无数研究员、研究生提供赖以生存的工具;3)最早关于RNN的梯度弥散问题的分析,看看现在无所不能的RNN,自然会想起Bengio的慧眼识珠;4)和Hinton、Lecun一起引领了人工神经网络的复兴 。
介绍转载自于 “智能立方”公众号【AIcube】