深度学习的发展历程

深度学习是机器学习的一个分支,它除了可以学习特征和任务之间的关联以外,还能自动从简单特征中提取更加复杂的特征。2012年以后,深度学习(deeplearning,dl)的热度呈指数上升,深度学习最具代表性的一类方法是深度神经网络,神经网络试图模拟大脑神经元层的活动,以学习如何识别数据中的复杂模式。深度学习的前身为人工神经网络(artificialneuralnetwork,ann),ann的历史可以追溯到上世纪50年代。目前深度学习最最成熟的技术本质上依然是人工神经网络。
1958年rosenblatt发明了感知器(perceptron)算法。该算法使用mcp模型(mcp是作者名字的缩写)对输入的多维数据进行二分类,且能够使用梯度下降法从训练样本中自动学习更新权值。1962年,该方法被证明能够收敛,理论与实践效果引起第一次神经网络的研究浪潮。1969年,美国数学家及人工智能先驱minsky在其著作中证明感知器本质上是一种线性模型,只能处理线性分类问题,就连最简单的xor(亦或)问题都无法正确分类,这间接宣判了感知器的死刑,神经网络的研究因此陷入了近20年的停滞。
直到上世纪80年代,hinton在1986年发明了适用于多层感知器(multi-layersperceptron)的反向传播算法,并采用sigmoid函数进行非线性映射,有效解决了非线性分类和学习的问题,该方法引起了神经网络的第二次热潮。yanlecun等人于1998年发明了深度卷积神经网络lenet-5,该网络引入了卷积层,下采样层和全连接层,是现在大部分深度卷积神经网络的雏形,lenet-5成功地运用到手写数字(mnist)识别任务。然而由于神经网络一直缺少相应的严格的数学理论支持,神经网络的研究进入第二次低潮期。随后决策树方法、svm、朴素贝叶斯等统计学方法成为机器学习研究的主流。
2006年,hinton等人在其研究中提出了深度学习的概念,之后在众多研究者努力下,随机梯度下降法(stochasticgradientdescent,sgd),dropout等网络优化策略被相继提出,尤其是gpu并行计算技术解决了深度网络参数多优化时间长的难题后,全世界范围内掀起了研究深度学习的热潮并持续至今。10多年来,许多经典的深度学习架构被提出,如典型的深度卷积神经网络架构alexnet,循环神经网络(recurrentneuralnetworks,rnn)、长短期记忆网络(longshort-termmemory,lstm)、生成式对抗网络(generativeadversarialnetwork,gan)等。


关于便携式叶绿素仪的操作步骤的详细介绍
自制冰箱diy图解
如何购买教育软件
贾跃亭急推FF91背后:还魂丹or绝命草?
芯和快速三维电磁场仿真器IRIS获得三星 8LPP工艺认证
深度学习的发展历程
华为手机怎么更新鸿蒙系统 鸿蒙系统和安卓系统的区别
机器学习算法帮助我们做出更好的决定
高歌猛进的“钴奶奶”摔了一跤之后,在2019年还能继续风光吗?
Gartner预计2020年全球可穿戴设备支出达到520亿美元
使用STM32G474芯片做Half模式的PWM输出
微雪电子STM32F411RET6 STM32开发板简介
智能照明市场迎来发展的上升期
微软创投成立新基金 将投资各大人工智能创业公司
通向云与AI先要跨越裂谷 真勇士会跨过六道裂谷奔向云与AI的彼端
蒲公英LED灯
移远EC20模块的三种数据通道模式
国产工控主板:助力产业飞跃,智能操控引领科技创新
探访2018CES:超三成展商来自中国
服务器芯片早成 Intel 垄断之势,高通与 AMD 还有机会吗?