博客
关于我
[转]关于深度学习,这可能是你最容易读进去的科普贴了
阅读量:429 次
发布时间:2019-03-06

本文共 1132 字,大约阅读时间需要 3 分钟。

神经网络与人工智能发展史

2016年1月底,人工智能领域迎来两大重大事件。1月24日,人工智能奠基人之一——MIT教授Marvin Minsky去世,享年89岁。3天后,谷歌在《自然杂志》上发表论文,宣布AlphaGo以深度学习技术击败职业围棋选手樊辉。这是机器首次在职业领域获胜,距离IBM于1997年击败国际象棋冠军近20年。此前,Minsky曾在1969年出版《感知器》一书,指出神经网络的局限性,导致该领域陷入低潮。

深度学习的起源与其局限性:

1969年,Marvin Minsky与Seymour Papert在《感知器》一书中揭示,单层感知器无法解决非线性分类问题(如异或门),同时当时计算能力不足以支撑复杂网络的训练。这些因素导致了神经网络研究的长期低潮。

神经网络的发展历程:

神经网络研究始于1943年,由Warren McCulloch和Walter Pitts提出。1957年,Frank Rosenblatt推出“感知器”,成为神经网络研究的重要里程碑。然而,1969年的《感知器》一书揭示了其局限性,导致20年后神经网络研究陷入低谷。

神经网络的复兴:

1986年,Geoffrey Hinton与David Rumelhart发表《学习表示法》一文,提出反向传播算法,突破了传统感知器的局限。反向传播算法通过增加隐层,解决了异或门难题,并降低了计算量,使神经网络研究重新崛起。

分布式表征与学习算法:

分布式表征(Distributed Representation)是神经网络研究的核心思想,强调信息的分布式存储。Geoffrey Hinton在研究生阶段提出的分布式表征理念,成为深度学习的重要基石。反向传播算法的核心在于成本函数与学习算法的结合,实现非线性、分布式、并行计算的自适应能力。

深度学习的突破:

1989年,Yann Lecun在贝尔实验室发表《反向传播算法在手写邮政编码识别中的应用》,并开发卷积神经网络(CNN)。CNN在识别任务中展现出显著优势。与此同时,Vladmir Vapnik提出的支持向量机(SVM)在图像识别领域也取得了突破。

神经网络与SVM的争论:

Yann Lecun与Vladmir Vapnik在贝尔实验室展开关于神经网络与SVM的技术对决。Lecun强调计算效率与容量优化的重要性,而Vapnik则认为SVM在容量调节方面具有优势。如今,两种技术各有优势,常被结合使用。

人工智能的未来展望:

神经网络的发展经历了从理论提出到实际应用的漫长历程。随着计算能力的提升与算法优化,深度学习正在成为人工智能领域的主流技术。未来的研究方向将更加注重模型的效率与可解释性,以应对更复杂的实际问题。

转载地址:http://jvtuz.baihongyu.com/

你可能感兴趣的文章
nodejs libararies
查看>>
nodejs npm常用命令
查看>>
Nodejs process.nextTick() 使用详解
查看>>
NodeJS 导入导出模块的方法( 代码演示 )
查看>>
nodejs 开发websocket 笔记
查看>>
nodejs 的 Buffer 详解
查看>>
nodejs 读取xlsx文件内容
查看>>
nodejs 运行CMD命令
查看>>
Nodejs+Express+Mysql实现简单用户管理增删改查
查看>>
nodejs+nginx获取真实ip
查看>>
nodejs-mime类型
查看>>
NodeJs——(11)控制权转移next
查看>>
NodeJS、NPM安装配置步骤(windows版本)
查看>>
NodeJS、NPM安装配置步骤(windows版本)
查看>>
nodejs与javascript中的aes加密
查看>>
nodejs中Express 路由统一设置缓存的小技巧
查看>>
nodejs中express的使用
查看>>
Nodejs中的fs模块的使用
查看>>
NodeJS使用淘宝npm镜像站的各种姿势
查看>>
nodejs包管理工具对比:npm、Yarn、cnpm、npx
查看>>