博客
关于我
[转]关于深度学习,这可能是你最容易读进去的科普贴了
阅读量:429 次
发布时间:2019-03-06

本文共 1132 字,大约阅读时间需要 3 分钟。

神经网络与人工智能发展史

2016年1月底,人工智能领域迎来两大重大事件。1月24日,人工智能奠基人之一——MIT教授Marvin Minsky去世,享年89岁。3天后,谷歌在《自然杂志》上发表论文,宣布AlphaGo以深度学习技术击败职业围棋选手樊辉。这是机器首次在职业领域获胜,距离IBM于1997年击败国际象棋冠军近20年。此前,Minsky曾在1969年出版《感知器》一书,指出神经网络的局限性,导致该领域陷入低潮。

深度学习的起源与其局限性:

1969年,Marvin Minsky与Seymour Papert在《感知器》一书中揭示,单层感知器无法解决非线性分类问题(如异或门),同时当时计算能力不足以支撑复杂网络的训练。这些因素导致了神经网络研究的长期低潮。

神经网络的发展历程:

神经网络研究始于1943年,由Warren McCulloch和Walter Pitts提出。1957年,Frank Rosenblatt推出“感知器”,成为神经网络研究的重要里程碑。然而,1969年的《感知器》一书揭示了其局限性,导致20年后神经网络研究陷入低谷。

神经网络的复兴:

1986年,Geoffrey Hinton与David Rumelhart发表《学习表示法》一文,提出反向传播算法,突破了传统感知器的局限。反向传播算法通过增加隐层,解决了异或门难题,并降低了计算量,使神经网络研究重新崛起。

分布式表征与学习算法:

分布式表征(Distributed Representation)是神经网络研究的核心思想,强调信息的分布式存储。Geoffrey Hinton在研究生阶段提出的分布式表征理念,成为深度学习的重要基石。反向传播算法的核心在于成本函数与学习算法的结合,实现非线性、分布式、并行计算的自适应能力。

深度学习的突破:

1989年,Yann Lecun在贝尔实验室发表《反向传播算法在手写邮政编码识别中的应用》,并开发卷积神经网络(CNN)。CNN在识别任务中展现出显著优势。与此同时,Vladmir Vapnik提出的支持向量机(SVM)在图像识别领域也取得了突破。

神经网络与SVM的争论:

Yann Lecun与Vladmir Vapnik在贝尔实验室展开关于神经网络与SVM的技术对决。Lecun强调计算效率与容量优化的重要性,而Vapnik则认为SVM在容量调节方面具有优势。如今,两种技术各有优势,常被结合使用。

人工智能的未来展望:

神经网络的发展经历了从理论提出到实际应用的漫长历程。随着计算能力的提升与算法优化,深度学习正在成为人工智能领域的主流技术。未来的研究方向将更加注重模型的效率与可解释性,以应对更复杂的实际问题。

转载地址:http://jvtuz.baihongyu.com/

你可能感兴趣的文章
nodejs npm常用命令
查看>>
nodejs 运行CMD命令
查看>>
nodejs-mime类型
查看>>
nodejs中Express 路由统一设置缓存的小技巧
查看>>
nodejs包管理工具对比:npm、Yarn、cnpm、npx
查看>>
NodeJs单元测试之 API性能测试
查看>>
nodejs图片转换字节保存
查看>>
NodeJs学习笔记001--npm换源
查看>>
Nodejs异步回调的处理方法总结
查看>>
Nodejs教程09:实现一个带接口请求的简单服务器
查看>>
nodejs端口被占用原因及解决方案
查看>>
Nodejs简介以及Windows上安装Nodejs
查看>>
nodejs系列之express
查看>>
nodejs系列之Koa2
查看>>
Nodejs连接mysql
查看>>
nodejs连接mysql
查看>>
NodeJs连接Oracle数据库
查看>>
nodejs配置express服务器,运行自动打开浏览器
查看>>
Nodemon 深入解析与使用
查看>>
node不是内部命令时配置node环境变量
查看>>