博客
关于我
[转]关于深度学习,这可能是你最容易读进去的科普贴了
阅读量:429 次
发布时间:2019-03-06

本文共 1132 字,大约阅读时间需要 3 分钟。

神经网络与人工智能发展史

2016年1月底,人工智能领域迎来两大重大事件。1月24日,人工智能奠基人之一——MIT教授Marvin Minsky去世,享年89岁。3天后,谷歌在《自然杂志》上发表论文,宣布AlphaGo以深度学习技术击败职业围棋选手樊辉。这是机器首次在职业领域获胜,距离IBM于1997年击败国际象棋冠军近20年。此前,Minsky曾在1969年出版《感知器》一书,指出神经网络的局限性,导致该领域陷入低潮。

深度学习的起源与其局限性:

1969年,Marvin Minsky与Seymour Papert在《感知器》一书中揭示,单层感知器无法解决非线性分类问题(如异或门),同时当时计算能力不足以支撑复杂网络的训练。这些因素导致了神经网络研究的长期低潮。

神经网络的发展历程:

神经网络研究始于1943年,由Warren McCulloch和Walter Pitts提出。1957年,Frank Rosenblatt推出“感知器”,成为神经网络研究的重要里程碑。然而,1969年的《感知器》一书揭示了其局限性,导致20年后神经网络研究陷入低谷。

神经网络的复兴:

1986年,Geoffrey Hinton与David Rumelhart发表《学习表示法》一文,提出反向传播算法,突破了传统感知器的局限。反向传播算法通过增加隐层,解决了异或门难题,并降低了计算量,使神经网络研究重新崛起。

分布式表征与学习算法:

分布式表征(Distributed Representation)是神经网络研究的核心思想,强调信息的分布式存储。Geoffrey Hinton在研究生阶段提出的分布式表征理念,成为深度学习的重要基石。反向传播算法的核心在于成本函数与学习算法的结合,实现非线性、分布式、并行计算的自适应能力。

深度学习的突破:

1989年,Yann Lecun在贝尔实验室发表《反向传播算法在手写邮政编码识别中的应用》,并开发卷积神经网络(CNN)。CNN在识别任务中展现出显著优势。与此同时,Vladmir Vapnik提出的支持向量机(SVM)在图像识别领域也取得了突破。

神经网络与SVM的争论:

Yann Lecun与Vladmir Vapnik在贝尔实验室展开关于神经网络与SVM的技术对决。Lecun强调计算效率与容量优化的重要性,而Vapnik则认为SVM在容量调节方面具有优势。如今,两种技术各有优势,常被结合使用。

人工智能的未来展望:

神经网络的发展经历了从理论提出到实际应用的漫长历程。随着计算能力的提升与算法优化,深度学习正在成为人工智能领域的主流技术。未来的研究方向将更加注重模型的效率与可解释性,以应对更复杂的实际问题。

转载地址:http://jvtuz.baihongyu.com/

你可能感兴趣的文章
Oracle 升级10.2.0.5.4 OPatch 报错Patch 12419392 Optional component(s) missing 解决方法
查看>>
oracle 可传输的表空间:rman
查看>>
Oracle 启动监听命令
查看>>
Oracle 启动阶段 OPEN
查看>>
Oracle 在Drop表时的Cascade Constraints
查看>>
Oracle 在Sqlplus 执行sql脚本文件。
查看>>
Oracle 如何处理CLOB字段
查看>>
oracle 学习
查看>>
oracle 定义双重循环例子
查看>>
ORACLE 客户端工具连接oracle 12504
查看>>
Oracle 客户端连接时报ORA-01019错误总结
查看>>
oracle 嵌套表 例子,Oracle之嵌套表(了解)
查看>>
Oracle 常用命令
查看>>
Oracle 常用的V$视图脚本(二)
查看>>
Oracle 并行原理与示例总结
查看>>
oracle 并集 时间_Oracle集合运算符 交集 并集 差集
查看>>
Oracle 序列sequence 开始于某个值(10)执行完nextval 发现查出的值比10还小的解释
查看>>
oracle 执行一条查询语句,把数据加载到页面或者前台发生的事情
查看>>
oracle 批量生成建同义词语句和付权语句
查看>>
oracle 抓包工具,shell 安装oracle和pfring(抓包) 及自动环境配置
查看>>