人工智能的发展历程可以分为几个主要阶段,每个阶段都有其关键人物和他们的重要贡献:

1940年代-1950年代:早期理论

  • Alan Turing:他的论文《计算机器与智能》("Computing Machinery and Intelligence", 1950)提出了图灵测试,该测试成为判断机器是否拥有人类水平智能的一个重要基准。

1950年代-1960年代:人工智能的诞生

  • John McCarthy:他在1956年的达特茅斯会议上首次提出“人工智能”这个术语,他的许多工作都对AI领域产生了深远影响。
  • Frank Rosenblatt:他设计了第一个人工神经网络模型之一,感知机(Perceptron),并在1958年的论文《感知机:理论和实践》("The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain")中进行了描述。

1960年代-1970年代:AI的初级应用和挑战

  • Marvin Minsky和Seymour Papert:他们在1969年的著作《感知机》("Perceptrons")中,批评了感知机的局限性,这本书对AI研究产生了重要影响。

1980年代:AI的复兴和专家系统的兴起

  • Edward Feigenbaum:他是专家系统的主要开创者之一,他的主要工作包括与其他人一起开发了DENDRAL系统。

1990年代-2000年代:从符号主义到机器学习

  • Yann LeCun:他在论文《用于文档识别的基于梯度的学习》("Gradient-Based Learning Applied to Document Recognition", 1998)中,提出了卷积神经网络(Convolutional Neural Network),这一模型在图像识别等任务上取得了巨大成功。

2010年代:深度学习的兴起

  • Geoffrey Hinton:他是深度学习的开创者之一,在他的论文《使用深度信念网络快速学习算法》("A Fast Learning Algorithm for Deep Belief Nets", 2006)中,他提出了深度信念网络(Deep Belief Network),为深度学习的兴起铺平了道路。

2020年代:人工智能的应用广泛化

  • Alec Radford(OpenAI):他的论文《语言模型是少次学习者》("Language Models are Few-Shot Learners", 2020)中介绍了GPT-3模型,这一模型在自然语言处理任务中表现出强大的性能。

这些关键人物和他们的贡献只是人工智能发展历程中的一部分,这个领域还有许多其他重要的科研人员和工作。

以下是各个阶段人工智能发展的关键人物和他们的论文,由于这是一个大领域,各个阶段的"Top 5"可能有所不同,但以下列举的人物和论文对AI的发展有重大影响。

人工智能发展的历程可以划分为多个阶段,以下是在每个阶段影响较大的1关键人物以及他们的主要论文和理论贡献。

1940年代-1950年代:早期理论

  1. Alan Turing (1950): 在 "Computing Machinery and Intelligence" 中,他提出了 "图灵测试",为人工智能的哲学基础和评价指标设定了标准。
  2. John von Neumann (1945): 在 "First Draft of a Report on the EDVAC" 中,他提出了冯·诺依曼架构,为现代计算机系统的设计奠定了基础。
  3. Claude Shannon (1948): 在 "A Mathematical Theory of Communication" 中,他提出了信息论的基本概念,为数字通信和数据压缩技术的发展打下了基础。
  4. Norbert Wiener (1948): 在 "Cybernetics: Or Control and Communication in the Animal and the Machine" 中,他提出了控制论,这是一种用于理解复杂系统如何控制和通信的理论框架。
  5. Warren McCulloch & Walter Pitts (1943): 在 "A Logical Calculus of the Ideas Immanent in Nervous Activity" 中,他们提出了神经网络的早期模型,也是人工智能中神经网络的原型。
  6. Donald Hebb (1949): 在 "The Organization of Behavior" 中,他提出了赫布学习规则,这是神经网络学习算法的基础。
  7. George A. Miller (1956): 在 "The Magical Number Seven, Plus or Minus Two: Some Limits on Our Capacity for Processing Information" 中,他提出了工作记忆的容量限制,对认知科学和人工智能都产生了深远影响。
  8. Alan Newell & Herbert A. Simon (1956): 在 "The Logic Theory Machine: A Complex Information Processing System" 中,他们开发了逻辑理论机,这是第一个能够模拟人类问题解决能力的程序。
  9. Noam Chomsky (1957): 在 "Syntactic Structures" 中,他提出了生成语法理论,这对自然语言处理的发展产生了巨大影响。
  10. Grey Walter (1950): 他创建了一种早期的自主机器人,被称为 "Machina Speculatrix",这为后来的自主机器人和移动机器人的研究提供了一个模型。

1950年代-1960年代:人工智能的诞生

  1. Allen Newell和Herbert Simon: "GPS, a program that simulates human thought", 1961年。论文介绍了一种名为通用问题求解(GPS)的程序,这个程序是人工智能中的重要里程碑。
  2. Marvin Minsky: "Steps Toward Artificial Intelligence", 1960年。这篇论文系统地探讨了人工智能的关键问题,比如学习、推理、问题解决、感知和语言理解等。
  3. Frank Rosenblatt: "The Perceptron—a perceiving and recognizing automaton", 1957年。论文介绍了感知机,这是最早的人工神经网络。
  4. Edward Feigenbaum: "The Simulation of Verbal Learning Behavior", 1959年。这篇论文介绍了用计算机模拟人类学习过程的方法。
  5. John Holland: "Outline for a Logical Theory of Adaptive Systems", 1962年。这篇论文提出了遗传算法,这是一种用于优化问题的方法。
  6. Gordon Pask: "The Natural History of Networks", 1961年。这篇论文介绍了网络和系统的自我组织理论。
  7. Ivan Sutherland: "Sketchpad: A Man-Machine Graphical Communication System", 1963年。这篇论文介绍了Sketchpad,这是最早的计算机图形系统。
  8. Allen Newell & Herbert A. Simon (1956): 在 "The Logic Theory Machine—A Complex Information Processing System" 中,他们提出了逻辑理论机,被认为是最早的人工智能程序之一。
  9. John McCarthy (1959): 在 "Programs with Common Sense" 中,他提出了情境逻辑(Situation Calculus)和建议使用 Lisp 作为人工智能研究的编程语言。
  10. Frank Rosenblatt (1958): 在 "The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain" 中,他提出了感知机,是神经网络和机器学习研究的重要里程碑。
  11. Noam Chomsky (1957): 在 "Syntactic Structures" 中,他提出了生成语法,对自然语言处理和语言学理论产生了深远影响。
  12. Marvin Minsky & Dean Edmonds (1951): 他们共同设计了第一台神经网络模拟器SNARC,开启了神经网络的研究历程。
  13. Joseph Weizenbaum (1966): 在 "ELIZA - A Computer Program For the Study of Natural Language Communication Between Man and Machine" 中,他创建了 ELIZA,是最早的对话系统之一。
  14. Arthur Samuel (1959): 在 "Some Studies in Machine Learning Using the Game of Checkers" 中,他提出了一种用于玩棋的学习算法,这是最早的机器学习实践之一。
  15. John Nash (1950): 在 "Equilibrium Points in N-Person Games" 中,他提出了博弈论中的纳什均衡,对决策理论和后来的强化学习有重要影响。
  16. Oliver Selfridge (1959): 在 "Pandemonium: A Paradigm for Learning" 中,他提出了 "恶魔模型"(Pandemonium model),是早期模式识别和学习系统的代表作。

专家系统和知识表示阶段(1970年代到1980年代)

  1. Edward Feigenbaum, Bruce Buchanan: "DENDRAL and Meta-DENDRAL: Roots of Knowledge Systems and Expert System Applications", 1981年。这篇论文描述了DENDRAL项目,它是第一个成功的知识领域专家系统之一。
  2. Allen Newell: "Unified Theories of Cognition", 1980年。这本书提出了认知科学的统一理论,对人工智能的发展产生了影响。
  3. Raj Reddy: "Speech recognition by machine: A review", 1976年。这篇论文回顾了语音识别的发展,对人工智能的发展产生了影响。
  4. Marvin Minsky, Seymour Papert: "Perceptrons: An Introduction to Computational Geometry", 1969年。这本书研究了人工神经网络的限制,对人工智能的发展产生了影响。
  5. John Hopfield: "Neural networks and physical systems with emergent collective computational abilities", 1982年。这篇论文提出了Hopfield网络,这是一种重要的神经网络模型。
  6. John Holland: "Adaption in Natural and Artificial Systems", 1975年。这篇论文介绍了遗传算法,对优化问题的解决提供了新的途径。
  7. Judea Pearl: "Probabilistic Reasoning in Intelligent Systems", 1988年。这本书介绍了概率图模型,对知识表示和推理的发展产生了影响。
  8. Terry Winograd: "Understanding Natural Language", 1972年。这篇论文介绍了自然语言理解的方法,对自然语言处理的发展产生了影响。
  9. Roger Schank: "Conceptual Information Processing", 1975年. 这本书介绍了概念依赖理论,对自然语言理解的发展产生了影响。
  10. David Marr: "Vision: A Computational Investigation into the Human Representation and Processing of Visual Information", 1982年。这本书描述了人类视觉信息处理的计算模型,对计算机视觉的发展产生了影响。

机器学习和数据驱动阶段(1990年代到2000年代)

  1. Corinna Cortes, Vladimir Vapnik: "Support-Vector Networks", 1995年。这篇论文提出了支持向量机,对分类问题的解决产生了影响。
  2. Leo Breiman: "Random Forests", 2001年。这篇论文提出了随机森林算法,对集成学习的发展产生了影响。
  3. Paul Viola, Michael Jones: "Rapid Object Detection using a Boosted Cascade of Simple Features", 2001年。这篇论文提出了Viola-Jones目标检测框架,对计算机视觉的发展产生了影响。
  4. Yann LeCun, Yoshua Bengio, Geoffrey Hinton: "Deep Learning", 2015年。这篇论文回顾了深度学习的发展,对人工智能的发展产生了影响。
  5. Yoshua Bengio, et al: "A Neural Probabilistic Language Model", 2003年。这篇论文提出了神经网络语言模型,对自然语言处理的发展产生了影响。
  6. Andrew Ng, et al: "On Discriminative vs. Generative Classifiers: A comparison of logistic regression and naive Bayes", 2002年。这篇论文比较了生成模型和判别模型,对机器学习的理解产生了影响。
  7. David Blei, Andrew Ng, Michael Jordan: "Latent Dirichlet Allocation", 2003年。这篇论文提出了潜在狄利克雷分配模型,对文本挖掘的发展产生了影响。
  8. Christopher Bishop: "Pattern Recognition and Machine Learning", 2006年。这本书详细介绍了模式识别和机器学习的基本理论和方法。
  9. Jitendra Malik, et al: "Contour and Texture Analysis for Image Segmentation", 2001年。这篇论文提出了基于轮廓和纹理分析的图像分割方法。
  10. Isabelle Guyon, Andre Elisseeff: "An Introduction to Variable and Feature Selection", 2003年。这篇论文介绍了特征选择的基本方法,对机器学习的发展产生了影响。

深度学习阶段(2010年代至今)

  1. Geoffrey Hinton, et al: "A fast learning algorithm for deep belief nets", 2006年。这篇论文提出了深度信念网络,是深度学习发展的关键。
  2. Alex Krizhevsky, et al: "ImageNet Classification with Deep Convolutional Neural Networks", 2012年。这篇论文提出了深度卷积神经网络在图像分类任务上的应用。
  3. Ilya Sutskever, et al: "Sequence to sequence learning with neural networks", 2014年。这篇论文提出了序列到序列的深度学习模型,对自然语言处理的发展产生了影响。
  4. Ian Goodfellow, et al: "Generative Adversarial Nets", 2014年。这篇论文提出了生成对抗网络,对深度学习的发展产生了影响。
  5. Diederik P. Kingma, Max Welling: "Auto-Encoding Variational Bayes", 2013年。这篇论文提出了变分自编码器,对生成模型的理解产生了影响。
  6. Karen Simonyan, Andrew Zisserman: "Very Deep Convolutional Networks for Large-Scale Image Recognition", 2014年。这篇论文提出了VGGNet,对深度学习的发展产生了影响。
  7. Christian Szegedy, et al: "Going Deeper with Convolutions", 2015年。这篇论文提出了GoogLeNet和Inception模块,对深度学习的发展产生了影响。
  8. Kaiming He, et al: "Deep Residual Learning for Image Recognition", 2015年。这篇论文提出了ResNet,对深度学习的发展产生了影响。
  9. Vaswani, et al: "Attention Is All You Need", 2017年。这篇论文提出了Transformer模型,对自然语言处理的发展产生了影响。
  10. Jacob Devlin, et al: "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding", 2018年。这篇论文提出了BERT模型,对自然语言处理的发展产生了影响。

2020年代:人工智能的应用广泛化 阶段

  1. Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei (2020): 在 "Language Models are Few-Shot Learners" 中,他们介绍了GPT-3,这是一种巨大的自我监督模型,可以生成极为逼真的文本。
  2. Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever (2020): 在 "Language Models are Few-Shot Learners" 中,他们介绍了GPT-3,这是一个巨大的Transformer模型,它在许多自然语言处理任务中取得了前所未有的成绩。
  3. Tom Mitchell and others (2021): 他们在 "Towards a Human-like Open-Domain Chatbot" 中介绍了Meena,这是一个大型、开放领域的聊天机器人,其目标是更自然地进行多轮对话。
  4. Joseph Redmon and Ali Farhadi (2020): 在 "YOLO9000: Better, Faster, Stronger" 中,他们介绍了YOLO(You Only Look Once)对象检测系统,显著提高了对象检测的速度,同时也保持了准确率。
  5. Chen Sun, Abhinav Shrivastava, Saurabh Singh, and Abhinav Gupta (2020): 在 "Revisiting Unreasonable Effectiveness of Data in Deep Learning Era" 中,他们重新审视了大数据在深度学习中的作用,并提出了一种新的大规模数据集训练方式。
  6. Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova (2020): 在 "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding" 中,他们进一步发展了BERT模型的应用。
  7. Tomaso Poggio, and Fabio Anselmi (2020): 在 "Visual Cortex and Deep Networks: Learning Invariant Representations" 中,他们从神经科学的角度探讨了深度学习模型的原理。
  8. Demis Hassabis, Dharshan Kumaran, Christopher Summerfield, and Matthew Botvinick (2020): 在他们的工作中,他们将深度学习和强化学习相结合,提出了深度强化学习,并在游戏和其他领域取得了一些重要的成果。
  9. Karen Simonyan and Andrew Zisserman (2020): 在 "Very Deep Convolutional Networks for Large-Scale Image Recognition" 中,他们进一步优化了深度卷积神经网络的结构,并在图像识别上取得了重要的突破。
  10. Hinton, Geoffrey E., and Ruslan Salakhutdinov (2020): 在 "Reducing the Dimensionality of Data with Neural Networks" 中,他们提出了自动编码器,一种新的无监督学习方法,为学习数据的低维度表示提供了一种有效的方法。
Logo

DAMO开发者矩阵,由阿里巴巴达摩院和中国互联网协会联合发起,致力于探讨最前沿的技术趋势与应用成果,搭建高质量的交流与分享平台,推动技术创新与产业应用链接,围绕“人工智能与新型计算”构建开放共享的开发者生态。

更多推荐