人类和机器本质上相同的想法催生了一个项目,科学家们开始认真思考开发具有类似人类智能的机器需要什么。在控制论运动的推动下,人工智能诞生了,它将机器和与有机生命体的功能结合在一起。
1940’s
1942
- 艾伦·图灵使用“炸弹机”(Bombe)在二战期间以更快的速度破译由恩尼格玛机(Enigma)加密的信息。
Bombe的设计为现代计算机的发展奠定了基础。图灵的工作不仅改变了战争的进程,也为后来的计算机科学和密码学开辟了新的方向
艾伦·图灵(Alan Turing)
是20世纪最伟大的数学家、逻辑学家和计算机科学家之一,被誉为“计算机科学之父”和“人工智能之父”。他的工作对现代计算机科学、密码学、人工智能等领域产生了深远影响。
1943
🌟神经网络诞生
- 机器与行为 :罗森布鲁斯(Arturo Rosenblueth)、维纳(Norbert Wiener)发布文章《行为、目的与目的论(Behavior, Purpose, and Teleology”)》
控制论(Cybernetics)领域的奠基性文献之一。控制论研究的是机器、生物和社会的控制系统,尤其是它们如何通过反馈机制实现目标。
- 人工神经元:Warren McCulloch和Walter Pitts发表经典论文《神经活动内在思想的逻辑演算(A Logical Calculus of the Ideas Immanent in Nervous Activity)》
M-P模型被认为是人工智能的起源之一,为后来的感知器、深度学习等奠定了基础。
arren McCulloch:神经生理学家,致力于研究神经系统如何产生心智现象。
Walter Pitts:自学成才的数学家,擅长逻辑学和数学建模。
1948
- 控制论:诺伯特·维纳提出“关于动物和机器中的控制与通信的研究”
控制论是一门跨学科的研究领域,主要关注系统内的控制、通信和反馈机制。它试图找到动物、机器和社会系统之间的共同规律,特别是如何通过反馈调节实现目标。
- 人工智能:控制论为人工智能的发展提供了理论基础,特别是对反馈机制和自组织系统的研究。
- 自动化技术:现代自动化系统(如机器人、自动驾驶汽车)都依赖于控制论的思想。
诺伯特·维纳(Norbert Wiener)
维纳是控制论的创始人之一,也是20世纪最重要的数学家之一。他在1948年出版的《控制论:或关于在动物和机器中控制和通信的科学》(Cybernetics: Or Control and Communication in the Animal and the Machine)中正式提出了控制论的概念。维纳的研究将数学、工程学、生物学和哲学结合起来,开创了一个全新的学科领域。
- 马克一号原型机(Mark 1 Prototype):第一台存储程序计算机,也被称为‘曼彻斯特小童’(Manchester Baby)。
世界上第一台存储程序计算机(Stored-Program Computer),正式名称为“小型实验机”(Small-Scale Experimental Machine, SSEM)。验证了电子随机存取存储器(RAM)的可行性,并为现代计算机的发展奠定了基础。
1949
- 曼彻斯特小童(The Manchester Baby)运行了它的第一个程序。
计算机历史上的一个重要里程碑:曼彻斯特小童首次运行程序,证明了存储程序计算机的可行性。这一成就不仅奠定了现代计算机的基础,也开启了计算机科学的黄金时代
- 埃德蒙·伯克利(Edmund Berkeley)发布《巨型大脑:或会思考的机器(Giant Brains: Or Machines That Think)》:埃德蒙·伯克利将机器比作人类的大脑,只不过它是用“硬件和电线”而不是“血肉和神经”制成的。
伯克利的观点反映了早期人工智能的思想,即机器可以模拟人类的思维过程。这种思想为后来的人工智能研究奠定了基础。
- 马文·明斯基(Marvin Minsky)提出:“构建能够执行当前由人类更满意地完成的任务的计算机程序,因为这些任务需要高层次的思维过程,例如:感知学习、记忆组织和批判性推理。
明斯基的这句话概括了人工智能的核心目标:让计算机具备类似人类的高级认知能力,从而能够执行复杂的任务。
明斯基的思想对人工智能的发展产生了深远影响。他的研究为神经网络、专家系统和认知架构等领域奠定了基础。
马文·明斯基(Marvin Minsky)
人工智能领域的先驱之一,也是麻省理工学院人工智能实验室的联合创始人。他在人工智能、认知科学和计算机科学领域做出了开创性贡献。
1950’s
1950
- 艾伦·图灵(Alan Turing)发布论文《模仿游戏:计算机器与智能(The Imitation Game: Computing Machinery and Intelligence)》
提出了著名的图灵测试,并探讨了机器是否能够思考的问题。这篇论文被认为是人工智能领域的奠基之作。
图灵测试的核心是行为主义,即通过外部行为判断机器是否具有智能,而不是通过内部机制或意识。
- THESEUS :克劳德·香农(Claude Shannon)在贝尔实验室(Bell Labs)设计的一款机械迷宫求解老鼠
THESEUS 是早期机器学习的典范,展示了机器如何通过试错法学习和适应环境。
香农的设计为后来的自动化和人工智能研究提供了重要启示。
克劳德·香农(Claude Shannon)
20世纪最重要的数学家和工程师之一,被誉为“信息论之父”和“数字通信的奠基人”。他的工作对现代计算机科学、通信技术、密码学和人工智能等领域产生了深远影响。
- 信息论(Information Theory)
-
- 香农在1948年发表的论文《通信的数学理论》(A Mathematical Theory of Communication)中提出了信息论,奠定了现代通信技术的基础。
- 他引入了比特(bit)作为信息的基本单位,并提出了香农熵(Shannon Entropy)的概念,用于量化信息的不确定性。
- 信息论不仅改变了通信领域,还对数据压缩、密码学和机器学习等产生了深远影响。
- 数字电路设计
-
- 香农在1937年的硕士论文《继电器与开关电路的符号分析》(A Symbolic Analysis of Relay and Switching Circuits)中,首次将布尔代数应用于电路设计,证明了电子电路可以实现逻辑运算。
- 这一发现为现代计算机的二进制逻辑和数字电路设计奠定了基础。
- 密码学
-
- 在二战期间,香农为美国军方研究密码学,提出了香农保密性理论(Shannon’s Theory of Secrecy),为现代密码学提供了理论基础。
- 他的工作包括对一次性密码本(One-Time Pad)的理论分析,证明了其在理论上的绝对安全性。
- 人工智能与机器人
-
- 香农设计了THESEUS,一个能够通过试错法学习迷宫路径的机械老鼠,展示了机器学习的早期概念。
- 他还对人工智能和计算机下棋(如国际象棋)产生了浓厚兴趣,并开发了早期的计算机下棋程序。
1952
- 亚瑟·塞缪尔(Arthur Samuel)开发了能够玩跳棋的程序。
塞缪尔的跳棋程序是人工智能领域的早期突破,展示了计算机如何通过学习和优化完成复杂的任务。
塞缪尔的工作被认为是机器学习的起点。他的程序展示了如何通过数据驱动的方法改进性能,这一思想在今天的深度学习和强化学习中仍然至关重要。
1955
🌟人工智能术语引入
- “人工智能(Artificial Intelligence)” 由约约翰·麦卡锡(John McCarthy)引入术语体系
- 首次人工智能研讨会提议,于1956年在达特茅斯举行——麦卡锡(McCarthy)、明斯基(Minsky)、罗切斯特(Rochester)和香农(Shannon)
会议的目标是“探索如何让机器模拟人类智能”
会议期间,与会者讨论了机器学习、自然语言处理、计算机视觉和神经网络等主题,这些领域后来成为人工智能的核心研究方向。
1956
- 第一个AI程序‘逻辑理论家’(Logic Theorist):用于证明怀特海和罗素的《数学原理》中的符号逻辑定理,由纽厄尔(Newell)和西蒙(Simon)创建。
逻辑理论家是人工智能领域的第一个程序,标志着计算机从单纯的计算工具转变为能够模拟人类思维的智能系统。
它成功证明了《数学原理》中的38条定理,其中一些证明甚至比原书中的更简洁。
- “人工智能将在未来10年内击败人类国际象棋选手。”——赫伯特·西蒙(Herbert Simon)
西蒙的预言在1997年成为现实,IBM的深蓝(Deep Blue)超级计算机击败了世界国际象棋冠军加里·卡斯帕罗夫(Garry Kasparov)。
赫伯特·西蒙(Herbert Simon)
赫伯特·西蒙是20世纪最重要的科学家之一,他在人工智能、认知心理学、经济学和计算机科学领域做出了开创性贡献。
他是逻辑理论家(Logic Theorist)和通用问题求解器(General Problem Solver)的共同开发者,也是人工智能领域的先驱之一。
1957
- 感知器(Perceptron)学会了识别形状;这是机器学习的早期形式,由弗兰克·罗森布拉特(Frank Rosenblatt)创建。
感知器是机器学习的早期尝试,展示了计算机如何通过数据学习并改进性能。
它的设计思想为后来的神经网络和深度学习奠定了基础。
- 通用问题求解器(General Problem Solver, GPS):一种基于手段-目的分析的问题解决方法,由纽厄尔(Newell)、西蒙(Simon)和肖(Shaw)开发。
GPS是第一个尝试模拟人类问题解决过程的通用程序,标志着人工智能从特定任务(如定理证明)向通用问题求解的扩展。
它不仅展示了计算机如何模拟人类的逻辑推理能力,还为认知科学和人工智能的发展提供了理论基础。
1958
- LISP(列表处理语言):第一种编程语言,由约翰·麦卡锡(John McCarthy)创建。
LISP是人工智能研究的首选语言,许多早期的人工智能程序(如ELIZA和SHRDLU)都是用LISP编写的。
LISP不仅是一种语言,更是一种编程范式的象征,至今仍然在学术界和工业界中占据重要地位。
1959
- “机器学习(Machine Learning)” 由亚瑟·塞缪尔(Arthur Samuel)在IBM引入术语体系
🌟机器学习术语引入
1960’s
1961
- SAINT(符号自动积分器):一种用于微积分中符号积分的启发式问题求解程序,由詹姆斯·斯拉格尔(James Slagle)创建。
SAINT (Symbolic Automatic INTEGRator) 是第一个能够自动解决符号积分问题的程序,标志着人工智能在数学领域的应用取得了重要突破。
它成功解决了麻省理工学院(MIT)微积分课程中的大部分积分问题。
SAINT的设计思想为后来的启发式搜索算法(如A*算法)提供了灵感。
它展示了如何通过规则和启发式方法解决复杂问题,这一思想在人工智能和计算机科学中得到了广泛应用。
- 斯坦福推车(The Stanford Cart):第一辆自动驾驶车辆,由詹姆斯·亚当斯(James Adams)创造。
它是自动驾驶的起点,展示了计算机如何通过感知和规划实现自主移动,为现代自动驾驶技术的发展奠定了基础。
1963
- RAND:第一个平板电脑和手写笔,由RAND公司创造。
RAND平板电脑和手写笔是早期图形输入技术的代表,由RAND公司于1964年开发。它们展示了如何通过手写笔和平板实现人机交互,为现代触摸屏和数字绘图板的发展奠定了基础。
1964
- ELIZA:聊天机器人,自然语言处理程序,由约瑟夫·魏岑鲍姆(Joseph Weizenbaum)创建。
ELIZA是第一个聊天机器人,展示了自然语言处理的潜力。尽管它的功能有限,但ELIZA的设计思想和技术为现代聊天机器人和自然语言处理领域的发展奠定了基础。ELIZA的成功不仅推动了技术进步,还引发了关于人工智能的深刻哲学和伦理讨论。
- STUDENT:基于Lisp的程序,能够解决代数文字问题,由丹尼尔·博布罗(Daniel Bobrow)创建。
STUDENT是第一个能够理解并解决自然语言描述的数学问题的程序,它展示了计算机如何通过自然语言处理和符号操作解决数学问题,为现代自然语言处理和数学求解系统的发展奠定了基础。
- 面部识别:使用‘地标标记’(landmarking)技术来识别人脸特征,由布莱索(Bledsoe)、沃尔德(Wold)和比松(Bisson)创建。
地标标记技术为后来的面部识别算法提供了重要参考,例如:
- 特征点检测:如眼睛、鼻子和嘴巴的定位。
- 几何建模:通过地标构建人脸的几何结构。
- 深度学习:现代面部识别系统使用卷积神经网络(CNN)自动提取特征。
1965
🌟专家系统提出
- DENDRAL专家系统:用于假设形成和科学推理的逻辑结论,由费根鲍姆(Feigenbaum)和莱德伯格(Lederberg)开发。
假设形成与科学推理及逻辑结论:指的是该系统如何生成假设,并通过科学推理和逻辑得出结论。
DENDRAL是第一个成功的专家系统,用于化学分析中的假设形成和科学推理。它展示了人工智能在特定领域问题中的应用潜力,为现代专家系统和科学推理技术的发展奠定了基础。DENDRAL的成功不仅推动了技术进步,还展示了人工智能在科学研究中的重要作用。
专家系统(Expert System)
专家系统是一种模拟人类专家决策能力的计算机程序,通过知识库和推理引擎解决特定领域的问题。
1966
- SHAKEY:第一个能够感知周围环境、导航、规划路径、调整错误并通过英语语言交流提升能力的机器人,由斯坦福研究所(Stanford Research Institute)开发。
SHAKEY是第一个能够感知环境、导航、规划路径、调整错误并通过英语语言交流提升能力的机器人,由斯坦福研究所开发。
它的成功标志着机器人技术从简单自动化向智能系统的转变,为现代机器人学和人工智能的发展奠定了基础。
1968
🌟深度学习提出
- ‘深度学习(Deep Learning)’的概念由阿列克谢·伊瓦赫年科(Alexey Ivakhnenko)在《数据处理的群方法》(Group Method of Data Handling)中提出。
深度学习是机器学习的一个分支,通过多层神经网络模拟人脑的学习过程,能够从大量数据中自动提取特征并完成任务。
《数据处理的群方法》中提出的多层网络建模技术,是深度学习概念的早期雏形。他的工作为现代深度学习的发展提供了重要启示,展示了如何通过分层结构处理复杂数据。
- SHRDLU:一种自然语言处理程序,能够通过英语指令控制一个积木世界,由特里·温诺格拉德(Terry Winograd)创建。
SHRDLU是第一个能够理解并执行复杂自然语言指令的程序,标志着自然语言处理技术的重大突破。
SHRDLU的成功推动了人工智能和认知科学的研究,探索如何让计算机模拟人类的语言理解和推理能力。
它展示了计算机如何通过语法和语义分析实现人机交互,为现代自然语言处理和人工智能应用奠定了基础。
- 艺术家维拉·莫尔纳(Vera Molnar)使用打孔卡指令和Fortran程序创作数字艺术——这是最早的‘去人性化艺术’。
- 数字艺术的起点:莫尔纳的工作标志着数字艺术的诞生,展示了计算机如何通过算法生成艺术作品。
- 她的实验为后来的数字艺术家提供了重要启示,推动了技术与艺术的融合。
1970’s
1970
- “在未来三到八年内,我们将拥有一台具有普通人一般智能的机器。”——马文·明斯基(Marvin Minsky)
明斯基在20世纪70年代提出了这一预测,反映了当时科学家对人工智能发展的乐观态度。
尽管这一预测未能实现,但它展示了明斯基对技术进步的信心。
1971
- AARON自主绘图程序创造了第一副‘AI艺术’——绘制了一只‘乌龟’,由哈罗德·科恩(Harold Cohen)设计。
AI艺术的起点:AARON是AI艺术的早期实验,展示了计算机如何通过算法生成独特的艺术作品。
它的成功证明了技术在艺术创作中的潜力,推动了数字艺术的发展。
- 微处理器由泰德·霍夫(Ted Hoff)发明,开启了专家系统的‘黄金时代’。霍夫于2010年获得国家技术与创新奖章。
泰德·霍夫发明的微处理器开启了专家系统的“黄金时代”,并为现代计算机技术的发展奠定了基础。他的贡献不仅推动了硬件技术的进步,还为人工智能和专家系统的应用提供了重要支持。
微处理器(Microprocessor)
微处理器是一种将中央处理单元(CPU)集成到单个芯片上的电子器件,是现代计算机的核心组件。它的发明标志着计算机技术从大型机向小型化和普及化的转变。
泰德·霍夫(Ted Hoff)
泰德·霍夫是英特尔公司的工程师,被誉为**“微处理器之父”**。
他在1971年领导开发了世界上第一个商用微处理器Intel 4004,开启了计算机技术的新时代。
1972
- MYCIN:‘专家系统的鼻祖’——由纽厄尔(Newell)和西蒙(Simon)开发的专家系统,用于血液疾病诊断,准确率达到65%。
MYCIN是专家系统领域的经典范例,由斯坦福大学的研究团队开发,用于血液疾病诊断。它展示了如何通过知识库和推理引擎解决复杂的医学问题,为现代专家系统和人工智能应用奠定了基础。
- WABOT-1:第一个‘人形机器人’,能够行走、用日语交流并抓取物体,由早稻田大学(Waseda University)开发。
它的成功标志着机器人技术从工业应用向人机交互的转变,为现代服务机器人、人机交互和仿生机器人技术的发展奠定了基础。
❄️1974-1980 第一次人工智能寒潮
尽管AI技术取得了显著进展,但其实际影响和应用效果可能远低于预期。
1975
- SAM程序(Script Applier Mechanism,脚本应用机制):由罗杰·尚克开发的一个开创性计算机程序,旨在通过依赖脚本(scripts)来“理解”故事。
SAM程序是罗杰·尚克在AI和认知科学领域的一项里程碑式成就。通过使用脚本来模拟人类对故事的理解,SAM展示了结构化知识如何使机器能够解释和推理日常场景。
1976
- 物理符号系统假说 Physical Symbol System Hypothesis (PSSH),是由艾伦·纽厄尔(Allen Newell)和赫伯特·西蒙(Herbert Simon)提出的一种关于智能本质的理论。
物理符号系统假说是人工智能和认知科学领域的一个重要理论。它提出,智能行为可以通过物理符号系统的操作来实现,并为AI的发展提供了理论基础。
1979
- Gammanoid 战胜世界西洋双陆棋(Backgammon)冠军路易吉·维拉(Luigi Villa)是由汉斯·伯利纳(Hans Berliner)于1979年开发的一款开创性人工智能(AI)系统, 的比赛中以 7:1 的比分获胜
Gammanoid 是由汉斯·伯利纳设计的西洋双陆棋AI程序。
Gammanoid 战胜路易吉·维拉是AI历史上的一个突破性时刻,证明了机器不仅可以在战略游戏中与人类冠军竞争,甚至可以超越他们。
- 斯坦福推车(Stanford Cart) 成功地在没有人类帮助的情况下自主导航了一个房间。
斯坦福推车的成功自主导航是人工智能和机器人技术历史上的一个重要里程碑。它不仅证明了机器视觉和自主导航的可行性,还为现代自动驾驶技术的发展奠定了基础。
1980’s
1980
- 第一届人工智能全国会议(AAAI-80) 于 1980年8月18日至21日 在斯坦福大学举行。
第一届人工智能全国会议(AAAI-80) 是人工智能历史上的一个重要事件,汇集了领先的研究人员分享创新思想,并为未来的进展奠定了基础。1980年8月在斯坦福大学举行的会议涵盖了从视觉和知识表示到自然语言处理和专家系统的广泛主题。
- XCON :第一个进入商业市场的专家系统,用于配置客户订单并缩短发货时间。
XCON是人工智能历史上的一个重要里程碑,标志着专家系统从实验室走向商业市场的成功。它不仅解决了DEC的实际问题,还为AI技术的商业应用树立了典范。XCON的遗产在于它证明了AI可以在现实世界中产生巨大的经济价值,并为后续的AI研究和应用奠定了基础。
- WABOT-2:一款人形机器人,能够与人交流、阅读乐谱并在电子风琴上演奏音乐,由早稻田大学开发。
人形机器人发展史上的重要里程碑。WABOT-2的技术和理念为后续的机器人研究提供了宝贵的经验和启示。
1981
- 日本第五代计算机项目 投入了 8.5亿美元,旨在开发能够翻译和使用人类语言,并具备人类水平推理能力的计算机。
1983
- “知识获取”问题 被认为是人工智能发展的障碍。
1984
- “寒冬将至” —— 尚克(Roger Schank)与明斯基(Marvin Minsky)发出警告
在1984年的AAAI年会上,尚克和明斯基公开警告,AI领域的过度炒作将导致资金和兴趣的急剧下降,类似于20世纪70年代的第一次AI寒冬。
尚克和明斯基的警告揭示了AI领域的周期性特点,即“繁荣-萧条”循环。
这种模式在AI历史上多次出现,反映了技术发展与公众期望之间的鸿沟,
1985
- RB5X:使用自学习软件,使机器人能够从简单的反应逐步发展到根据过去的事件预测未来。由 RB Robot Corporation 开发的。
RB5X 是一款由 RB Robot Corporation 推出的个人机器人,具有自学习能力,能够通过分析过去的经验逐步改进其行为并预测未来事件。
1986
- “通过反向传播误差学习表示” —— 鲁梅尔哈特(Rumelhart)、辛顿(Hinton)和威廉姆斯(Williams)提出神经元网络反向传播算法。
反向传播算法的提出解决了多层神经网络的训练问题,为后来的深度学习模型(如卷积神经网络、循环神经网络等)奠定了基础。
1987
- “并行分布式处理”(Parallel Distributed Processing,PDP):一种新的认知架构,由Feldman、Hayes、McClelland和Rumelhart等人提出。
- 对认知科学的影响: PDP模型为认知科学提供了一种新的研究范式,促进了认知科学与神经科学、计算机科学等学科的交叉融合。
- 对人工智能的影响: PDP模型是连接主义人工智能的重要基础,对神经网络和深度学习的发展产生了深远的影响。
- 解释人类认知: PDP模型更好地解释了人类认知的某些特征,例如模式识别、联想记忆、容错性、泛化能力等。
- 基于专用LISP的硬件市场崩溃,原因是消费者、公众以及私人领域对人工智能的兴趣普遍降低。
专用LISP硬件市场的崩溃是第二次“人工智能之冬”到来的一个重要预兆,它反映了当时人工智能领域整体的低迷状态。
❄️1987-1994 第二次人工智能寒潮
1988
- IBM T.J. Watson研究中心将机器翻译方法从基于规则的方法转变为基于概率的方法。
这一转变通过引入统计学习和数据驱动的方法,解决了规则方法的局限性,并为现代机器翻译技术的发展铺平了道路。概率方法的成功不仅提高了翻译质量,还为AI领域的其他任务(如语音识别和自然语言处理)提供了重要的方法论启示。
- 特征脸(Eigenface):线性代数被用于推动人脸识别程序的进步,由 西罗维奇(Sirovich) 和 柯比(Kirby) 提出。
特征脸技术是由西罗维奇和柯比提出的一种基于线性代数的人脸识别方法,利用主成分分析(PCA)将高维图像数据降维到低维空间,从而实现高效的人脸识别和重建。该技术不仅推动了人脸识别领域的发展,还展示了数学工具在计算机视觉中的重要作用。
1989
🌟 万维网诞生
- “万维网(Web)” 由 蒂姆·伯纳斯-李(Tim Berners-Lee) 发明。
万维网(World Wide Web, WWW) 是一项革命性技术。它通过互联网实现了信息的全球共享和访问,彻底改变了人类获取和传播信息的方式。
万维网的核心技术
- 超文本(Hypertext):万维网基于超文本系统,允许用户通过点击链接在不同文档之间跳转。
- URL(统一资源定位符):用于唯一标识互联网上的资源(如网页、图片等)。
- HTTP(超文本传输协议):用于在客户端和服务器之间传输数据。
- HTML(超文本标记语言):用于创建和格式化网页内容。
万维网的诞生
- 1989年提案:伯纳斯-李提交了一份名为《信息管理:一个提案》的文件,首次提出了万维网的概念。
- 1990年实现:伯纳斯-李开发了第一个Web服务器和浏览器,并创建了第一个网页。
- 1991年公开:万维网向公众开放,迅速在全球范围内普及。
万维网的影响
- 信息革命:万维网使信息获取和传播变得更加便捷,推动了知识经济的发展。
- 社会变革:万维网改变了人们的生活方式,从教育、商业到娱乐,几乎所有领域都受到了影响。
- 技术生态:万维网催生了大量的新技术和产业,如搜索引擎、电子商务和社交媒体。
蒂姆·伯纳斯-李的贡献
- 开源精神:伯纳斯-李没有为万维网申请专利,而是选择将其作为开放技术免费提供给全世界。
- W3C:他创立了万维网联盟(World Wide Web Consortium, W3C),致力于制定和维护Web标准。
- 反向传播算法的首次成功应用 —— 用于识别手写邮政编码,由 AT&T贝尔实验室 实现。
- 反向传播算法的提出:反向传播算法由鲁梅尔哈特(Rumelhart)、辛顿(Hinton)和威廉姆斯(Williams)在1986年提出,解决了多层神经网络的训练问题。
- 这一成就不仅展示了反向传播算法在实际问题中的强大能力,还为神经网络和深度学习的研究开辟了新的方向
- “超链接(Hyperlink)” 和 “超文本(Hypertext)” 由 蒂姆·伯纳斯-李(Tim Berners-Lee) 提出。
1990’s
1990
- WorldWideWeb —— 第一个网页浏览器发布,由 蒂姆·伯纳斯-李(Tim Berners-Lee) 创建。
它不仅实现了网页的浏览和编辑功能,还通过超链接技术将信息连接起来,奠定了万维网的基础。WorldWideWeb的发布标志着互联网新时代的开始
- 机器学习(Machine Learning, ML) 从知识驱动方法(Knowledge-Driven Approaches) 转变为数据驱动方法(Data-Driven Approaches)
知识驱动方法依赖于专家知识和规则,通过手动编写规则或逻辑表达式来指导机器的行为。
数据驱动方法依赖于大规模数据集,通过统计学习和算法自动从数据中提取模式和规律。
数据驱动方法通过利用大规模数据和先进算法,显著提高了模型的性能和适应性,推动了AI技术在各个领域的应用和发展。
1992
- TD-Gammon : 由IBM开发的用于玩西洋双陆棋的人工神经网络。
由 杰拉尔德·特索罗(Gerald Tesauro) 开发的,采用了时序差分学习(Temporal Difference Learning, TD Learning) 算法,能够通过与自己对弈不断改进策略,最终达到接近人类大师的水平。
TD-Gammon的成功展示了强化学习和神经网络在复杂任务中的潜力,为后来的AI研究提供了重要的启示。
1993
- FERET项目(Facial Recognition Technology Program):由 美国国防高级研究计划局(DARPA) 和 美国陆军研究实验室(ARL)
该项目推动了人脸识别技术的快速发展,为算法的开发和评估提供了重要资源,并在安全监控、身份验证等领域得到了广泛应用。
1995
🌟“大数据” 被引入术语中
- A.L.I.C.E. —— 第一个能够收集数据的聊天机器人。
A.L.I.C.E.(全称为 Artificial Linguistic Internet Computer Entity,即“人工语言互联网计算机实体”)由 理查德·华莱士(Richard S. Wallace)开发,使用AIML语言进行模式匹配和对话生成。它不仅是早期聊天机器人的代表,还是第一个能够通过对话收集数据的聊天机器人。
1997
🌟社交媒体诞生
- 语音识别软件
Dragon Systems 推出了 Dragon NaturallySpeaking,这是第一款能够实现连续语音识别的商业软件。用户可以通过自然语言进行文本输入,识别准确率显著提高。
同年,IBM 推出了 ViaVoice,这是一款面向个人用户的语音识别软件,支持多种语言和方言,进一步推动了语音识别技术的普及。
1997年是语音识别技术发展的一个重要里程碑,Dragon NaturallySpeaking和IBM ViaVoice的推出标志着语音识别技术从实验室走向实际应用。这一年的进展为后来的语音识别系统(如Siri、Alexa和Google Assistant)奠定了基础,推动了语音识别技术在商业和个人用户中的广泛应用。
- Six Degrees:第一个社交媒体平台。
Six Degrees是历史上第一个社交媒体平台,由安德鲁·温瑞奇于1997年创建。它引入了个人资料、好友列表和消息传递等核心功能,为现代社交媒体奠定了基础。
它展示了互联网如何将人们的社交关系数字化,开启了社交媒体时代。
- 深蓝(Deep Blue) 击败国际象棋大师
深蓝(Deep Blue) 是由 IBM 开发的一款超级计算机,专门用于国际象棋对弈。
赫伯特·西蒙(Herbert Simon) 在1957年预测,计算机将在10年内击败国际象棋世界冠军。虽然这一预测的时间点有所偏差,但深蓝的胜利在41年后实现了这一目标。
- KISMET:一款受儿童发展心理学启发的“类人”社交机器人,
它通过模拟人类的情感表达和识别能力,探索了人机交互的新方向,并对后来的社交机器人和情感人工智能的发展产生了重要的影响。它为我们理解情感在人机交互中的作用提供了一个重要的研究案例。
1988
- COMPAS:一种在美国多个州用于评估罪犯再犯风险的软件。它通过算法为每个罪犯生成一个风险评分,法官在量刑时可能会参考这个评分。
2000’s
2002
- 数字信息存储量超过非数字信息存储量
数字信息存储 vs. 非数字信息存储
- 数字信息存储:指以二进制形式(0和1)存储的数据,例如硬盘、SSD、云存储、数据库等。
- 非数字信息存储:指传统的物理存储方式,例如纸质文件、胶片、磁带、唱片等。
信息时代的标志:数字存储的普及标志着人类社会进入信息时代,数据成为重要的资源。
- ROOMBA i-Robot 家用机器人推出
机器人技术逐渐从实验室走向商业化应用。iRobot公司凭借其在机器人领域的技术积累,推出了Roomba,标志着家用机器人进入大众市场。
2004
- BigDog :波士顿动力公司开发的动态稳定四足军用机器人。
BigDog是波士顿动力公司开发的一款动态稳定四足机器人,能够在复杂地形中自主移动和携带重物。它展示了四足机器人在军事和救援任务中的潜力,为后来的机器人开发提供了重要的技术基础。
- STANLEY: 第一辆赢得美国国防高级研究计划局(DARPA)“大挑战”的自动驾驶汽车,成功在莫哈韦沙漠中自主完成了132英里的赛道,由斯坦福人工智能实验室开发。
STANLEY的胜利展示了自动驾驶技术在复杂环境中的潜力,为后来的自动驾驶研究提供了重要的技术验证。STANLEY的成功不仅推动了自动驾驶技术的发展,还引发了公众对自动驾驶技术的关注。
2005
- Mechanical Turk :由 亚马逊(Amazon) 开发的平台,招募人类手动标注超过300万张图像,涵盖5000个类别,用于计算机视觉任务。
Mechanical Turk(简称 MTurk)是由 亚马逊(Amazon) 开发的一项众包平台,旨在通过人类智能完成计算机难以处理的任务。在计算机视觉领域,MTurk被广泛用于图像标注任务,为机器学习模型提供高质量的训练数据。
2006
🌟深度学习诞生
- “深度学习(Deep Learning)” —— 由杰弗里·辛顿(Geoffrey Hinton)提出,用于解释可以训练识别图像和视频中物体和文本的新算法。
深度学习在图像识别、语音识别和自然语言处理等领域取得了突破性进展,推动了人工智能技术的快速发展。
2007
- ImageNet:一个旨在用于视觉识别软件研究的视觉数据库,包含20,000个类别。
ImageNet项目由李飞飞教授及其团队于2009年发起,旨在创建一个包含大量标注图像的数据库,用于训练和评估视觉识别算法。
ImageNet是计算机视觉领域一个里程碑式的项目,它通过提供大规模、高质量的图像数据,极大地推动了深度学习在计算机视觉领域的应用,并促进了整个计算机视觉领域的快速发展。
李飞飞
一位在计算机视觉和人工智能领域做出了杰出贡献的科学家。她创建的ImageNet改变了人工智能的历史进程,并对深度学习、计算机视觉以及整个人工智能领域产生了深远的影响。
2010’s
2010
- Xbox 360 Kinect:首款能够追踪身体动作并将其转化为游戏指令的游戏硬件。
Xbox 360 Kinect是游戏硬件发展史上的一个重要里程碑,它通过创新的体感控制技术,为游戏体验带来了全新的维度。它证明了通过技术创新可以创造出更自然、更直观的人机交互方式。
- 海量数据 (Massive Data): 访问海量数据使得训练图像分类系统成为可能。
海量数据的可用性使得训练图像分类系统成为可能,推动了深度学习技术在计算机视觉领域的快速发展。通过使用海量数据进行训练,图像分类模型的性能得到了显著提高,为商业应用和学术研究提供了重要的技术支持。
2011
- 沃森(Watson) 被创建并在《危险边缘》(Jeopardy!)中获胜。
沃森(Watson) 是由 IBM 开发的一款人工智能系统,旨在通过自然语言处理和机器学习技术回答复杂的问题。
2011年,沃森在著名的电视问答节目《危险边缘》(Jeopardy!)中击败了两位人类冠军,展示了其在自然语言理解和知识推理方面的强大能力。
- 视频识别 : 谷歌X实验室(Google X Lab) 进使用了一个由16,000个计算机处理器组成的神经网络,具有10亿个连接,用于浏览YouTube。AI成功识别出猫的图像。
视频识别:计算机视觉领域的一个重要应用,旨在通过人工智能技术自动识别和理解视频内容。
谷歌X实验室:谷歌X是谷歌的一个秘密研究部门,专注于开发突破性技术。
深度学习突破:2012年,深度学习技术在图像和视频识别领域取得了显著进展,谷歌X的实验展示了深度神经网络在大规模数据处理中的潜力。
- Siri :苹果公司发布虚拟助手。
Siri的发布不仅展示了虚拟助手技术的潜力,还推动了自然语言处理和语音识别技术的发展。
Siri最初由 Siri Inc. 开发,该公司于2010年被苹果收购。苹果进一步改进了Siri的技术,并将其集成到iOS设备中。
Siri于2011年10月随iPhone 4S一同发布,成为苹果生态系统的重要组成部分。
2013
- Alias :第一代仿人机器人被创建,用于搜索和救援任务,由 波士顿动力公司(Boston Dynamics) 开发。
它展示了仿人机器人在复杂和危险环境中的潜力,为后来的机器人开发提供了重要的技术基础。
- 卷积神经网络(CNN) 在图像识别中使用深度学习实现了15.3%的错误率。
CNN在图像识别任务中取得了显著进展,错误率降至15.3%,接近人类水平。
但2015年暴露出的AI偏见问题(如将深色皮肤人物错误标记为“大猩猩”)引发了广泛关注。谷歌通过移除“大猩猩”标签并改进数据集和模型训练流程,试图解决这一问题。这一事件不仅推动了AI公平性和伦理研究的发展,还强调了数据多样性和透明度的重要性。
2014
- 生成对抗网络(Generative Adversarial Networks,GANs)首次生成完全全新的图像,而不是基于预先存在的图像进行处理。由Ian Goodfellow开发。
GANs是深度学习领域的一项重要突破,它为图像生成和其他领域带来了革命性的变革,并对人工智能的未来发展产生了深远的影响。
GANs由两个神经网络组成:生成器(Generator)和判别器(Discriminator)。
- 生成器: 生成器的任务是生成尽可能逼真的图像,试图欺骗判别器。
- 判别器: 判别器的任务是区分生成的图像和真实的图像。
- 博弈过程: 生成器和判别器进行对抗训练,互相博弈,不断提高各自的能力。最终,生成器能够生成非常逼真的图像,而判别器则难以区分生成的图像和真实的图像。
2015
- DeepDream:一个使用深度学习的卷积神经网络,能够产生类似幻觉的图像。
DeepDream是谷歌在2015年发布的一个项目,它展示了深度学习模型在图像处理方面的强大能力,并意外地创造了一种独特的艺术风格,引发了人们对神经网络内部工作机制的思考。
DeepDream是一个有趣且具有启发性的项目,它展示了深度学习模型在图像处理方面的强大能力,并意外地创造了一种独特的艺术风格。
它不仅推动了深度学习技术的发展,也引发了人们对神经网络和人工智能的更深层次的思考。
2016
- SWARM AI : 一种实时在线工具,基于网络中不同来源的信息汇聚进行预测,成功预测了肯塔基德比(Kentucky Derby)的获胜马匹,由 Unanimous AI 开发。
SWARM AI 是由 Unanimous AI 开发的一种基于群体智慧的实时在线工具,通过汇聚多个参与者的知识和见解,帮助群体做出更准确的预测和决策。2016年,SWARM AI 成功预测了肯塔基德比的获胜马匹,展示了其在复杂预测任务中的强大能力。这一技术不仅在商业和科研领域具有广泛的应用前景,还为群体智慧的研究提供了重要的启示。
- 索菲亚(Sophia) :仿人机器人成为第一个“机器人公民”,由 大卫·汉森(David Hanson Jr.) 创建。
索菲亚是由 Hanson Robotics 开发的一款仿人机器人,展示了仿人机器人在社交互动、教育和娱乐等领域的潜力。2017年,索菲亚被沙特阿拉伯授予“机器人公民”身份,成为历史上第一个获得公民身份的机器人。这一事件不仅引发了全球对机器人权利和伦理问题的讨论,还推动了人工智能和机器人技术的普及和应用。
- “下一个伦勃朗”:使用深度学习算法创作逼真的伦勃朗风格肖像画,并使用3D打印技术进行呈现。
“下一个伦勃朗”是一个艺术与科技结合的创新项目,它展示了人工智能在艺术创作领域的巨大潜力,并引发了关于艺术、科技和创造力之间关系的讨论。
“下一个伦勃朗”是一个极具创新性和启发性的项目,它展示了人工智能在艺术创作领域的巨大潜力,并引发了关于艺术、科技和创造力之间关系的深刻思考。它不仅是一件艺术作品,也是一个重要的文化和社会现象,它将继续引发人们对人工智能和艺术的讨论。
- 谷歌人工智能AlphaGo击败韩国围棋职业棋手李世石。
AlphaGo击败李世石是人工智能发展史上的一个重要里程碑,它标志着人工智能在复杂策略游戏领域取得了重大突破,并极大地推动了深度学习和强化学习的发展。
2017
- AlphaGo Zero使用自训练模型击败了AlphaGo。
AlphaGo Zero通过使用自训练模型击败AlphaGo,是人工智能发展史上的又一个重要里程碑。它展示了人工智能可以通过纯粹的自我学习达到超越人类水平的能力。
- Google DeepMind AI Avatar 自学行走
Google DeepMind 开发了一款能够自学行走的AI虚拟角色(Avatar),展示了人工智能在复杂环境中自主学习和适应能力的突破。这一技术通过强化学习(Reinforcement Learning),使AI能够在没有预先编程的情况下,通过试错法学会行走、跳跃、攀爬等复杂动作。
这一技术不仅展示了AI在复杂环境中的适应能力,还为未来的机器人导航和运动智能研究提供了重要的技术基础。
- 用英语编程并设计成相互谈判的 聊天机器人 发明了自己的语言——Facebook人工智能研究院。
这项研究是自然语言处理(NLP)和人工智能领域的一项有趣探索,它展示了人工智能在没有人类干预的情况下创造新语言的能力,并引发了关于语言的本质、人工智能的创造力以及人工智能安全性的讨论。
2018
🌟GPT-1发布
- BERT:首个用于自然语言处理任务的双向无监督学习模型,由 谷歌(Google) 创建。
BERT是由谷歌开发的一种自然语言处理模型,通过双向上下文理解语言,显著提高了多种NLP任务的性能。
BERT的开源和广泛应用进一步推动了NLP技术的发展。
- 阿里巴巴开发的一种语言处理人工智能(AI)在斯坦福大学阅读理解测试中首次击败人类。
阿里巴巴AI在斯坦福阅读理解测试中首次击败人类是一项重要的成就,它表明人工智能在语言理解方面取得了显著的进步,并推动了自然语言处理领域的发展。它也预示着人工智能将在未来更好地理解和处理人类语言,并在各个领域发挥更大的作用。
- GPT-1:OpenAI 首次发布 GPT-1,展示了大型语言模型在自然语言处理方面的潜力
2019
- AlphaStar —— 在《星际争霸2》中击败职业选手。
AlphaStar在与职业选手的比赛中取得了胜利,展示了其在复杂游戏环境中的强大能力。AlphaStar的成功不仅推动了AI在复杂任务中的应用研究,还为现实世界的复杂任务提供了重要的技术启示。
2020’s
2020
🌟GPT-3发布
- AlphaFold:一个由DeepMind开发的深度学习系统,能够识别蛋白质的三维结构。
AlphaFold是人工智能在科学领域取得的重大突破,它极大地加速了蛋白质结构预测的研究进程,并对生物学、医学和制药等领域产生了深远的影响。它也展示了人工智能在解决复杂科学问题方面的巨大潜力。
- GPT-3:使用深度学习生成代码、诗歌和其他语言写作任务,由 OpenAI 开发。
GPT-3(Generative Pre-trained Transformer 3) 是由 OpenAI 开发的一种自然语言处理模型,使用深度学习技术生成高质量的文本。GPT-3能够执行多种语言任务,如代码生成、诗歌创作、翻译和问答系统。
GPT-3的成功不仅推动了自然语言处理领域的研究,GPT-3的开源和广泛应用进一步推动了自然语言处理技术的发展。
2021
- DALL-E:是OpenAI的扩散模型生成式AI,它可以根据文本描述生成图像。
DALL-E是生成式AI领域的一个重要突破,它展示了人工智能在图像生成方面的强大能力,并对艺术、设计、娱乐等领域产生了深远的影响。
2022
- ChatGPT发布:OpenAI公司于2022年11月30日推出的一款基于深度学习的生成式对话模型
在ChatGPT之前,OpenAI已经发布了GPT-3等大型语言模型,这些模型在自然语言处理任务上表现出色,为ChatGPT的诞生奠定了基础。
ChatGPT在发布后迅速获得关注,仅用两个月时间月活用户就突破1亿,成为史上用户增长最快的消费级应用程序。其功能不断迭代升级,从最初的聊天问答扩展到邮件、报告、翻译、代码生成等多种内容的智能化生成
ChatGPT的成功引发了全球科技巨头的布局,谷歌推出,百度推出文心一言……
ChatGPT被视为人工智能领域的里程碑式产品,其强大的语言理解和生成能力标志着自然语言处理技术的重大进步。它开启了从专用型AI向通用型AI的转变,推动了人工智能技术的进一步发展。
ChatGPT的出现加速了AI产业化进程,推动了AIGC(人工智能生成内容)的平民化,降低了内容创作门槛。同时,它改变了传统的人机交互模式,从图形界面转向自然语言对话式交互,提升了用户体验。
ChatGPT的发布和发展不仅推动了人工智能技术的进步,还对社会、经济和文化产生了深远影响。
2023
🌟生成式人工智能的崛起
- GPT-4 :在多模态能力、推理能力等方面有了进一步增强。
GPT-4的发布是人工智能领域的一个重要里程碑,它展示了大型语言模型在多模态理解、复杂推理和专业知识应用方面的巨大潜力,并为人工智能的未来发展指明了新的方向。
- GEMINI:首个在大量多任务语言理解任务中超越人类表现的AI,由 Google DeepMind 开发。
- 英伟达的AI硬件突破:英伟达在AI硬件领域取得了巨大成功,其用于AI训练的芯片需求旺盛,推动其市值多次超越苹果。
2024
- ChatGPT-4o:具备实时处理和生成文本、音频、图像等多种模态的能力,显著提升了用户体验。“o”代表“omni”(全能),标志着OpenAI在人工智能技术上的重大飞跃。
- Meta发布Llama 3.3 70B:该模型在多语言任务和文本生成中表现接近更大规模模型,进一步缩小了开源与闭源模型的差距
- DeepSeek开源DeepSeek V3:在推理速度上大幅提升,与闭源模型性能相当。
- 大语言模型(LLM)迅速普及:几乎所有主要的模型供应商都发布了支持图像、音频和视频输入的多模态模型。例如,OpenAI的GPT-4o、谷歌的Gemini 1.5 Pro、Meta的Llama 3.3。
2025
- Project DIGITS发布:英伟达在2025年CES大会上发布的一款个人AI超级计算机
Project DIGITS 的推出标志着个人AI计算进入了一个全新的时代,它不仅为专业开发者提供了强大的工具,还降低了AI技术的门槛,让更多普通用户和小型团队能够参与到AI开发中。
Project DIGITS 搭载了 NVIDIA GB10 Grace Blackwell 超级芯片,能够提供高达1 PFLOPS(每秒一千万亿次浮点运算)的AI计算性能,支持运行高达2000亿参数的大语言模型。
这种强大的性能使得开发者可以在本地完成复杂的AI任务,而无需依赖昂贵的云计算资源。
- DeepSeek正式发布DeepSeek-R1,并同步开源了模型权重。该模型被设计为对标OpenAI的o1正式版。
DeepSeek-R1在训练过程中大规模应用了强化学习技术,去除了传统监督微调(SFT)的依赖,显著提升了模型的推理能力。这种创新方法不仅降低了训练成本,还使模型在复杂任务中表现出色
DeepSeek-R1在数学、代码和自然语言推理等任务上的表现与OpenAI的o1正式版不相上下。同时,其API服务定价仅为OpenAI同类产品的几十分之一,具有极高的性价比。
DeepSeek-R1的发布被视为对硅谷AI霸权的挑战。它不仅展示了国产AI大模型在技术上的突破,也标志着中国AI企业在国际竞争中取得了重要进展。
去年今日运营文章
- 2022: 小红书运营模式全攻略(0)
- 2022: 某大厂用户增长模型PPT(1)
- 2020: 封城后的湖北人民,过得怎么样(0)
- 2020: 外卖数据下的武汉:普通人的封城十日生活 | DT数说(0)
- 2020: 李子柒的口碑营销研究(0)
原创文章,作者:爱运营,如若转载,请注明出处:https://www.iyunying.org/news/347481.html