10 月8 日,瑞典皇家科学院将2024 年诺贝尔物理学奖授予美国科学家约翰·霍普菲尔德(John Hopfield),以表彰他利用人工神经网络实现机器学习领域的基础性发现和发明,并宣布该奖项将授予加拿大人。学者杰弗里·辛顿。
许多人感到惊讶的是,大家都预测的热门物理奖项领域(例如凝聚态物理和量子物理)没有获奖。尽管诺贝尔奖委员会强调两位诺贝尔物理学奖获得者利用物理学的工具开发了当今强大的机器学习的基础技术,但仍有网友感叹,“物理学(奖)已经不存在了”。
近年来,人工智能(AI) 在我们周围风靡一时,很容易将其视为一项最新的创新。事实上,人工智能已经以各种形式出现了70 多年。回顾AI工具的研发历史,可以帮助我们了解这一热门领域未来的发展路径。
图片来源:瑞典皇家科学院
尽管每一代人工智能工具都可以被视为对上一代的改进,但值得注意的是,没有一个人工智能正在朝着“有意识”的方向发展。今年诺贝尔物理学奖获得者之一、被称为“人工智能教父”的杰弗里·辛顿也表示,虽然人工智能有潜力比人类更聪明,但我认为它的智能形式会被视为与人类完全不同。它应该。
AI的发展过程大致可以分为三个阶段:符号AI、联结AI以及现在的深度学习时代。
象征主义人工智能时代(1950年代-1980年代)
1950 年,计算机先驱艾伦·图灵在一篇颇具影响力的文章中问道:“机器能思考吗?”
他引入了“模仿游戏”(现在俗称图灵测试)的概念。在此测试中,如果机器在纯文本对话中的表现与真人没有区别,则被认为是智能的。
五年后,“人工智能”一词在著名的达特茅斯会议上首次提出,人工智能研究正式起飞。这一时期的人工智能主要是符号主义的,试图通过类似于人脑的逻辑推理和知识表示来模拟人类思维。
20 世纪60 年代初,一个被称为“专家系统”的人工智能领域开始发展。这些系统旨在捕获特定领域的人类专业知识并使用显式知识表示。
此类系统是“符号人工智能”的主要例子,其许多早期成功广为人知,包括有机分子识别、血源性疾病诊断和矿物勘探系统。其中最引人注目的是名为R1 的专家系统,据报道,该系统在1982 年通过设计高效紧凑的计算机系统配置,每年为Digital Equipment Corporation 节省了2500 万美元。
图片来源:medium.com
专家系统的主要优点是它们允许没有编程专业知识的主题专家参与构建和维护计算机知识库。在专家系统中,称为“推理机”的组件应用这些知识来解决该领域的新问题并提供解释性证据链。
这种类型的系统在20 世纪80 年代变得非常流行,以至于各组织都争先恐后地构建自己的专家系统。值得一提的是,专家系统今天仍然是人工智能的重要组成部分。然而,专家系统也存在一些局限性,例如知识获取的瓶颈和处理不确定性的困难。这些限制促使研究人员探索新的方法。
连接主义人工智能和机器学习的兴起(1980 年代-2000 年代)
人脑包含大约1000 亿个神经细胞(神经元),它们通过树突(分支)结构相互连接。受人脑的启发,一个名为“联结主义”的独立领域也出现了。 —— 与试图模拟人类推理过程的专家系统不同,这种新方法试图直接模拟人脑的神经网络。
象征主义AI(左)和联结主义AI(右)示意图
1943年,两位美国学者Warren McCulloch和Walter Pitts提出了人类神经元连接的数学模型。每个神经元根据输入的二进制信号产生相应的二进制输出。这为后来的神经网络奠定了基础。
图片来源:瑞典皇家科学院
1960年,Frank Rosenblatt提出了“感知器”的概念,一种简单的人工神经网络。同年,Bernard Widrow 和Ted Hoff 开发了ADALINE(ADAptive LINEar NEuron)。尽管这些很有趣,但它们的实际应用很有限。
1969年,马文·明斯基和达特茅斯会议的创始人之一Seymour Papert在他的著作《感知器》中指出了单层神经网络的局限性,导致神经网络研究暂时停滞。然而,这一挫折促使研究人员探索“更复杂”的网络结构。
1986年,今年的诺贝尔物理学奖获得者之一的杰弗里·辛顿(Jeffrey Hinton)和几位合作者发表了一篇开创性的论文,介绍了反向传播算法,为“多层感知器”(多层感知器(MLP))学习算法奠定了基础)。
反向传播算法允许神经网络探索数据的深层表示,从而解决以前认为无法解决的问题。这是一项重大进步,它使我们能够从一组样本(训练)数据中学习,并进行概括以对从未见过的输入数据(测试数据)进行分类。
图片来源:瑞典皇家科学院
MLP 通常是三层或四层简单模拟神经元的排列,每一层与下一层完全互连。 MLP 通过调整具有数值权重的神经元之间的连接来进行学习,以获得训练数据的最佳分类,从而对新数据和未知数据进行分类。
在这一阶段,今年的另一位诺贝尔物理学奖获得者约翰·霍普菲尔德也做出了重要贡献。 1982 年,他提出了“Hopfield 网络”,这是一种循环神经网络模型,充当内容引用记忆系统。 Hopfield网络的引入给神经网络研究带来了新的活力,为深度学习的后续发展奠定了重要基础。他的研究展示了如何使用能量最小化等物理概念来理解神经网络的行为,为后续神经网络研究提供了新的视角。
只要数据以适当的格式呈现,MLP 就可以处理广泛的实际问题。一个典型的例子是手写识别,它需要对图像进行“预处理”以提取关键特征。这一时期还出现了其他重要的机器学习算法,例如支持向量机(SVM)和决策树,它们在特定任务上表现良好。
深度学习时代(21世纪)
21世纪初,由于计算机计算能力的显着提升和大数据时代的到来,深度学习开始出现。 2006年,Jeffrey Hinton提出了“深度信念网络”(DBN)。这被认为是深度学习时代的开始。
MLP成功后,各种新的神经网络开始出现。其中最重要的就是“卷积神经网络”(CNN),它是由法国计算机科学家Yann LeCun等人于1998年提出的。 CNN 与MLP 类似,但它多了一层神经元,可以识别图像的关键特征,从而无需进行预处理。目前,CNN 在图像识别和计算机视觉任务中取得了巨大成功。
图片取自网络
前面提到的MLP和CNN都是擅长分类、判断、预测的“判别模型”。近年来,各种可以写诗、画画的“生成模型”已经出现并开始大放异彩。
2014年,美国学者Ian Goodfellow等人提出“生成对抗网络”(GANs)。 GAN 的一个关键组成部分是“判别器”。这是一个内置的批评家,总是要求“生成器”提高其输出质量。 GAN 在AI 图像生成和风格迁移等任务中表现良好。
图片来源:tensorflow.org
2017年,谷歌的研究人员提出了“Transformer”架构,一种基于自注意力机制的神经网络模型。传统的神经网络编码器读取并处理整个输入数据序列,但新架构不是按顺序处理数据,而是允许模型同时检查序列的不同部分,以确定哪些部分最重要。如果有的话。
基于转换器的新模型(例如BERT和GPT系列)在自然语言处理任务上取得了突破,并促进了“大语言模型”(LLM)领域的发展。这些大型语言模型是在从互联网获得的大型数据集上进行训练的。通过强化学习,人类培训师提供的反馈进一步提高了表现。
除了展示令人印象深刻的生成能力之外,大型训练集使这些神经网络不再局限于早期人工智能的狭窄领域,而是涵盖几乎所有主题。这些模型在各种任务中表现出了卓越的能力,包括自然语言理解、文本生成和问答系统。
大规模语言模型的强大能力引发了人们对人工智能将接管世界的担忧。但这种谨慎是没有根据的。尽管当前的模型显然比早期的人工智能更强大,但它们的发展轨迹仍然坚定地朝着比任何形式的“意识”更强的能力、可靠性和精确度发展。
人工智能发展史(图片来源:github.io)
人工智能有许多积极且令人兴奋的潜在应用,但历史表明机器学习并不是唯一的工具。象征主义人工智能继续发挥着重要作用,因为它可以融合已知的事实、理解和人类的观点。未来人工智能的发展可能会结合象征主义和联结主义的优点,形成所谓的“混合神经符号人工智能”(neurosymbolic AI)。
例如,可以直接为自动驾驶汽车提供交通规则,而不是可供学习的示例。医疗诊断系统可以将机器学习模型的预测能力与专家系统的逻辑相结合,基于医学知识来验证和解释机器学习系统的输出信息。
回顾历史,我们可以看到,人工智能技术的发展不仅吸收了已经存在多年的成熟技术,也吸收了层出不穷的新方法。未来可能会出现更多的跨学科融合,例如将人工智能与神经科学和认知科学相结合,以及人工智能在科学研究、气候变化应对和个性化医疗等领域的更广泛应用。
来源:北京科技报
版权声明:本文转载于网络,版权归作者所有。如有侵权,请联系本站编辑删除。