人工智能(AI)是指机器所展现出的智能——感知、综合和推断信息的能力,与人类或其他动物所展示的智能相对。在此类任务中,包括语音识别、计算机视觉、(自然)语言间的翻译以及其他输入映射等。 AI 应用包括高级网络搜索引擎(例如 Google 搜索)、推荐系统(被 YouTube、亚马逊和 Netflix 使用)、理解人类语言(如 Siri 和 Alexa)、自动驾驶汽车(例如 Waymo)、生成或创造性工具(如 ChatGPT 和 AI 艺术)、自动化决策以及在战略游戏系统中达到最高水平(如国际象棋和围棋)。[1] 随着机器能力不断提升,那些曾被认为需要“智能”的任务常常被排除在人工智能的定义之外,这种现象被称为 AI 效应。[2] 例如,光学字符识别经常被排除在人工智能的范畴之外,因为它已成为一项常规技术。[3] 人工智能作为一门学术学科成立于 1956 年,自那时起,它经历了多次乐观浪潮,[4][5]随后是失望和资金流失(被称为“AI 寒冬”),[6][7]接着是新的方法、成功和资金的重新注入。[5][8] AI 研究尝试并摒弃了许多不同的方法,包括模拟大脑、建模人类问题解决、形式逻辑、大型知识数据库以及模仿动物行为。在 21 世纪初的数十年里,高度数学化和统计化的机器学习主导了该领域,这种技术已被证明极为成功,帮助解决了工业和学术界许多具有挑战性的问题。[8][9] 人工智能研究的各个子领域围绕特定的目标和使用特定的工具展开。传统的人工智能研究目标包括推理、知识表示、规划、学习、自然语言处理、感知以及移动和操纵物体的能力。[a] 通用智能(解决任意问题的能力)是该领域的长期目标之一。[10] 为了解决这些问题,人工智能研究者们整合并改进了广泛的解决问题技术,包括搜索和数学优化、形式逻辑、人工神经网络,以及基于统计、概率和经济学的算法。人工智能还借鉴了计算机科学、心理学、语言学、哲学等多个领域的知识。 该领域建立在这样一个假设之上:人类智能“可以被精确描述,以至于机器能够模拟它”。[b] 这引发了关于心灵以及创造具有人类智能的人工存在的伦理后果的哲学争论;自古代以来,这些问题就已被神话、小说和哲学所探讨。[12] 计算机科学家和哲学家们随后提出,如果人工智能的理性能力没有被引导向有益目标,它可能成为对人类的生存风险。[c] “人工智能”这一术语也因夸大其真实技术能力而受到批评。[13][14][15] 主要文章:人工智能的历史与人工智能时间线 克里特岛的银质二德拉克马,描绘了塔洛斯,一位拥有人工智能的古代神话自动机械 具有智能的人造生物在古代作为叙事工具出现,[16]并在文学中普遍存在,如玛丽·雪莱的《弗兰肯斯坦》或卡雷尔·恰佩克的《罗素姆万能机器人》。[17]这些角色及其命运引发了如今在人工智能伦理讨论中的许多相同议题。[18] 机械或“形式”推理的研究始于古代哲学家和数学家。对数理逻辑的研究直接导致了艾伦·图灵的计算理论,该理论表明,一台机器通过简单如“0”和“1”的符号排列,就能模拟任何可想象的数学演绎行为。这一发现,即数字计算机能够模拟任何形式推理过程,被称为丘奇-图灵论题。[19] 这一论点与神经生物学、信息论和控制论中的同时代发现一起,促使研究者考虑构建电子大脑的可能性。[20] 现在普遍认为的首个人工智能工作是麦卡洛克和皮茨于 1943 年提出的图灵完备“人工神经元”的正式设计。[21] 到了 20 世纪 50 年代,关于如何实现机器智能的两种构想开始浮现。其中一种构想被称为符号人工智能或 GOFAI,主张利用计算机构建世界的符号化表示,并开发能够对世界进行推理的系统。这一理念的支持者包括艾伦·纽厄尔、赫伯特·A·西蒙和马文·明斯基。与这种方法紧密相关的是“启发式搜索”方法,它将智能比作探索答案可能性空间的问题。 第二个愿景,被称为连接主义方法,试图通过学习实现智能。这一方法的支持者,最著名的是弗兰克·罗森布拉特,试图以神经元连接为灵感,将感知机连接起来。[22]詹姆斯·马尼卡等人将这两种方法比作心灵(符号 AI)和大脑(连接主义)。马尼卡认为,由于与笛卡尔、布尔、戈特洛布·弗雷格、伯特兰·罗素等人的智力传统有关,符号方法在这一时期主导了人工智能的推动。基于控制论或人工神经网络的连接主义方法被推至幕后,但在近几十年中重新获得了显著地位。[23] 历史 人工智能研究领域的诞生源于 1956 年在达特茅斯学院举办的一次研讨会。[d][26]与会者成为了 AI 研究的创始人与领导者。[e]他们及其学生开发出的程序令媒体惊叹不已:[f]计算机学会了跳棋策略,解决了代数中的文字问题,证明了逻辑定理,甚至能说英语。[g][28] 到 20 世纪 60 年代中期,美国的研究得到了国防部[29]的大力资助,世界各地也相继建立了实验室。[30] 20 世纪 60 年代和 70 年代的研究人员坚信,符号方法最终将成功创造出具有人工通用智能的机器,并认为这是他们领域的目标。[31]赫伯特·西蒙预言:“机器将在二十年内能够完成人类能做的任何工作”。[32]马文·明斯基也表示认同,写道:“在一世代之内……创造‘人工智能’的问题将基本得到解决”。[33] 他们未能意识到某些剩余任务的难度。进展放缓,1974 年,在回应詹姆斯·莱特希尔爵士[34]的批评以及美国国会持续施压要求资助更多高产项目的情况下,美国和英国政府都切断了人工智能探索性研究的经费。接下来的几年后来被称为“AI 寒冬”,这一时期为 AI 项目获取资金变得异常困难。[6] 在 20 世纪 80 年代初,专家系统的商业成功使人工智能研究得以复兴,[35]这是一种模拟人类专家知识和分析技能的人工智能程序。到 1985 年,人工智能市场的规模已超过十亿美元。与此同时,日本的第五代计算机项目激发了美国和英国政府恢复对学术研究的资助。[5]然而,从 1987 年 Lisp 机器市场的崩溃开始,人工智能再次陷入低谷,并迎来了第二个更持久的寒冬。[7] 许多研究者开始怀疑符号方法能否模拟人类认知的所有过程,尤其是感知、机器人学、学习和模式识别。一些研究者开始探索针对特定人工智能问题的“次符号”方法。[36] 机器人学研究者,如罗德尼·布鲁克斯,摒弃了符号 AI,专注于解决使机器人能够移动、适应环境及学习的基本工程问题。[h] 20 世纪 80 年代中期,Geoffrey Hinton、David Rumelhart 等人重新点燃了对神经网络和“连接主义”的兴趣。[41] 在 1980 年代,软计算工具得到了发展,例如神经网络、模糊系统、灰色系统理论、进化计算以及许多源自统计学或数学优化的工具。 20 世纪 90 年代末及 21 世纪初,人工智能通过针对特定问题寻找具体解决方案,逐步恢复了其声誉。这种狭窄的关注点使得研究人员能够产出可验证的成果,利用更多数学方法,并与其他领域(如统计学、经济学和数学)展开合作。[42] 到 2000 年,由 AI 研究人员开发的解决方案已被广泛应用,尽管在 90 年代它们很少被描述为“人工智能”。[9] 更快的计算机、算法的改进以及对大量数据的访问促进了机器学习和感知技术的进步;数据密集型的深度学习方法在 2012 年左右开始主导精度基准测试。[43] 根据彭博社的杰克·克拉克(Jack Clark),2015 年是人工智能的里程碑年份,谷歌内部使用人工智能的软件项目数量从 2012 年的“零星使用”增长到超过 2,700 个项目。[i] 他将这一增长归因于可负担的神经网络的增加,这得益于云计算基础设施的兴起以及研究工具和数据集的增多。[8] 在 2017 年的一项调查中,五分之一的公司报告称他们已在某些产品或流程中“融入了 AI 技术”。[44] 在 2015 年至 2019 年间,AI 领域的研究数量(以总出版物衡量)增长了 50%。[45] 许多学术研究者开始担忧,人工智能不再追求创造多才多艺、全面智能机器的原始目标。当前大量研究集中在统计型人工智能上,这种人工智能主要用于解决特定问题,即便是深度学习这样极为成功的方法也不例外。这种担忧催生了人工智能通用智能(或称“AGI”)这一子领域,到 2010 年代,该领域已拥有数个资金雄厚的研究机构。[10] 2023 年 4 月,计算机科学家杰伦·拉尼尔在《纽约客》上发表了对人工智能的另一种看法,认为其智能程度可能并不如其名称和流行文化所暗示的那样高。拉尼尔在其文章结尾如此总结道:“想想人类吧。人类才是解决比特问题的答案。”[46][47] 目标 模拟(或创造)智能的一般问题已被分解为若干子问题。这些子问题包括研究人员期望智能系统展现的特定特征或能力。以下描述的特征受到了最多的关注。[a] 推理,问题解决 早期的研究人员开发了模拟人类在解决谜题或进行逻辑推理时所使用的逐步推理的算法。[48] 到了 20 世纪 80 年代末和 90 年代,人工智能研究已经发展出处理不确定或不完整信息的方法,采用了概率和经济学的概念。[49] 许多这些算法在解决大型推理问题时被证明是不够的,因为它们遭遇了“组合爆炸”:随着问题规模的增大,它们的运行速度呈指数级下降。[50]即使是人类也很少使用早期 AI 研究能够模拟的步步推理。他们解决大多数问题时依赖的是快速、直观的判断。[51] 知识表示 主要文章:知识表示、常识知识、描述逻辑和本体论 本体将知识表示为一个领域内的概念集合以及这些概念之间的关系。 知识表示与知识工程[52]使 AI 程序能够智能地回答问题,并对现实世界的事实进行推理。 "存在之物"的表示即本体论:一组正式描述的对象、关系、概念和属性,以便软件代理能够解释它们。[53] 最一般的本体论称为上层本体论,它们试图为所有其他知识提供基础,并充当涵盖特定知识领域的领域本体论之间的中介(兴趣领域或关注区域)。一个真正智能的程序还需要访问常识知识;即普通人所知的一组事实。本体论的语义通常以描述逻辑表示,例如网络本体语言。[54] AI 研究已经开发出工具来表示特定领域,如对象、属性、类别及对象间的关系;[54]情境、事件、状态和时间;[55]因果关系;[56]关于知识的知识(我们对他人所知之事的了解);[57]默认推理(人类在被告知相反情况之前假定为真,即便其他事实发生变化也保持为真);[58]以及其他领域。AI 中最棘手的问题包括:常识知识的广度(普通人所知的原子事实数量极其庞大);[59]以及大多数常识知识的亚符号形式(人们所知的大部分内容并非以可口头表达的“事实”或“陈述”形式存在)。[51] 形式化知识表示在基于内容的索引和检索、[60]场景解释、[61]临床决策支持、[62]知识发现(从大型数据库中挖掘“有趣”且可操作的推断)、[63]以及其他领域中得到应用。[64] 学习 主文章:机器学习 机器学习(ML),自该领域诞生之初便是人工智能研究的核心概念,[j] 是研究通过经验自动改进的计算机算法。[k] 无监督学习在输入流中寻找模式。 监督学习要求人类首先对输入数据进行标注,主要分为两种类型:分类和数值回归。分类用于确定某事物所属的类别——程序会看到来自多个类别的若干示例,并学会对新输入进行分类。回归则是试图生成一个描述输入与输出之间关系的函数,并预测随着输入变化输出应如何变化。分类器和回归学习器均可视为“函数逼近器”,旨在学习一个未知的(可能是隐式的)函数;例如,垃圾邮件分类器可以看作是学习一个从电子邮件文本映射到“垃圾邮件”或“非垃圾邮件”两个类别之一的函数。[68] 在强化学习中,智能体会因良好的反应而获得奖励,因不良反应而受到惩罚。智能体通过对其反应进行分类,形成在其问题空间中运作的策略。[69] 迁移学习是指将从一个问题中获得的知识应用于一个新问题。[70] 计算学习理论可以通过计算复杂度、样本复杂度(需要多少数据)或通过其他优化概念来评估学习者。[71] 自然语言处理 主文章:自然语言处理 解析树根据某种形式文法表示句子的句法结构。 自然语言处理(NLP)[72] 使机器能够阅读和理解人类语言。一个足够强大的自然语言处理系统将实现自然语言用户界面,并直接从人类编写的来源(如新闻文本)中获取知识。NLP 的一些直接应用包括信息检索、问答和机器翻译。[73] 符号化 AI 利用形式语法将句子的深层结构转化为逻辑。由于逻辑的复杂性[50]和常识知识的广泛性[59],这一方法未能产生实用的应用。现代统计技术包括共现频率(一个词在另一个词附近出现的频率)、“关键词识别”(搜索特定词汇以检索信息)、基于转换器的深度学习(在文本中寻找模式)等[74]。它们在页面或段落级别上达到了可接受的准确性,并且到 2019 年,能够生成连贯的文本[75]。 感知 主要文章:机器感知、计算机视觉和语音识别 特征检测(如图:边缘检测)有助于 AI 从原始数据中构建信息丰富的抽象结构。 机器感知[76]是指利用传感器(如摄像头、麦克风、无线信号、主动式激光雷达、声纳、雷达及触觉传感器)输入来推断世界各方面信息的能力。应用领域包括语音识别[77]、面部识别[78]及物体识别[78]。计算机视觉则是指分析视觉输入的能力[79]。 社交智能 主文章:情感计算 Kismet,一个具备初步社交技能的机器人[80] 情感计算是一个跨学科的领域,涵盖了能够识别、解释、处理或模拟人类情感、情绪和心境的系统。[81] 例如,一些虚拟助手被编程为以对话方式甚至幽默地闲聊;这使得它们在感知人类互动的情感动态方面显得更为敏感,或有助于促进人机交互。然而,这往往会让缺乏经验的用户对现有计算机代理的智能程度产生不切实际的认知。[82] 与情感计算相关的适度成功案例包括文本情感分析,以及近期更为复杂的多模态情感分析,其中人工智能对录像中主体展示的情感进行分类。[83] 通用智能 主文章:人工通用智能 具有通用智能的机器能够解决多种多样的问题,其广度和灵活性与人类智能相似。关于如何开发人工通用智能,存在几种相互竞争的想法。汉斯·莫拉维克和马文·明斯基认为,不同领域的研究工作可以整合到一个具有高级通用智能的多代理系统或认知架构中。[84]佩德罗·多明戈斯希望存在一个概念上简单直接但数学上困难的“主算法”,它可能引领我们走向 AGI。[85]其他人则相信,类似人脑的特征[86]或模拟儿童发展[l]终将有一天达到一个临界点,从而涌现出通用智能。 工具 搜索与优化 主要文章:搜索算法、数学优化和进化计算 AI 能够通过智能地搜索众多可能的解决方案来解决许多问题。[87] 推理可以简化为执行搜索。例如,逻辑证明可以看作是从前提搜索到结论的路径,其中每一步都是应用推理规则。[88] 规划算法通过搜索目标和子目标的树,试图找到通往目标目标的路径,这一过程称为手段-目的分析。[89] 用于移动肢体和抓取物体的机器人算法在配置空间中使用局部搜索。[90] 简单的穷举搜索[91]对于大多数现实世界问题来说通常是不够的:搜索空间(即需要搜索的地方数量)迅速增长到天文数字。结果是搜索过程过于缓慢或无法完成。对于许多问题,解决方案是采用“启发式”或“经验法则”,优先选择那些更有可能达到目标且能在更少步骤内实现的选择。在某些搜索方法中,启发式还可以用于排除不太可能达到目标的选择(称为“修剪搜索树”)。启发式为程序提供了解决路径的“最佳猜测”[92],从而将搜索解决方案的范围限制在一个较小的样本规模内[93]。 寻找全局最小值的粒子群 20 世纪 90 年代,一种基于优化数学理论的截然不同的搜索方法崭露头角。对于许多问题,可以从某种形式的猜测开始搜索,然后逐步细化这个猜测,直到无法再进行改进。这些算法可以形象化为盲目的爬山过程:我们在景观上的一个随机点开始搜索,然后通过跳跃或步进,不断将我们的猜测向山上移动,直到到达顶峰。其他相关的优化算法包括随机优化、束搜索以及模拟退火等元启发式方法。[94] 进化计算利用了一种优化搜索的形式。例如,它们可能从一个生物群体(即猜测)开始,然后允许它们变异和重组,每一代只选择最适应的个体(细化猜测)。经典的进化算法包括遗传算法、基因表达编程和遗传编程。[95] 或者,分布式搜索过程可以通过群体智能算法进行协调。 在搜索中常用的两种群体算法是粒子群优化(受鸟群启发)和蚁群优化(受蚂蚁路径启发)。[96] 逻辑 主要文章:逻辑编程与自动推理 逻辑[97]用于知识表示和问题解决,但它同样适用于其他问题。例如,satplan 算法利用逻辑进行规划[98],而归纳逻辑编程则是一种学习方法[99]。 人工智能研究中使用了多种不同形式的逻辑。命题逻辑[100]涉及诸如“或”和“非”等真值函数。一阶逻辑[101]增加了量词和谓词,能够表达关于对象、其属性和它们之间关系的知识。模糊逻辑为诸如“爱丽丝很老”(或富有、或高、或饿)这样语言上过于模糊以至于无法完全真或假的陈述分配了一个“真实度”(介于 0 和 1 之间)。默认逻辑、非单调逻辑和限定推理是为了帮助解决默认推理和资格问题而设计的逻辑形式。[58] 还设计了几种逻辑扩展来处理特定知识领域,例如描述逻辑;[54] 情境演算、事件演算和流利演算(用于表示事件和时间);[55] 因果演算;[56] 信念演算(信念修正);以及模态逻辑。[57] 为了模拟多主体系统中出现的矛盾或不一致陈述,也设计了相应的逻辑,如矛盾逻辑。[103] 不确定推理的概率方法 主要文章:贝叶斯网络、隐马尔可夫模型、卡尔曼滤波器、粒子滤波器、决策理论和效用理论 老忠实喷发数据的期望最大化聚类从随机猜测开始,但随后成功收敛于对两种物理上不同喷发模式的准确聚类。 人工智能中的许多问题(包括推理、规划、学习、感知和机器人技术)都需要代理在信息不完整或不确定的情况下进行操作。AI 研究者们设计了多种工具,利用概率论和经济学的手段来解决这些问题。[104]贝叶斯网络[105]是一种非常通用的工具,可用于解决各种问题,包括推理(使用贝叶斯推理算法)、[m][107]学习(使用期望最大化算法)、[n][109]规划(使用决策网络)[110]和感知(使用动态贝叶斯网络)。[111]概率算法还可用于过滤、预测、平滑和寻找数据流的解释,帮助感知系统分析随时间发生的过程(例如,隐马尔可夫模型或卡尔曼滤波器)。[111] 经济学中的一个关键概念是“效用”,它衡量某物对智能代理的价值。精确的数学工具已被开发出来,用于分析代理如何利用决策理论、决策分析[112]和信息价值理论[113]做出选择和规划。这些工具包括马尔可夫决策过程[114]、动态决策网络[111]、博弈论和机制设计[115]等模型。 分类器与统计学习方法 主要文章:统计分类与机器学习 最简单的 AI 应用可以分为两种类型:分类器(“如果闪亮则是钻石”)和控制器(“如果是钻石则拾取”)。然而,控制器在推断动作之前也会对条件进行分类,因此分类构成了许多 AI 系统的核心部分。分类器是利用模式匹配来确定最接近匹配的函数。它们可以根据示例进行调整,这使得它们在 AI 应用中非常有吸引力。这些示例被称为观察或模式。在监督学习中,每个模式都属于某个预定义的类别。类别是需要做出的决策。所有带有类别标签的观察结果合称为数据集。当接收到新的观察结果时,该观察结果会根据以往经验进行分类。[116] 分类器可以通过多种方式进行训练;存在许多统计和机器学习方法。决策树是最简单且最广泛使用的符号机器学习算法。[117] 直到 20 世纪 90 年代中期,K-近邻算法曾是应用最广泛的类比人工智能方法。[118] 核方法,如支持向量机(SVM)在 1990 年代取代了 K-近邻算法。[119] 据报道,朴素贝叶斯分类器是谷歌“使用最广泛的分类器”,部分原因在于其可扩展性。[120][121] 神经网络也用于分类任务。[122] 分类器的性能很大程度上取决于待分类数据的特点,例如数据集大小、各类样本的分布、维度以及噪声水平。基于模型的分类器在假设模型与实际数据极为吻合时表现良好。否则,如果没有匹配的模型,并且如果唯一关注的是准确性(而非速度或可扩展性),那么根据传统观点,判别式分类器(尤其是支持向量机 SVM)在大多数实际数据集上往往比基于模型的分类器(如“朴素贝叶斯”)更为准确。[123] 人工神经网络 主要文章:人工神经网络与连接主义 神经网络是由相互连接的节点组成的一个群体,类似于人脑中庞大的神经元网络。 神经网络[122]的灵感源自人脑中神经元的结构。一个简单的“神经元”N 接收来自其他神经元的输入,每个神经元在激活(或“触发”)时,会对神经元 N 是否应自行激活投下加权的“票”。学习过程需要一种算法根据训练数据调整这些权重;一种简单的算法(被称为“同时触发,同时连接”)是在一个神经元的激活触发另一个神经元成功激活时,增加两者之间连接的权重。神经元的激活具有连续的光谱范围;此外,神经元能够以非线性的方式处理输入,而非仅进行直接的投票加权。 现代神经网络能够模拟输入与输出之间的复杂关系,并从数据中找出模式。它们可以学习连续函数,甚至进行数字逻辑运算。神经网络可以被视为一种数学优化方法——它们在由训练网络创建的多维拓扑上执行梯度下降。最常见的训练技术是反向传播算法[124]。其他神经网络学习技术包括赫布学习(“一起激发,一起连接”)、GMDH 或竞争学习[125]。 网络的主要类别包括无环或有向无环神经网络(信号仅沿一个方向传递)和循环神经网络(允许反馈和先前输入事件的短期记忆)。在众多流行的有向无环网络中,感知器、多层感知器和径向基网络尤为突出。[126] 深度学习 深度学习中多层抽象表示图像 深度学习中多层抽象表示图像[127] 深度学习[128]在网络的输入和输出之间使用多层神经元。这些多层能够逐步从原始输入中提取更高级别的特征。例如,在图像处理中,较低层可能识别边缘,而较高层可能识别与人类相关的概念,如数字、字母或面部[129]。深度学习极大地提升了许多人工智能重要子领域的程序性能,包括计算机视觉、语音识别、图像分类[130]等。 深度学习通常在其多层结构中广泛使用卷积神经网络。在卷积层中,每个神经元仅从前一层的有限区域接收输入,该区域被称为神经元的感受野。这种方式能显著减少神经元间的加权连接数量,[131]并形成一种类似于动物视觉皮层组织的层次结构。[132] 在循环神经网络(RNN)中,信号会多次通过同一层传播;[133]因此,RNN 是深度学习的一个例子。[134]RNN 可以通过梯度下降进行训练,[135]然而,反向传播的长期梯度可能会“消失”(即趋向于零)或“爆炸”(即趋向于无穷大),这被称为梯度消失问题。[136]长短期记忆(LSTM)技术在大多数情况下可以防止这种情况发生。[137] 专用语言和硬件 主要文章:人工智能编程语言与人工智能硬件 已经开发了多种专门用于人工智能的语言,如 Lisp、Prolog、TensorFlow 等。为 AI 开发的硬件包括 AI 加速器和神经形态计算。 应用程序 主文章:人工智能的应用 另请参阅:具身认知与法律信息学 对于艺术家 Joseph Ayerle 的这个项目,AI 需要学习文艺复兴时期画家拉斐尔在色彩和笔触上的典型模式。这幅肖像展示了女演员 Ornella Muti 的面容,由 AI 以拉斐尔的风格“绘制”而成。 AI 与任何智力任务都息息相关。[138]现代人工智能技术无处不在,且数量众多,难以在此一一列举。[139]通常,当一项技术进入主流应用时,它就不再被视为人工智能;这种现象被称为 AI 效应。[140] 在 2010 年代,人工智能应用处于计算领域最商业成功的核心,并已成为日常生活中无处不在的特征。AI 被用于搜索引擎(如谷歌搜索)、在线广告定向、推荐系统(由 Netflix、YouTube 或亚马逊提供)、引导网络流量、精准广告投放(如 AdSense、Facebook)、虚拟助手(例如 Siri 或 Alexa)、自动驾驶车辆(包括无人机、高级驾驶辅助系统及自动驾驶汽车)、自动语言翻译(微软翻译、谷歌翻译)、面部识别(苹果的 Face ID 或微软的 DeepFace)、图像标注(Facebook、苹果的 iPhoto 和 TikTok 所用)、垃圾邮件过滤以及聊天机器人(如 Chat GPT)。 还有成千上万的成功 AI 应用被用于解决特定行业或机构的问题。一些例子包括能源储存、[145]深度伪造、[146]医疗诊断、军事后勤、外交政策、[147]或供应链管理。 自 20 世纪 50 年代以来,游戏对弈一直是检验人工智能实力的试金石。1997 年 5 月 11 日,深蓝成为首个击败现任国际象棋世界冠军加里·卡斯帕罗夫的计算机国际象棋系统。[148] 2011 年,在一场《危险边缘》智力竞赛展示赛中,IBM 的问答系统沃森以显著优势击败了该节目史上两位最伟大的冠军布拉德·鲁特尔和肯·詹宁斯。[149] 2016 年 3 月,AlphaGo 在与围棋冠军李世石的对决中赢得五局中的四局,成为首个在无让子情况下击败职业围棋选手的计算机围棋系统。[150] 其他程序则处理非完美信息游戏,如在超级人类水平上进行扑克游戏,如 Pluribus[o]和 Cepheus。[152] 2010 年代,DeepMind 开发了一种“通用人工智能”,能够自行学习多种不同的雅达利游戏。[153] 到 2020 年,自然语言处理系统如庞大的 GPT-3(当时无疑是最大的人工神经网络)在既定基准测试中已能与人类表现相匹敌,尽管该系统并未达到对基准内容常识性理解的水平。[154] DeepMind 的 AlphaFold 2(2020 年)展示了在数小时内而非数月内近似预测蛋白质 3D 结构的能力。[155] 其他应用则能预测司法裁决结果,[156] 创作艺术(如诗歌或绘画)以及证明数学定理。 AI 内容检测器工具是利用人工智能(AI)算法来分析和检测数字媒体中特定类型内容的软件应用,如文本、图像和视频。这些工具通常用于识别不当内容,例如言语错误、暴力或色情图像,以及垃圾邮件等。 使用 AI 内容检测工具[157]的一些好处包括提高检测不当内容的效率和准确性,增强用户的安全性和保障,以及降低网站和平台面临的法律和声誉风险。 Assistant [{"excerpt": "人工智能作为一门学术学科成立于 1956 年,自那时起,它经历了多次乐观浪潮,[4][5]随后是失望和资金流失(被称为“AI 寒冬”),[6][7]接着是新的方法、成功和资金的重新注入。[5][8] AI 研究尝试并摒弃了许多不同的方法,包括模拟大脑、建模人类问题解决、形式逻辑、大型知识数据库以及模仿动物行为。"}] 到 20 世纪 50 年代,关于如何实现机器智能的两种构想浮现出来。一种构想被称为符号人工智能或 GOFAI,主张利用计算机创建世界的符号表示,并构建能够对世界进行推理的系统。另一种构想,即联结主义方法,则寻求通过学习来实现智能。 {"摘要": "在 20 世纪 80 年代中期,Geoffrey Hinton、David Rumelhart 等人重新唤起了对神经网络和“连接主义”的兴趣。"} 源文本:{"excerpt": "AI 逐渐在 20 世纪 90 年代末和 21 世纪初通过针对特定问题找到具体解决方案而恢复了其声誉。"} {"摘要": "更快的计算机、算法的改进以及大量数据的获取,推动了机器学习和感知技术的进步;数据密集型的深度学习方法自 2012 年起开始主导精度基准。"} 源文本:{"excerpt": "深度学习[128]在网络的输入和输出之间使用多层神经元。这些多层能够逐步从原始输入中提取更高级别的特征。"} 源文本:{"excerpt": "深度学习通常使用卷积神经网络作为其多层或所有层。"} 在循环神经网络(RNN)中,信号会多次通过同一层传播;[133]因此,RNN 是深度学习的一个例子。