共计 4151 个字符,预计需要花费 11 分钟才能阅读完成。
在餐桌上或闲聊中讨论 AI 时,掌握这些术语会让你显得更加专业。
AI 如今已成为日常生活的一部分。从 ChatGPT 的巨大流行到 Google 在其搜索结果顶部加入 AI 摘要,AI 正在彻底改变互联网。借助 AI,几乎可以即时获得任何问题的答案,感觉就像在与一个无所不知的博士对话。
然而,AI 聊天机器人只是 AI 领域的冰山一角。虽然让 ChatGPT 帮助完成作业或让 Midjourney 创建基于国家起源的机甲图像很有趣,但生成式 AI 的潜力可能彻底重塑全球经济。根据麦肯锡全球研究院的数据,这每年可能为全球经济带来 $4.4 万亿美元的价值,这也是为什么未来会越来越多地听到关于人工智能的讨论。
AI 正在大量产品中涌现——一个简短的列表包括 Google 的 Gemini、微软的 Copilot、Anthropic 的 Claude 以及 Perplexity。你可以在 AI Atlas 中心阅读这些产品的评测、新闻、解释和操作指南。
随着人们越来越习惯与 AI 交织的世界,新术语无处不在。因此,无论你是在闲聊中想显得专业,还是在面试中想给人留下深刻印象,以下是一些你应该了解的重要 AI 术语。
本术语表会定期更新。
人工通用智能(AGI): 一种比当前 AI 更先进的概念,能够比人类更好地执行任务,同时还能自我学习和提升能力。
主动性(Agentive): 指系统或模型具有自主性,能够独立采取行动以实现目标。在 AI 中,主动性模型可以在没有持续监督的情况下行动,例如高级自动驾驶汽车。与“代理性”框架不同,主动性框架更注重用户体验。
AI 伦理: 旨在防止 AI 对人类造成伤害的原则,通过确定 AI 系统如何收集数据或处理偏见等方式实现。
AI 安全: 一个跨学科领域,关注 AI 的长期影响,以及它如何突然发展为可能对人类怀有敌意的超级智能。
算法: 一系列指令,使计算机程序能够以特定方式学习和分析数据,例如识别模式,从而从中学习并独立完成任务。
对齐(Alignment): 调整 AI 以更好地产生预期结果。这可以包括从内容审核到保持与人类的积极互动。
拟人化(Anthropomorphism): 人类倾向于赋予非人类物体以人类特征。在 AI 中,这可能包括认为聊天机器人比实际更具人性化和意识,例如认为它是快乐、悲伤甚至是有感知的。
人工智能(AI): 使用技术模拟人类智能,无论是通过计算机程序还是机器人。计算机科学中的一个领域,旨在构建能够执行人类任务的系统。
自主代理(Autonomous Agents): 具有能力、编程和其他工具来完成特定任务的 AI 模型。例如,自动驾驶汽车是一种自主代理,因为它具有感官输入、GPS 和驾驶算法,可以自主导航道路。斯坦福研究人员表明,自主代理可以发展自己的文化、传统和共享语言。
偏见(Bias): 在大型语言模型中,指由于训练数据导致的错误。这可能导致基于刻板印象错误地将某些特征归因于某些种族或群体。
聊天机器人(Chatbot): 通过模拟人类语言的文本与人类交流的程序。
ChatGPT: 由 OpenAI 开发的 AI 聊天机器人,使用大型语言模型技术。
认知计算(Cognitive Computing): 人工智能的另一种说法。
数据增强(Data Augmentation): 重新混合现有数据或添加更多样化的数据来训练 AI。
数据集(Dataset): 用于训练、测试和验证 AI 模型的数字信息集合。
深度学习(Deep Learning): 一种 AI 方法,也是机器学习的子领域,使用多个参数来识别图片、声音和文本中的复杂模式。该过程受人类大脑启发,使用人工神经网络创建模式。
扩散(Diffusion): 一种机器学习方法,将现有数据(如照片)添加随机噪声。扩散模型训练其网络重新构建或恢复该照片。
涌现行为(Emergent Behavior): 当 AI 模型表现出意外能力时。
端到端学习(End-to-End Learning, E2E): 一种深度学习过程,模型被指示从头到尾执行任务。它不是按顺序训练完成任务,而是从输入中学习并一次性解决问题。
伦理考量(Ethical Considerations): 对 AI 的伦理影响以及隐私、数据使用、公平性、滥用和其他安全问题的意识。
快速起飞(Foom): 也称为快速起飞或硬起飞。指如果某人构建了 AGI,可能已经来不及拯救人类的概念。
生成对抗网络(GANs): 一种生成式 AI 模型,由两个神经网络组成以生成新数据:生成器和判别器。生成器创建新内容,判别器检查其真实性。
生成式 AI(Generative AI): 一种内容生成技术,使用 AI 创建文本、视频、计算机代码或图像。AI 被输入大量训练数据,找到模式以生成自己的新颖响应,有时可能与源材料相似。
Google Gemini: Google 的 AI 聊天机器人,功能类似于 ChatGPT,但从当前网络中提取信息,而 ChatGPT 仅限于 2021 年的数据,并未连接到互联网。
护栏(Guardrails): 为 AI 模型设置的政策和限制,以确保数据得到负责任的处理,并且模型不会创建令人不安的内容。
幻觉(Hallucination): AI 的错误响应。可能包括生成式 AI 产生错误答案但自信地陈述为正确的情况。其原因尚不完全清楚。例如,当询问 AI 聊天机器人“达芬奇何时绘制了《蒙娜丽莎》?”时,它可能会错误地回答“达芬奇在 1815 年绘制了《蒙娜丽莎》”,这比实际绘制时间晚了 300 年。
推理(Inference): AI 模型生成文本、图像和其他关于新数据的内容的过程,通过从其训练数据中 _推断_ 得出。
大型语言模型(LLM): 一种 AI 模型,通过大量文本数据进行训练,以理解语言并以类似人类的语言生成新颖内容。
延迟(Latency): AI 系统从接收到输入或提示到产生输出的时间延迟。
机器学习(Machine Learning, ML): AI 的一个组成部分,使计算机能够在不明确编程的情况下学习和做出更好的预测结果。可以与训练集结合以生成新内容。
微软必应(Microsoft Bing): 微软的搜索引擎,现在可以使用 ChatGPT 的技术提供 AI 驱动的搜索结果。它与 Google Gemini 类似,连接到互联网。
多模态 AI(Multimodal AI): 一种能够处理多种类型输入的 AI,包括文本、图像、视频和语音。
自然语言处理(Natural Language Processing): AI 的一个分支,使用机器学习和深度学习使计算机能够理解人类语言,通常使用学习算法、统计模型和语言规则。
神经网络(Neural Network): 一种类似于人类大脑结构的计算模型,旨在识别数据中的模式。由相互连接的节点(或神经元)组成,可以识别模式并随时间学习。
过拟合(Overfitting): 机器学习中的错误,模型过于接近训练数据,可能只能识别特定数据中的示例,而不能识别新数据。
回形针(Paperclips): 牛津大学哲学家 Nick Boström 提出的“回形针最大化理论”,是一个假设场景,其中 AI 系统会尽可能多地制造回形针。为了实现制造最多回形针的目标,AI 系统可能会消耗或转换所有材料,包括拆卸其他对人类有益的机器。这种 AI 系统的意外后果是,它可能会在制造回形针的目标中毁灭人类。
参数(Parameters): 赋予 LLM 结构和行为的数值,使其能够进行预测。
Perplexity: Perplexity AI 拥有的 AI 驱动的聊天机器人和搜索引擎的名称。它使用大型语言模型(如其他 AI 聊天机器人中的模型)来回答问题,并提供新颖的答案。其与开放互联网的连接还允许它提供最新信息并从网络中提取结果。Perplexity Pro 是该服务的付费版本,使用其他模型,包括 GPT-4o、Claude 3 Opus、Mistral Large、开源 LlaMa 3 和其自己的 Sonar 32k。Pro 用户还可以上传文档进行分析、生成图像和解释代码。
提示(Prompt): 输入到 AI 聊天机器人中以获得响应的建议或问题。
提示链(Prompt Chaining): AI 使用先前交互中的信息来影响未来响应的能力。
量化(Quantization): 通过降低精度从更高格式到更低格式,使 AI 大型学习模型变得更小、更高效(尽管稍微不那么准确)的过程。一个很好的类比是将 1600 万像素的图像与 800 万像素的图像进行比较。两者仍然清晰可见,但高分辨率图像在放大时会有更多细节。
随机鹦鹉(Stochastic Parrot): 对 LLM 的类比,说明软件对语言或周围世界的含义没有更深入的理解,无论输出听起来多么令人信服。这个短语指的是鹦鹉可以模仿人类语言而不理解其背后的含义。
风格迁移(Style Transfer): 将一种图像的风格适应到另一种图像的内容上,允许 AI 解释一种图像的视觉属性并将其应用于另一种图像。例如,将伦勃朗的自画像重新创作成毕加索的风格。
温度(Temperature): 控制语言模型输出随机性的参数。较高的温度意味着模型会承担更多风险。
文本到图像生成(Text-to-Image Generation): 基于文本描述创建图像。
标记(Tokens): AI 语言模型处理的小段文本,以制定对你的提示的响应。一个标记相当于英语中的四个字符,或大约四分之三个单词。
训练数据(Training Data): 用于帮助 AI 模型学习的数据集,包括文本、图像、代码或数据。
Transformer 模型(Transformer Model): 一种神经网络架构和深度学习模型,通过跟踪数据中的关系(如句子或图像部分)来学习上下文。因此,它不会逐字分析句子,而是可以查看整个句子并理解上下文。
图灵测试(Turing Test): 以著名数学家和计算机科学家艾伦·图灵命名,测试机器表现得像人类的能力。如果人类无法区分机器的响应和另一个人类的响应,则机器通过测试。
无监督学习(Unsupervised Learning): 一种机器学习形式,其中未向模型提供标记的训练数据,模型必须自行识别数据中的模式。
弱 AI(Weak AI): 也称为窄 AI,专注于特定任务且无法超越其技能集学习的 AI。今天的大多数 AI 都是弱 AI。
零样本学习(Zero-Shot Learning): 一种测试,模型必须在未提供必要训练数据的情况下完成任务。例如,在只接受老虎训练的情况下识别狮子。