AI 时代
📚 名词解释

📚 名词解释

以下是一些在谈及 AIGC 时常见的名词,以及他们的解释,明确其含义能助我们快速熟悉这一领域。

英文中文含义及解释
AI Agents人工智能代理一种能够感知环境、进行决策和执行动作的智能实体。
Natural Language Processing (NLP)自然语言处理NLP 是人工智能和语言学领域的一个子领域,它关注于人与计算机之间使用自然语言进行有效交流的能力。NLP 结合了计算机科学、人工智能和语言学的方法和技术,旨在让计算机能够理解、解释、生成和对人类语言进行有意义的响应。
Large Language Model (LLM)大语言模型LLM 是大型语言模型的简称,指的是使用深度学习技术训练的、具有大量参数的模型,专门设计用于理解、生成、翻译或执行与自然语言相关的任务。这些模型通过在大规模文本数据集上进行训练,学习语言的结构、语义、语法和使用上下文的能力。
Token-在大型语言模型中,token代表模型可以理解和生成的最小意义单位,是大型语言模型的基础单元。
Prompt提示词指输入到 AI 模型的文本片段,用来引导或激发模型生成特定的输出或完成特定的任务。
Prompt Engineering提示词工程指优化 prompt 的设计,使模型能够更有效地完成特定的任务或产生更高质量的输出。包括选择正确的内容、格式和上下文,以及理解如何更好地利用模型的能力。
Artificial General Intelligence(AGI)通用型人工智能目前定义尚无广泛共识,以下是微软给定的定义:AGI 是在任何智力任务上都与人类有相同能力的人工智能。
Generative AI生成式 AIAI 的一个分支,基于现有的数据模式和示例(图像、音乐或文本等),生成新的原创内容的人工智能技术。如:ChatGPT、MidJouney
Pre-trained预训练是训练机器学习模型的初始阶段,该阶段模型从数据中学习通用特征、模式和表示,而不需要具体了解将来会应用到的任务。这个无监督或半监督的学习过程使模型能够发展出对底层数据分布的基本理解,并提取出有意义的特征,这些特征可以在后续的微调中用于特定任务。
Transformer-GPT 基于 Transformer 架构,这是一种专为处理序列数据(如文本)设计的深度学习模型。Transformer 的核心是自注意力机制(self-attention mechanism),能够处理长距离依赖关系并提高模型的并行处理能力。
Generative Pre-trained Transformer(GPT)生成式预训练模型GPT 是一种基于 Transformer 架构的大型语言模型,由 OpenAI 开发。它是一种先进的自然语言处理技术,能够生成连贯且相关性高的文本,执行多种语言任务,如文本生成、翻译、问答和摘要等。
Contrastive Language–Image Pretraining(CLIP)-CLIP 是一种由 OpenAI 开发的 AI 模型,它将图像和文本相连接,使其能够理解和生成图像的描述。
Foundation Model/Checkpoint基础模型指大型、预训练的模型,这些模型在广泛的数据集上进行训练,以捕捉丰富的数据表示,并且能够在许多不同的任务上进行微调或适应使用。
Machine Learning机器学习一门人工智能的科学,该领域的主要研究对象是人工智能,特别是如何在经验学习中改善具体算法的性能。提供系统自动学习和从经验中改进的能力,无需明确编程。
Deep Learning深度学习深度学习是机器学习的一个子集,它使用被称为神经网络的算法,进行学习和决策。深度学习模拟了人类大脑的工作方式,通过多层(即“深度”)神经网络结构处理数据,使计算机能够从经验中学习并识别模式。
Supervised Learning监督学习监督学习是机器学习中的一种类型,通过训练数据集对模型进行训练。这个数据集由输入数据和对应的标签(或称为目标)组成。在监督学习过程中,模型试图学习输入数据和输出标签之间的映射关系,以便当提供新的、未见过的输入数据时,模型能够预测出正确的输出。
Unsupervised Learning无监督学习无监督学习是机器学习的一种类型,不同于监督学习,它不依赖于标注数据进行学习。在无监督学习中,算法被给予大量的数据,但这些数据没有附加的标签或指示输出应该是什么。目标是让算法自行发现数据中的模式、结构或知识。
Reinforcement Learning强化学习强化学习是机器学习的一个类型,它主要关注在特定环境中通过试错来学习如何达到某个目标。在强化学习中,一个智能体 Agent 通过与环境互动来学习选择哪些行为可以最大化某种累积奖励。这种学习过程涉及到评估哪些行为在长期会带来最大的益处,而不仅仅是立即的奖励。
Transfer Learning迁移学习迁移学习是机器学习的一种类型,它允许模型将在一个任务上学到的知识应用到另一个相关的任务上。这种方法的核心思想是利用先前任务中学到的知识,来加速或改善后续任务的学习过程,特别是当后续任务的数据较少时。迁移学习在深度学习领域尤其受到关注,因为深度学习模型通常需要大量的数据和计算资源来从头开始训练。
Inference推理使用训练过的机器学习模型进行预测的过程。
Embedding向量化向量化是提高数据处理和数值计算性能的关键技术,尤其适用于科学计算、机器学习、深度学习等领域,它通过减少循环和利用底层硬件的优化,使得代码执行更快、更高效。
Parameters参数在机器学习中,参数是模型用来进行预测的内部变量。在训练过程中,它们从训练数据中学习。例如:在神经网络中,权重和偏差就是参数。
Fine-tuning微调指在一个已经训练好的模型基础上,进一步在特定任务上进行训练,从而使模型适应该任务的特定数据和要求。在微调过程中,使用较小的、针对特定任务的数据集进一步调整模型的参数,使其能够学习到任务特定的模式并提高在新任务上的性能。
Chain of Thought思维链大模型提示工程中的重要技术,通常用来描述 AI 模型在达到决策时使用的推理步骤序列。
Multimodal多模态模态是事情经历和发生的方式,我们生活在一个由多种模态信息构成的世界,包括视觉信息、听觉信息、文本信息、嗅觉信息等,在人工智能领域,多模态通常指多种模态的信息,包括:文本、图像、视频、音频等。
Hallucination幻觉通常用来描述模型或算法生成的、与现实不符的输出。