[!--temp.flying_pages--]

术语及解释

AI术语及解释

术    语 解    释
PGC Professional-Generated Content ,专业生成内容。以PGC作为职业获得报酬的职业生成内容也被称为OGC ( Occupationally Generated Content )
UGC User-Generated Content,用户生成内容
AIGC Artificial Intelligence Generated Content,人工智能生成内容
生成式类人工智能算法 根据训练过的数据生成全新、完全原创的输出,常以人工智能以文本、音频、图像、视频等形式创建新内容
大模型 Foundation Model ,又译作"基础模型",对广泛的数据进行大规模预训大模型练来适应各种任务的模型
NFT Non - Fungible Token ,非同质化代币。一种基于区块链技术的数字资产权利凭证。区别于比特币这样的同质化代币,代币与代币之间是不可相互替代的
GameFi 游戏化金融。将去中心化金融以游戏方式呈现的产品,多代指结合了区块链的游戏
图灵测试 艾伦·图灵提出的一个判断机器是否具备智能的著名方法
机器学习 让计算机程序从数据中学习以提高解决某一任务能力的方法
监督学习 从标注数据中学习的机器学习方法
无监督学习 从无标注数据中学习的机器学习方法
强化学习 在给定的数据环境下,让智能体学习如何选择一系列行动,来达成长期累计收益最大化目标的机器学习方法
深度学习 采用有深度的层次结构进行机器学习的方法
人工神经网络 模仿生物神经网络工作特征进行信息处理的算法模型
感知器 一种最简易的人工神经网络模型
TTS Text to Speech ,文本转语音
NLP Natural Language Processing ,自然语言处理。使计算机程序理解、生成和处理人类语言的方法
CV Computer Vision ,计算机视觉。使计算机具备处理图像、视频等视觉信息能力的方法
GAN Generative Adversarial Networks ,生成对抗网络。通过一个生成器和一个判别器的相互对抗,来实现图像或文本等信息生成过程的算法模型
Diffusion 扩散模型。一种通过对数据点在潜在空间中扩散的方式进行建模来学习数据集潜在结构的算法模型,常用于图像生成
CLIP Contrastive Language-Image Pre-Training ,文本﹣图像预训练。一种用于匹配图像和文本的预训练神经网络模型
Seq2Seq Sequence - to - Sequence ,序列到序列模型。将一种序列处理成另一种序列的模型,典型应用场景是机器翻译
注意力机制 由于信息处理的瓶颈,人类会选择性地关注所有信息的一部分,同时忽略其他可见的信息,这种机制可以应用于人工智能的算法模型领域
Transformer 一种运用注意力机制的深度学习模型,是许多大模型的基础
GPT Generative Pre - trained Transformer ,生成型预训练变换器。由 OpenAI 研发的大型文本生成类深度学习模型,可以用于对话 AI 、机器翻译、摘要生成、代码生成等复杂的自然语言处理任务
ChatGPT OpenAI 在2022年11月发布的聊天机器人,能自然流畅地与人们对话
RLHF Reinforcement Learning from Human Feedback ,从人类反馈中进行强化学习。利用人类反馈信号优化模型的强化学习方法
BERT Bidirectional Encoder Representations from Transformers ,变换器的双向编码器表示。一种谷歌基于 Transformer 提出的模型
ViT Vision Transformer ,视觉变换器。一种利用 Transformer 解决计算机视觉问题的模型

FCAI工具导航进行搜集整理