工具简介
AI生成内容(AIGC):AI自动生成文本、图像、音频等内容的技术
A
AI生成内容(AIGC):AI自动生成文本、图像、音频等内容的技术。
算法(Algorithm):解决特定问题的步骤化指令集,AI的核心"思维规则"。
B
贝叶斯网络(Bayesian Network):基于概率图模型的推理工具,用于医疗诊断等不确定性问题。
表征学习(Representation Learning):自动学习数据特征表示的过程,深度学习核心优势。
C
计算机视觉(CV):让机器"看懂"图像的技术,应用于人脸识别、自动驾驶等。
卷积神经网络(CNN):擅长处理网格数据的深度学习模型,广泛用于图像识别。
D
深度学习(Deep Learning):基于深层神经网络的机器学习子领域,推动AI第三次浪潮。
决策树(Decision Tree):模拟人类决策过程的树状模型,用于分类和回归任务。
E
嵌入(Embedding):将离散数据(如文字)转化为连续向量的技术,NLP基础。
强化学习(Reinforcement Learning):通过环境反馈优化策略的学习范式,如AlphaGo。
F
联邦学习(Federated Learning):分布式训练技术,保护数据隐私的同时协同建模。
生成对抗网络(GAN):通过生成器与判别器博弈生成逼真数据的模型。
G
生成式AI(Generative AI):能创造新内容的AI系统,如ChatGPT、Midjourney。
梯度下降(Gradient Descent):优化模型参数的核心算法,最小化预测误差。
H
** hallucination(幻觉)**:AI生成与事实不符内容的现象,如虚构参考文献。
启发式搜索(Heuristic Search):通过经验规则加速问题求解的方法。
I
推理(Inference):AI模型利用训练好的参数进行预测的过程。
集成学习(Ensemble Learning):组合多个模型提升性能,如随机森林。
J
监督学习(Supervised Learning):使用标注数据训练模型的机器学习范式。
卷积(Convolution):提取局部特征的数学操作,CNN的核心组件。
K
K均值聚类(K-Means):将数据分为K个簇的无监督学习算法。
知识图谱(Knowledge Graph):结构化存储实体关系的数据库,如Google知识面板。
L
大语言模型(LLM):千亿参数规模的语言模型,如GPT-5、文心一言。
长短期记忆网络(LSTM):处理序列数据的RNN变体,用于语音识别等。
M
机器学习(Machine Learning):让计算机从数据中学习规律的AI核心技术。
多模态(Multimodal):同时处理文本、图像、语音等多种数据类型的能力。
N
自然语言处理(NLP):让机器理解人类语言的技术,包括翻译、摘要等任务。
神经网络(Neural Network):模拟人脑神经元连接的计算模型,AI的"大脑"。
O
过拟合(Overfitting):模型过度拟合训练数据导致泛化能力下降的现象。
优化器(Optimizer):调整模型参数以最小化损失函数的工具,如Adam。
P
参数(Parameter):模型训练过程中学习的变量,决定AI的"认知能力"。
主成分分析(PCA):降维技术,保留数据主要特征同时减少维度。
Q
强化学习与人类反馈(RLHF):通过人类偏好数据优化AI行为的技术。
迁移学习(Transfer Learning):将一个任务的知识迁移到新任务的学习方法。
R
召回率(Recall):衡量模型识别所有相关样本能力的指标。
检索增强生成(RAG):结合外部知识库提升AI回答准确性的技术。
S
监督学习(Supervised Learning):使用标注数据训练模型的机器学习范式。
支持向量机(SVM):通过超平面实现分类的经典算法。
T
Transformer:基于自注意力机制的模型架构,支撑现代LLM发展。
迁移学习(Transfer Learning):将预训练模型适配新任务的高效方法。
U
无监督学习(Unsupervised Learning):从无标签数据中发现规律的学习范式。
欠拟合(Underfitting):模型过于简单无法捕捉数据规律的现象。
V
向量数据库(Vector Database):存储和检索嵌入向量的专用数据库,如Milvus。
视觉Transformer(ViT):将Transformer应用于计算机视觉的模型。
W
权重(Weight):神经网络中连接强度的参数,决定信息传递的重要性。
Word2Vec:将词语转化为向量的经典NLP技术。
X
协同过滤(Collaborative Filtering):推荐系统常用技术,基于用户行为相似性推荐。
学习率(Learning Rate):控制梯度下降步长的超参数,影响模型收敛效果。
Y
注意力机制(Attention Mechanism):让模型聚焦关键信息的技术,如Transformer中的自注意力。
样本(Sample):训练数据中的单个数据点,如一张图像或一段文本。
Z
正则化(Regularization):防止过拟合的技术,如L1/L2正则化。
准确率(Accuracy):模型正确预测样本占总样本的比例。



