Skip to content

LLM 背景知识介绍

  1. 大语言模型 (LLM) 背景

  2. 语言模型 (Language Model, LM)

  3. 语言模型的评估指标

大语言模型(LLM)背景

大语言模型介绍

  • 大语言模型 (英文:Large Language Model,缩写 LLM) 是一种人工智能模型,旨在理解和生成人类语言。大语言模型可以处理多种自然语言任务,如文本分类、问答、翻译、对话等等。

    image-20250507114351080

  • 通常,大语言模型 (LLM) 是指包含数千亿 (或更多) 参数的语言模型 (目前定义参数量超过 10B 的模型为大语言模型),这些参数是在大量文本数据上训练的,例如模型 GPT-3、ChatGPT、GLM、BLOOM 和 LLaMA 等。

语言模型发展阶段

截止目前,语言模型发展走过了三个阶段:

  1. 第一阶段

    设计一系列的自监督训练目标(MLM、NSP 等),设计新颖的模型架构(Transformer),遵循 Pre-training 和 Fine-tuning 范式。典型代表是 BERT、GPT、XLNet 等;

  2. 第二阶段

    逐步扩大模型参数和训练语料规模,探索不同类型的架构。典型代表是 BART、T5、GPT-3 等;

  3. 第三阶段

    走向 AIGC(Artificial Intelligent Generated Content)时代,模型参数规模步入千万亿,模型架构为自回归架构,大模型走向对话式、生成式、多模态时代,更加注重与人类交互进行对齐,实现可靠、安全、无毒的模型。典型代表是 InstructionGPT、ChatGPT、Bard、GPT-4 等。

语言模型

语言模型简介

语言模型(Language Model)旨在建模词汇序列的生成概率,提升机器的语言智能水平,使机器能够模拟人类说话、写作的模式进行自动文本输出。

通俗理解:用来计算一个句子的概率的模型,也就是判断一句话是否是人话的概率。

标准定义:对于某个句子序列,如 S = {W1, W2, W3, …, Wn}, 语言模型就是计算该序列发生的概率,即 P(S). 如果给定的词序列符合语用习惯,则给出高概率,否则给出低概率。

举例说明

  1. 问题描述:假设我们要为中文创建一个语言模型,V 表示词典={黑马、程序、员、来、学习},W_i 属于 V. 语言模型描述:给定词典 V,能够计算出任意单词序列 S={W1,…,Wn}是一句话的概率 P(S), 其中 P >= 0.

  2. 概率计算:那么如何 P(S) 呢?最简单的方法就是计数,假设数据集中共有 N 个句子,我们可以统计一下数据集中S={W1,…,Wn}每个句子出现的次数,如果为 n, 则 P(S)=n/N. 但是,这个模型的预测能力几乎为 0,因为一旦单词序列没在之前数据集中出现过,模型的输出概率就是 0, 显然相当不合理。

  3. 求解原则:根据概率论中的链式法则,将 P 可以表示为 P(S)=P(W1,W2,,Wn)=P(W1)P(W2|W1)P(Wn|W1,W2,,Wn1)

  4. 模型定义:如果能计算出 P(Wn|W1,…Wn-1),那么就能轻松得到 P(W1,W2,…,Wn), 所以在某些文献中,语言模型的另外一种定义:能够计算出P(W1,W2,…,Wn) 的模型就是语言模型。

从文本生成角度,也可以这样定义语言模型:给定一个短语(一个词组或者一句话)语言模型可以生成(预测) 接下来的一个词。

语言模型技术的发展可以总结为四个阶段:

第一阶段:基于规则和统计的语言模型

第二阶段:神经语言模型

第三阶段:预训练语言模型

第四阶段:大语言模型

基于规则和统计的语言模型

由人工设计特征并使用统计方法对固定长度的文本窗口序列进行建模分析,这种建模方式也被称为 N-gram 语言模型。在上述例子中计算句子序列概率我们使用链式法则计算,该方法存在两个缺陷:

  1. 参数空间过大

    条 件 概 率 P ( W n | W 1 , W2,….Wn-1) 的可能性太多,无法估算,也不一定有用

  2. 数据稀疏严重

    许多词对的组合,在语料库中都没有出现,依据最大似然估计得到的概率为 0

N-gram 语言模型

为了解决上述问题,引入马尔科夫假设:随意一个词出现的概率只与它前面出现的有限的一个或者几个词有关。

  • 如果一个词的出现与它周围的词是独立的,那么我们就称之为 unigram 也就是一元语言模型。
P(S)=P(W1,W2,,Wn)=P(W1)P(W2|W1)P(Wn|W1,W2,,Wn1)
  • 如果一个词的出现仅依赖于它前面出现的一个词,那么我们就称之为 bigram.
P(S)=P(W1)P(W2)P(Wn)
  • 如果一个词的出现仅依赖于它前面出现的两个词,那么我们就称之为 trigram.
P(S)=P(W1)P(W2|W1)P(W3|W2)P(Wn|Wn1)

一般来说,N 元模型就是假设当前词的出现概率只与它前面的 N-1 个词有关,而这些概率参数都是可以通过大 规模语料库来计算,比如三元概率:

P(Wi|Wi1,Wi2)=Count(Wi2Wi1Wi)/Count(Wi2Wi1)

在实践中用的最多的就是 bigram 和 trigram, 接下来以 bigram 语言模型为例,理解其工作原理:

  • 首先我们准备一个语料库(简单理解让模型学习的数据集), 为了计算对应的二元模型的参数,即P(W*i|W*{i-1}),我们要先计数即 C(Wi-1,Wi),然后计数 C(Wi-1) , 再用除法可得到概率。

  • C(Wi-1, Wi) 计数结果如下:

    image-20250507134158124

  • C(Wi-1) 的计数结果如下:

    image-20250507134210742

  • 那么 bigram 语言模型针对上述语料的参数计算结果如何实现?假如,我想计算 P(想|我)=0.38, 计算过程如下显示:(其他参数计算过程类似)
P()=C(,)C()=80021000.38
  • 如果针对这个语料库的二元模型(bigram)建立好之后,就可以实现我们的目标计算。

  • 计算一个句子的概率,举例如下:

P(我想去打篮球)=P()×P()×P()×P(篮球)=8002100×600900×6902000×208000.0022
  • 预测一句话最可能出现的下一个词汇,比如:我想去打【mask】? 思考:mask = 篮球 或者 mask = 晚饭
P(我想去打篮球)0.0022P(我想去打晚饭)0.00022
  • 可以看出 P(我想去打篮球) > P(我想去打晚饭),因此 mask = 篮球,对比真实语境下,也符合人类习惯。

N-gram 语言模型的特点

  • 优点

    1. 采用极大似然估计,参数易训练
    2. 完全包含了前 n-1 个词的全部信息
    3. 可解释性强,直观易理解
  • 缺点

    1. 只能建模到前 n-1 个词
    2. 随着 n 的增大,参数空间呈指数增长
    3. 数据稀疏,难免会出现 OOV 问题
    4. 泛化能力差

神经网络语言模型

基于 N-gram 语言模型以上的问题,以及随着神经网络技术的发展,人们开始尝试使用神经网络来建立语言模型。

image-20250507135227008

  • 模型的输入: wt-n+1, …, wt-2, wt-1就是前n-1个词. 现在需要根据这已 知的 n-1 个词预测下一个词 wt . C(w) 表示单词 w 所对应的词向量。

  • 网络的第一层: 是将C(wt-n+1),..,C(wt-2), C(wt-1)这n-1个向量首尾拼接起来形成一个 (n-1)*m 大小的向量,记作 x.

  • 网络的第二层: 定义一个全连接层, 通过全连接层后结果再使用tanh 激活函数进行处理。

  • 网络的第三层: 输出一共V个节点 (V代表语料的词汇总数), 本质上为 一个全连接层。每个输出节点 y_i 表示下一个词语为 i 的未归一化 logits 值。最后使用 softmax 激活函数将输出值 y 进行归一化。得到最大概 率值,就是我们需要预测的结果。

神经网络特点

优点

  • 相比 n-gram 具有更好的泛化能力。

  • 降低了数据稀疏带来的问题。

缺点

  • 对长序列的建模能 力有限。
  • 可能会出现梯度消失等问题。

基于 Transformer 的预训练语言模型

image-20250507135557560

基于 Transformer 的预训练模型:包括 GPT、BERT、T5 等。这些模型能够从大规模通用文

本数据中学习大量的语言表示,并将这些知识运用到下游任务中,获得较好的效果。

预训练语言模型的使用方式:

  • 预训练:在大规模数据集上事先训练神经网络模型,使其学习到通用的特征表示和知识。

  • 微调:在具体的下游任务中使用预训练好的模型进行迁移学习,以获取更好的泛化效果。

预训练语言模型的特点:

  • 优点:更强大的泛化能力,丰富的语义表示,可以有效防止过拟合。
  • 缺点:计算资源需求大,可解释性差等

大语言模型

随着预训练模型参数的指数级提升,其语言模型性能也会线性上升。2020 年,OpenAI 发布了参数量高达 1750 亿的 GPT-3,首次展示了大语言模型的性能。

相较于 bert、gpt2,GPT-3 可以在不调整权重的情况下仅依据用户给出的任务示例完成具体任务。当前各大科 技巨头纷纷推出参数量巨大的语言模型,例如:Meta 公司的 LLaMA-13B 模型以及谷歌公司的 PaLM-540B. 国 内如百度推出的文心一言 ERNIE 系列、清华大学团队推出的 GLM 系列,等等。

大语言模型的特点:

  • 优点:像“人类”一样智能,具备了能与人类沟通聊天的能力,甚至具备了使用插件进行自动信息检索的能力

  • 缺点:参数量大,算力要求高、训练时间长、可能生成部分有害的、有偏见的内容等等

思考总结

  1. 什么是大语言模型?

    答案:指包含数千亿 (或更多) 参数的语言模型

  2. 语言模型的主要类别是什么?

    答案:N-Gram、神经网络、预训练模型、大语言模型

  3. 常用的 N-Gram 语言模型是什么?

    答案:bigram、trigram

语言模型的评估指标

常用指标

Accuracy(准确率): 模型预测正确的样本数量占总样本量的比重。

Precision(精确率): 在被识别为正类别的样本中,为正类别的比例。

Recall(召回率): 在所有正类别样本中,被正确识别为正类别的比例。

BLEU 分数是评估一种语言翻译成另一种语言的文本质量的指标。它将“质量”的好坏定义为与 人类翻译结果的一致性程度。取值范围是[0, 1], 越接近1, 表明翻译质量越好.

ROUGE 指标是在机器翻译、自动摘要、问答生成等领域常见的评估指标。ROUGE 通过将模型生 成的摘要或者回答与参考答案(一般是人工生成的)进行比较计算,得到对应的得分。

PPL 用来度量一个概率分布或概率模型预测样本的好坏程度。PPL 越小,标明模型越好。

BLEU

BLEU 根据 n-gram 可以划分成多种评价指标,其中n-gram指的是连续的单词个数为 n,实践中,通常是取 N=1~4,然后对进行加权平均。

下面举例说计算过程(基本步骤):

  1. 分别计算 candidate 句和 reference 句的 N-grams 模型,然后统计其匹配的个数,计算匹配度。

  2. 公式:candidate 和 reference 中匹配的 n?gram 的个数 /candidate 中 n?gram 的个数。

  • 假设机器翻译的译文 candidate 和一个参考翻译 reference 如下:
candidate: It is a nice day today

reference: today is a nice day
  • 使用 1-gram 进行匹配:
candidate: {it, is, a, nice, day, today}

reference: {today, is, a, nice, day}

结果:其中{today, is, a, nice, day}匹配,所以匹配度为5/6
  • 使用 2-gram 进行匹配:
candidate: {it is, is a, a nice, nice day, day today}

reference: {today is, is a, a nice, nice day}

结果:其中{is a, a nice, nice day}匹配,所以匹配度为3/5
  • 使用 3-gram 进行匹配:
candidate: {it is a, is a nice, a nice day, nice day today}

reference: {today is a, is a nice, a nice day}

结果:其中{is a nice, a nice day}匹配,所以匹配度为2/4
  • 使用 4-gram 进行匹配:
candidate: {it is a nice, is a nice day, a nice day today}

reference: {today is a nice, is a nice day}

结果:其中{is a nice day}匹配,所以匹配度为 1/3

通过上面的例子分析可以发现,匹配的个数越多,BLEU 值越大,则说明候选句子更好。但是也会出现下面的极端情况:

  • 极端例子:

    candidate: the the the the
    
    reference: The cat is standing on the ground
    
    如果按照 1-gram 的方法进行匹配,则匹配度为 1,显然是不合理的
  • 首先,计算一个单词在任意一个参考句子出现的最大次数,然后用每个(非重复)单词在参考句子中出现的最大次数来修剪--单词在候选句子的出现次数。如下所示的公式:

countk=min(ck,sk)
  • 其中 k 表示在候选句子(candidate)中出现的第 k 个词语,ck 则代表在候选句子中这个词语出现的次数,而 sk 则代表在参考文本(reference)中这个词语出现的次数。

python 代码实现:

python
# 安装 nltk 的包-->pip install nltk

from nltk.translate.bleu_score import sentence_bleu


def cumulative_bleu(reference, candidate):


bleu_1_gram = sentence_bleu(reference, candidate, weights=(1, 0, 0, 0))

# 生成文本

condidate_text = ["This", "is", "some", "generated", "text"]

# 参考文本列表

reference_texts = [["This", "is", "a", "reference", "text"],
                   ["This", "is", "another", "reference", "text"]]

# 计算 Bleu 指标

c_bleu = cumulative_bleu(reference_texts, condidate_text)

bleu_2_gram = sentence_bleu(reference, candidate, weights=(0.5, 0.5, 0, 0))

bleu_3_gram = sentence_bleu(reference, candidate, weights=(0.33, 0.33, 0.33, 0))

# 打印结果

bleu_4_gram = sentence_bleu(reference, candidate, weights=(0.25, 0.25, 0.25, 0.25))

return bleu_1_gram, bleu_2_gram, bleu_3_gram, bleu_4_gram

print("The Bleu score is:", c_bleu)

# The Bleu score is: (0.6, 0.387, 1.5945e-102, 9.283e-155)

代码练习

python 实现 BLEU 指标的计算

练习:10 分钟

ROUGE

ROUGE 指标与 BLEU 指标非常类似,均可用来衡量生成结果和标准结果的匹配程度,不同的是 ROUGE 基于召回率,BLEU 更看重准确率。ROUGE 也分为四种方法:ROUGE-N, ROUGE-L, ROUGE-W, ROUGE-S.

下面举例说计算过程(这里只介绍 ROUGE_N):

  • 基本步骤:Rouge-N 实际上是将模型生成的结果和标准结果按 N-gram 拆分后,计算召回率。
  1. 假设模型生成的文本 candidate 和一个参考文本 reference 如下:
candidate: It is a nice day today

reference: today is a nice day
  1. 使用 ROUGE-1 进行匹配:
candidate: {it, is, a, nice, day, today}

reference: {today, is, a, nice, day}

结果:其中{today, is, a, nice, day}匹配,所以匹配度为5/5=1,这说明生成的内容完全覆盖了参考文本中的所有单词,质量较高.

通过类似的方法,可以计算出其他 ROUGE 指标(如 ROUGE-2、ROUGE-L、ROUGE-S)的评分。

python 代码实现

# 安装 rouge-->pip install rouge

import Rouge

# 生成文本

generated_text = "This is some generated text."

# 参考文本列表

# 打印结果

print("ROUGE-1 precision:", scores[0]["rouge-1"]["p"])

print("ROUGE-1 recall:", scores[0]["rouge-1"]["r"])

print("ROUGE-1 F1 score:", scores[0]["rouge-1"]["f"])

# ROUGE-1 precision: 0.8

reference_texts = ["This is a reference text.", "This is another generated reference text."]

# ROUGE-1 recall: 0.6666666666666666

# ROUGE-1 F1 score: 0.7272727223140496

# 计算 ROUGE 指标

rouge = Rouge()

scores = rouge.get_scores(generated_text, reference_texts[1])

代码练习

python 实现 ROUGE 指标的计算

时间:10 分钟

困惑度 PPL(perplexity)

PPL 用来度量一个概率分布或概率模型预测样本的好坏程度。

PPL 基本思想

  1. 概率值 给测试集的句子赋予较高概率值的语言模型较好,当语言模型训练完之后,测试集中的句子都是正常的句子,那么训练好的模型就是在测试集上的概率越高越好。

  2. 基本公式(两种方式)

    PP(W)=P(w1w2wN)1N=1P(w1w2wN)N

    PP(S)=21Nlog(P(wi))

  3. 结论

    由公式可知,句子概率越大,语言模型越好,迷惑度越小。

python 代码实现

python
import math

# 定义语料库

sentences = [
    ['I', 'have', 'a', 'pen'],
    ['He', 'has', 'a', 'book'],
    ['She', 'has', 'a', 'cat']
]

# 定义语言模型
unigram = {'I': 1 / 12, 'have': 1 / 12, 'a': 3 / 12,
           'pen': 1 / 12, 'He': 1 / 12, 'has': 2 / 12, 'book':
               1 / 12, 'She': 1 / 12, 'cat': 1 / 12}

# 计算困惑度
perplexity = 0
for sentence in sentences:
    sentence_prob = 1
    for word in sentence:
        sentence_prob *= unigram[word]
    temp = -math.log(sentence_prob, 2) / len(sentence)
    perplexity += 2 ** temp
perplexity = perplexity / len(sentences)
print('困惑度为:', perplexity)
# 困惑度为:8.15

代码练习

python 实现 PPL 指标的计算

时间:10 分钟

思考总结

  1. 语言模型的评估指标是什么?

    答案:Accuracy、Precision、Recall、BLEU、ROUGE、PPL

  2. 怎么理解 BLEU 指标?

    答案:评估一种语言翻译成另一种语言的文本质量的指标。取值范围是[0, 1], 越接近 1, 表明翻译质量越好。

  3. 怎么理解 ROUGE 指标?

    答案:ROUGE 指标用来衡量生成结果和标准结果的匹配程度,不同的是 ROUGE 基于召回率,BLEU 更看重准确率。

  4. 怎么理解 PPL 指标?

    答案:PPL 用来度量一个概率分布或概率模型预测样本的好坏程度。