『NLP打卡营学习笔记』实践课2:文本语义相似度计算

P粉084495128
发布: 2025-07-29 10:46:43
原创
226人浏览过
本文介绍基于ERNIE-Gram模型实现语义匹配的案例。以LCQMC数据集为例,说明文本语义匹配任务,即判断两段文本语义是否相似。还讲解了数据加载、预处理、模型搭建、训练、评估和预测的过程,以及PaddleNLP的相关数据集和数据API的使用。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

『nlp打卡营学习笔记』实践课2:文本语义相似度计算 - php中文网

基于预训练模型 ERNIE-Gram 实现语义匹配

本案例介绍 NLP 最基本的任务类型之一 —— 文本语义匹配,并且基于 PaddleNLP 使用百度开源的预训练模型 ERNIE1.0 为基础训练效果优异的语义匹配模型,来判断 2 个文本语义是否相同。

一、 背景介绍

文本语义匹配任务,简单来说就是给定两段文本的相,让模型来判断两段文本是不是语义相似。

在本案例中以权威的语义匹配数据集 LCQMC 为例,LCQMC 数据集是基于百度知道相似问题推荐构造的通问句语义匹配数据集。训练集中的每两段文本都会被标记为 1(语义相似) 或者 0(语义不相似)

例如百度知道场景下,用户搜索一个问题,模型会计算这个问题与候选问题是否语义相似,语义匹配模型会找出与问题语义相似的候选问题返回给用户,避免用户重复提问。例如,当某用户在搜索引擎中搜索 “深度学习的教材有哪些?”,模型就自动找到了一些语义相似的问题展现给用户:『NLP打卡营学习笔记』实践课2:文本语义相似度计算 - php中文网        

二、快速实践

介绍如何准备数据,基于 ERNIE-Gram 模型进行匹配网络大家,然后快速进行语义匹配模型的训练、评估和预测。

1.数据加载

为了训练匹配模型,一般需要准备三个数据集:训练集 train.tsv、验证集dev.tsv、测试集test.tsv。此案例我们使用 PaddleNLP 内置的语义数据集 LCQMC 来进行训练、评估、预测。

训练集: 用来训练模型参数的数据集,模型直接根据训练集来调整自身参数以获得更好的分类效果。

验证集: 用于在训练过程中检验模型的状态,收敛情况。验证集通常用于调整超参数,根据几组模型验证集上的表现决定哪组超参数拥有最好的性能。

测试集: 用来计算模型的各项评估指标,验证模型泛化能力。

2.LCQMC A Large-scale Chinese Question Matching Corpus 语义匹配数据集

LCQMC 数据集是公开的语义匹配权威数据集。PaddleNLP 已经内置该数据集,一键即可加载。

3.包引入

In [1]
# 正式开始实验之前首先通过如下命令安装最新版本的 paddlenlp!python -m pip install --upgrade paddlenlp==2.0.2 -i https://pypi.org/simple
登录后复制
   
In [2]
import timeimport osimport numpy as npimport paddleimport paddle.nn.functional as Ffrom paddlenlp.datasets import load_datasetimport paddlenlp# 一键加载 Lcqmc 的训练集、验证集train_ds, dev_ds = load_dataset("lcqmc", splits=["train", "dev"])
登录后复制
   

4.数据下载

In [3]
# paddlenlp 会自动下载 lcqmc 数据集解压到 "${HOME}/.paddlenlp/datasets/LCQMC/lcqmc/lcqmc/" 目录下! ls ${HOME}/.paddlenlp/datasets/LCQMC/lcqmc/lcqmcprint(paddlenlp.__version__)
登录后复制
   

5.数据查看

In [4]
# 输出训练集的前 20 条样本for idx, example in enumerate(train_ds):    if idx <= 20:        print(example)
登录后复制
   

6.数据预处理

通过 paddlenlp 加载进来的 LCQMC 数据集是原始的明文数据集,这部分我们来实现组 batch、tokenize 等预处理逻辑,将原始明文数据转换成网络训练的输入数据

6.1定义样本转换函数

In [5]
# 因为是基于预训练模型 ERNIE-Gram 来进行,所以需要首先加载 ERNIE-Gram 的 tokenizer,# 后续样本转换函数基于 tokenizer 对文本进行切分tokenizer = paddlenlp.transformers.ErnieGramTokenizer.from_pretrained('ernie-gram-zh')
登录后复制
   
In [7]
# 将 1 条明文数据的 query、title 拼接起来,根据预训练模型的 tokenizer 将明文转换为 ID 数据# 返回 input_ids 和 token_type_idsdef convert_example(example, tokenizer, max_seq_length=512, is_test=False):

    query, title = example["query"], example["title"]

    encoded_inputs = tokenizer(
        text=query, text_pair=title, max_seq_len=max_seq_length)

    input_ids = encoded_inputs["input_ids"]
    token_type_ids = encoded_inputs["token_type_ids"]    if not is_test:
        label = np.array([example["label"]], dtype="int64")        return input_ids, token_type_ids, label    # 在预测或者评估阶段,不返回 label 字段
    else:        return input_ids, token_type_ids
登录后复制
   
In [8]
### 对训练集的第 1 条数据进行转换input_ids, token_type_ids, label = convert_example(train_ds[0], tokenizer)
登录后复制
   
In [9]
print(input_ids)
登录后复制
   
In [10]
print(token_type_ids)
登录后复制
   
In [11]
print(label)
登录后复制
   
In [12]
# 为了后续方便使用,我们给 convert_example 赋予一些默认参数from functools import partial# 训练集和验证集的样本转换函数trans_func = partial(
    convert_example,
    tokenizer=tokenizer,
    max_seq_length=512)
登录后复制
   

6.2 组装 Batch 数据 & Padding

上一小节,我们完成了对单条样本的转换,本节我们需要将样本组合成 Batch 数据,对于不等长的数据还需要进行 Padding 操作,便于 GPU 训练。

PaddleNLP 提供了许多关于 NLP 任务中构建有效的数据 pipeline 的常用 API

API 简介
paddlenlp.data.Stack 堆叠N个具有相同shape的输入数据来构建一个batch
paddlenlp.data.Pad 将长度不同的多个句子padding到统一长度,取N个输入数据中的最大长度
paddlenlp.data.Tuple 将多个batchify函数包装在一起

更多数据处理操作详见: https://github.com/PaddlePaddle/models/blob/release/2.0-beta/PaddleNLP/docs/data.md

In [13]
from paddlenlp.data import Stack, Pad, Tuplea = [1, 2, 3, 4]
b = [3, 4, 5, 6]
c = [5, 6, 7, 8]
result = Stack()([a, b, c])print("Stacked Data: \n", result)print()

a = [1, 2, 3, 4]
b = [5, 6, 7]
c = [8, 9]
result = Pad(pad_val=0)([a, b, c])print("Padded Data: \n", result)print()

data = [
        [[1, 2, 3, 4], [1]],
        [[5, 6, 7], [0]],
        [[8, 9], [1]],
       ]
batchify_fn = Tuple(Pad(pad_val=0), Stack())
ids, labels = batchify_fn(data)print("ids: \n", ids)print()print("labels: \n", labels)print()
登录后复制
   
In [14]
# 我们的训练数据会返回 input_ids, token_type_ids, labels 3 个字段# 因此针对这 3 个字段需要分别定义 3 个组 batch 操作batchify_fn = lambda samples, fn=Tuple(
    Pad(axis=0, pad_val=tokenizer.pad_token_id),  # input_ids
    Pad(axis=0, pad_val=tokenizer.pad_token_type_id),  # token_type_ids
    Stack(dtype="int64")  # label): [data for data in fn(samples)]
登录后复制
   

6.3定义 Dataloader

下面我们基于组 batchify_fn 函数和样本转换函数 trans_func 来构造训练集的 DataLoader, 支持多卡训练

In [ ]
# 定义分布式 Sampler: 自动对训练数据进行切分,支持多卡并行训练batch_sampler = paddle.io.DistributedBatchSampler(train_ds, batch_size=32, shuffle=True)# 基于 train_ds 定义 train_data_loader# 因为我们使用了分布式的 DistributedBatchSampler, train_data_loader 会自动对训练数据进行切分train_data_loader = paddle.io.DataLoader(
        dataset=train_ds.map(trans_func),
        batch_sampler=batch_sampler,
        collate_fn=batchify_fn,
        return_list=True)# 针对验证集数据加载,我们使用单卡进行评估,所以采用 paddle.io.BatchSampler 即可# 定义 dev_data_loaderbatch_sampler = paddle.io.BatchSampler(dev_ds, batch_size=32, shuffle=False)
dev_data_loader = paddle.io.DataLoader(
        dataset=dev_ds.map(trans_func),
        batch_sampler=batch_sampler,
        collate_fn=batchify_fn,
        return_list=True)
登录后复制
   

7.模型搭建

自从 2018 年 10 月以来,NLP 个领域的任务都通过 Pretrain + Finetune 的模式相比传统 DNN 方法在效果上取得了显著的提升,本节我们以百度开源的预训练模型 ERNIE-Gram 为基础模型,在此之上构建 Point-wise 语义匹配网络。

首先我们来定义网络结构:

In [ ]
import paddle.nn as nn# 我们基于 ERNIE-Gram 模型结构搭建 Point-wise 语义匹配网络# 所以此处先定义 ERNIE-Gram 的 pretrained_modelpretrained_model = paddlenlp.transformers.ErnieGramModel.from_pretrained('ernie-gram-zh')#pretrained_model = paddlenlp.transformers.ErnieModel.from_pretrained('ernie-1.0')class PointwiseMatching(nn.Layer):
   
    # 此处的 pretained_model 在本例中会被 ERNIE-Gram 预训练模型初始化
    def __init__(self, pretrained_model, dropout=None):
        super().__init__()
        self.ptm = pretrained_model
        self.dropout = nn.Dropout(dropout if dropout is not None else 0.1)        # 语义匹配任务: 相似、不相似 2 分类任务
        self.classifier = nn.Linear(self.ptm.config["hidden_size"], 2)    def forward(self,
                input_ids,
                token_type_ids=None,
                position_ids=None,
                attention_mask=None):

        # 此处的 Input_ids 由两条文本的 token ids 拼接而成
        # token_type_ids 表示两段文本的类型编码
        # 返回的 cls_embedding 就表示这两段文本经过模型的计算之后而得到的语义表示向量
        _, cls_embedding = self.ptm(input_ids, token_type_ids, position_ids,
                                    attention_mask)

        cls_embedding = self.dropout(cls_embedding)        # 基于文本对的语义表示向量进行 2 分类任务
        logits = self.classifier(cls_embedding)
        probs = F.softmax(logits)        return probs# 定义 Point-wise 语义匹配网络model = PointwiseMatching(pretrained_model)
登录后复制
   

8. 模型训练 & 评估

In [ ]
from paddlenlp.transformers import LinearDecayWithWarmup

epochs = 3num_training_steps = len(train_data_loader) * epochs# 定义 learning_rate_scheduler,负责在训练过程中对 lr 进行调度lr_scheduler = LinearDecayWithWarmup(5E-5, num_training_steps, 0.0)# Generate parameter names needed to perform weight decay.# All bias and LayerNorm parameters are excluded.decay_params = [
    p.name for n, p in model.named_parameters()    if not any(nd in n for nd in ["bias", "norm"])
]# 定义 Optimizeroptimizer = paddle.optimizer.AdamW(
    learning_rate=lr_scheduler,
    parameters=model.parameters(),
    weight_decay=0.0,
    apply_decay_param_fun=lambda x: x in decay_params)# 采用交叉熵 损失函数criterion = paddle.nn.loss.CrossEntropyLoss()# 评估的时候采用准确率指标metric = paddle.metric.Accuracy()
登录后复制
   
In [ ]
# 因为训练过程中同时要在验证集进行模型评估,因此我们先定义评估函数@paddle.no_grad()def evaluate(model, criterion, metric, data_loader, phase="dev"):
    model.eval()
    metric.reset()
    losses = []    for batch in data_loader:
        input_ids, token_type_ids, labels = batch
        probs = model(input_ids=input_ids, token_type_ids=token_type_ids)
        loss = criterion(probs, labels)
        losses.append(loss.numpy())
        correct = metric.compute(probs, labels)
        metric.update(correct)
        accu = metric.accumulate()    print("eval {} loss: {:.5}, accu: {:.5}".format(phase,
                                                    np.mean(losses), accu))
    model.train()
    metric.reset()
登录后复制
   
In [21]
# 接下来,开始正式训练模型global_step = 0tic_train = time.time()for epoch in range(1, epochs + 1):    for step, batch in enumerate(train_data_loader, start=1):

        input_ids, token_type_ids, labels = batch
        probs = model(input_ids=input_ids, token_type_ids=token_type_ids)
        loss = criterion(probs, labels)
        correct = metric.compute(probs, labels)
        metric.update(correct)
        acc = metric.accumulate()

        global_step += 1
        
        # 每间隔 10 step 输出训练指标
        if global_step % 10 == 0:            print(                "global step %d, epoch: %d, batch: %d, loss: %.5f, accu: %.5f, speed: %.2f step/s"
                % (global_step, epoch, step, loss, acc,                    10 / (time.time() - tic_train)))
            tic_train = time.time()
        loss.backward()
        optimizer.step()
        lr_scheduler.step()
        optimizer.clear_grad()        # 每间隔 100 step 在验证集和测试集上进行评估
        if global_step % 100 == 0:
            evaluate(model, criterion, metric, dev_data_loader, "dev")            
# 训练结束后,存储模型参数save_dir = os.path.join("checkpoint", "model_%d" % global_step)
os.makedirs(save_dir)

save_param_path = os.path.join(save_dir, 'model_state.pdparams')
paddle.save(model.state_dict(), save_param_path)
tokenizer.save_pretrained(save_dir)
登录后复制
   

模型训练过程中会输出如下日志:

global step 5310, epoch: 3, batch: 1578, loss: 0.31671, accu: 0.95000, speed: 0.63 step/sglobal step 5320, epoch: 3, batch: 1588, loss: 0.36240, accu: 0.94063, speed: 6.98 step/sglobal step 5330, epoch: 3, batch: 1598, loss: 0.41451, accu: 0.93854, speed: 7.40 step/sglobal step 5340, epoch: 3, batch: 1608, loss: 0.31327, accu: 0.94063, speed: 7.01 step/sglobal step 5350, epoch: 3, batch: 1618, loss: 0.40664, accu: 0.93563, speed: 7.83 step/sglobal step 5360, epoch: 3, batch: 1628, loss: 0.33064, accu: 0.93958, speed: 7.34 step/sglobal step 5370, epoch: 3, batch: 1638, loss: 0.38411, accu: 0.93795, speed: 7.72 step/sglobal step 5380, epoch: 3, batch: 1648, loss: 0.35376, accu: 0.93906, speed: 7.92 step/sglobal step 5390, epoch: 3, batch: 1658, loss: 0.39706, accu: 0.93924, speed: 7.47 step/sglobal step 5400, epoch: 3, batch: 1668, loss: 0.41198, accu: 0.93781, speed: 7.41 step/seval dev loss: 0.4177, accu: 0.89082global step 5410, epoch: 3, batch: 1678, loss: 0.34453, accu: 0.93125, speed: 0.63 step/sglobal step 5420, epoch: 3, batch: 1688, loss: 0.34569, accu: 0.93906, speed: 7.75 step/sglobal step 5430, epoch: 3, batch: 1698, loss: 0.39160, accu: 0.92917, speed: 7.54 step/sglobal step 5440, epoch: 3, batch: 1708, loss: 0.46002, accu: 0.93125, speed: 7.05 step/sglobal step 5450, epoch: 3, batch: 1718, loss: 0.32302, accu: 0.93188, speed: 7.14 step/sglobal step 5460, epoch: 3, batch: 1728, loss: 0.40802, accu: 0.93281, speed: 7.22 step/sglobal step 5470, epoch: 3, batch: 1738, loss: 0.34607, accu: 0.93348, speed: 7.44 step/sglobal step 5480, epoch: 3, batch: 1748, loss: 0.34709, accu: 0.93398, speed: 7.38 step/sglobal step 5490, epoch: 3, batch: 1758, loss: 0.31814, accu: 0.93437, speed: 7.39 step/sglobal step 5500, epoch: 3, batch: 1768, loss: 0.42689, accu: 0.93125, speed: 7.74 step/seval dev loss: 0.41789, accu: 0.88968
登录后复制
   

基于默认参数配置进行单卡训练大概要持续 4 个小时左右,会训练完成 3 个 Epoch, 模型最终的收敛指标结果如下:

通义万相
通义万相

通义万相,一个不断进化的AI艺术创作大模型

通义万相 596
查看详情 通义万相
数据集 Accuracy
dev.tsv 89.62

可以看到: 我们基于 PaddleNLP ,利用 ERNIE-Gram 预训练模型使用非常简洁的代码,就在权威语义匹配数据集上取得了很不错的效果.

9.模型预测

接下来我们使用已经训练好的语义匹配模型对一些预测数据进行预测。待预测数据为每行都是文本对的 tsv 文件,我们使用 Lcqmc 数据集的测试集作为我们的预测数据,进行预测并提交预测结果到 千言文本相似度竞赛

下载我们已经训练好的语义匹配模型, 并解压

In [ ]
# 下载我们基于 Lcqmc 事先训练好的语义匹配模型并解压! wget https://paddlenlp.bj.bcebos.com/models/text_matching/ernie_gram_zh_pointwise_matching_model.tar
! tar -xvf ernie_gram_zh_pointwise_matching_model.tar
登录后复制
   
In [23]
# 测试数据由 2 列文本构成 tab 分隔# Lcqmc 默认下载到如下路径! head -n10 "${HOME}/.paddlenlp/datasets/LCQMC/lcqmc/lcqmc/test.tsv"
登录后复制
   

9.1定义预测函数

In [24]
def predict(model, data_loader):
    
    batch_probs = []    # 预测阶段打开 eval 模式,模型中的 dropout 等操作会关掉
    model.eval()    with paddle.no_grad():        for batch_data in data_loader:
            input_ids, token_type_ids = batch_data
            input_ids = paddle.to_tensor(input_ids)
            token_type_ids = paddle.to_tensor(token_type_ids)            
            # 获取每个样本的预测概率: [batch_size, 2] 的矩阵
            batch_prob = model(
                input_ids=input_ids, token_type_ids=token_type_ids).numpy()

            batch_probs.append(batch_prob)
        batch_probs = np.concatenate(batch_probs, axis=0)        return batch_probs
登录后复制
   

9.2 定义预测数据的 data_loader

In [25]
# 预测数据的转换函数# predict 数据没有 label, 因此 convert_exmaple 的 is_test 参数设为 Truetrans_func = partial(
    convert_example,
    tokenizer=tokenizer,
    max_seq_length=512,
    is_test=True)# 预测数据的组 batch 操作# predict 数据只返回 input_ids 和 token_type_ids,因此只需要 2 个 Pad 对象作为 batchify_fnbatchify_fn = lambda samples, fn=Tuple(
    Pad(axis=0, pad_val=tokenizer.pad_token_id),  # input_ids
    Pad(axis=0, pad_val=tokenizer.pad_token_type_id),  # segment_ids): [data for data in fn(samples)]# 加载预测数据test_ds = load_dataset("lcqmc", splits=["test"])
登录后复制
   
In [26]
batch_sampler = paddle.io.BatchSampler(test_ds, batch_size=32, shuffle=False)# 生成预测数据 data_loaderpredict_data_loader =paddle.io.DataLoader(
        dataset=test_ds.map(trans_func),
        batch_sampler=batch_sampler,
        collate_fn=batchify_fn,
        return_list=True)
登录后复制
   

9.3 定义预测模型

In [27]
pretrained_model = paddlenlp.transformers.ErnieGramModel.from_pretrained('ernie-gram-zh')

model = PointwiseMatching(pretrained_model)
登录后复制
   

9.4 加载已训练好的模型参数

In [29]
# 刚才下载的模型解压之后存储路径为 ./ernie_gram_zh_pointwise_matching_model/model_state.pdparamsstate_dict = paddle.load("./ernie_gram_zh_pointwise_matching_model/model_state.pdparams")# 刚才下载的模型解压之后存储路径为 ./pointwise_matching_model/ernie1.0_base_pointwise_matching.pdparams# state_dict = paddle.load("pointwise_matching_model/ernie1.0_base_pointwise_matching.pdparams")model.set_dict(state_dict)
登录后复制
   

9.5 开始预测

In [ ]
for idx, batch in enumerate(predict_data_loader):    if idx < 1:        print(batch)
登录后复制
   
In [ ]
# 执行预测函数y_probs = predict(model, predict_data_loader)# 根据预测概率获取预测 labely_preds = np.argmax(y_probs, axis=1)
登录后复制
   

9.6输出预测结果

In [30]
# 我们按照千言文本相似度竞赛的提交格式将预测结果存储在 lcqmc.tsv 中,用来后续提交# 同时将预测结果输出到终端,便于大家直观感受模型预测效果test_ds = load_dataset("lcqmc", splits=["test"])with open("lcqmc.tsv", 'w', encoding="utf-8") as f:
    f.write("index\tprediction\n")    
    for idx, y_pred in enumerate(y_preds):
        f.write("{}\t{}\n".format(idx, y_pred))
        text_pair = test_ds[idx]
        text_pair["label"] = y_pred        print(text_pair)
登录后复制
   

9.7提交 lcqmc 预测结果千言文本相似度竞赛

千言文本相似度竞赛一共有 3 个数据集: lcqmc、bq_corpus、paws-x, 我们刚才生成了 lcqmc 的预测结果 lcqmc.tsv, 同时我们在项目内提供了 bq_corpus、paw-x 数据集的空预测结果,我们将这 3 个文件打包提交到千言文本相似度竞赛,即可看到自己的模型在 Lcqmc 数据集上的竞赛成绩。

In [ ]
# 打包预测结果!zip submit.zip lcqmc.tsv paws-x.tsv bq_corpus.tsv
登录后复制
   
提交预测结果 submit.zip 到 千言文本相似度竞赛

基线竟然如此简单

三、内置 PaddleNLP Datasets API(妈妈说我再也不缺数据集了)

PaddleNLP提供了以下数据集的快速读取API,实际使用时请根据需要添加splits信息:

1.阅读理解

数据集名称 简介 调用方法
SQuAD 斯坦福问答数据集,包括SQuAD1.1和SQuAD2.0 paddlenlp.datasets.load_dataset('squad')
DuReader-yesno 千言数据集:阅读理解,判断答案极性 paddlenlp.datasets.load_dataset('dureader_yesno')
DuReader-robust 千言数据集:阅读理解,答案原文抽取 paddlenlp.datasets.load_dataset('dureader_robust')
CMRC2018 第二届“讯飞杯”中文机器阅读理解评测数据集 paddlenlp.datasets.load_dataset('cmrc2018')
DRCD 台達閱讀理解資料集 paddlenlp.datasets.load_dataset('drcd')

2.文本分类

数据集名称 简介 调用方法
CoLA 单句分类任务,二分类,判断句子是否合法 paddlenlp.datasets.load_dataset('glue','cola')
SST-2 单句分类任务,二分类,判断句子情感极性 paddlenlp.datasets.load_dataset('glue','sst-2')
MRPC 句对匹配任务,二分类,判断句子对是否是相同意思 paddlenlp.datasets.load_dataset('glue','mrpc')
STSB 计算句子对相似性,分数为1~5 paddlenlp.datasets.load_dataset('glue','sts-b')
QQP 判定句子对是否等效,等效、不等效两种情况,二分类任务 paddlenlp.datasets.load_dataset('glue','qqp')
MNLI 句子对,一个前提,一个是假设。前提和假设的关系有三种情况:蕴含(entailment),矛盾(contradiction),中立(neutral)。句子对三分类问题 paddlenlp.datasets.load_dataset('glue','mnli')
QNLI 判断问题(question)和句子(sentence)是否蕴含,蕴含和不蕴含,二分类 paddlenlp.datasets.load_dataset('glue','qnli')
RTE 判断句对是否蕴含,句子1和句子2是否互为蕴含,二分类任务 paddlenlp.datasets.load_dataset('glue','rte')
WNLI 判断句子对是否相关,相关或不相关,二分类任务 paddlenlp.datasets.load_dataset('glue','wnli')
LCQMC A Large-scale Chinese Question Matching Corpus 语义匹配数据集 paddlenlp.datasets.load_dataset('lcqmc')
ChnSentiCorp 中文评论情感分析语料 paddlenlp.datasets.load_dataset('chnsenticorp')

3.序列标注

数据集名称 简介 调用方法
MSRA_NER MSRA 命名实体识别数据集 paddlenlp.datasets.load_dataset('msra_ner')
People's Daily 人民日报命名实体识别数据集 paddlenlp.datasets.load_dataset('peoples_daily_ner')

4.机器翻译

数据集名称 简介 调用方法
IWSLT15 IWSLT'15 English-Vietnamese data 英语-越南语翻译数据集 paddlenlp.datasets.load_dataset('iwslt15')
WMT14ENDE WMT14 EN-DE 经过BPE分词的英语-德语翻译数据集 paddlenlp.datasets.load_dataset('wmt14ende')

5.机器同传

数据集名称 简介 调用方法
BSTC 千言数据集:机器同传,包括transcription_translation和asr paddlenlp.datasets.load_dataset('bstc', 'asr')

6.文本生成

数据集名称 简介 调用方法
Poetry 中文诗歌古典文集数据 paddlenlp.datasets.load_dataset('poetry')
Couplet 中文对联数据集 paddlenlp.datasets.load_dataset('couplet')

7.语料库

数据集名称 简介 调用方法
PTB Penn Treebank Dataset paddlenlp.datasets.load_dataset('ptb')
Yahoo Answer 100k 从Yahoo Answer采样100K paddlenlp.datasets.load_dataset('yahoo_answer_100k')

四、PaddleNLP data API

1.APIl列表

API 简介
paddlenlp.data.Stack 堆叠N个具有相同shape的输入数据来构建一个batch
paddlenlp.data.Pad 堆叠N个输入数据来构建一个batch,每个输入数据将会被padding到N个输入数据中最大的长度
paddlenlp.data.Tuple 将多个batchify函数包装在一起,组成tuple
paddlenlp.data.Dict 将多个batchify函数包装在一起,组成dict
paddlenlp.data.SamplerHelper 构建用于Dataloader的可迭代sampler
paddlenlp.data.Vocab 用于文本token和ID之间的映射
paddlenlp.data.JiebaTokenizer Jieba分词

2.API使用方法

以上API都是用来辅助构建DataLoader,DataLoader比较重要的三个初始化参数是dataset、batch_sampler和collate_fn。

paddlenlp.data.Vocab和paddlenlp.data.JiebaTokenizer用在构建dataset时处理文本token到ID的映射。

paddlenlp.data.SamplerHelper用于构建可迭代的batch_sampler。

paddlenlp.data.Stack、paddlenlp.data.Pad、paddlenlp.data.Tuple和paddlenlp.data.Dict用于构建生成mini-batch的collate_fn函数。

2.1数据预处理

2.1.1 paddlenlp.data.Vocab

paddlenlp.data.Vocab词表类,集合了一系列文本token与ids之间映射的一系列方法,支持从文件、字典、json等一系方式构建词表。

from paddlenlp.data import Vocab# 从文件构建vocab1 = Vocab.load_vocabulary(vocab_file_path)# 从字典构建# dic = {'unk':0, 'pad':1, 'bos':2, 'eos':3, ...}vocab2 = Vocab.from_dict(dic)# 从json构建,一般是已构建好的Vocab对象先保存为json_str或json文件后再进行恢复# json_str方式json_str = vocab1.to_json()
vocab3 = Vocab.from_json(json_str)# json文件方式vocab1.to_json(json_file_path)
vocab4 = Vocab.from_json(json_file_path)
登录后复制
       

2.1.2 paddlenlp.data.JiebaTokenizer

paddlenlp.data.JiebaTokenizer初始化需传入paddlenlp.data.Vocab类,包含cut分词方法和将句子明文转换为ids的encode方法。

from paddlenlp.data import Vocab, JiebaTokenizer# 词表文件路径,运行示例程序可先下载词表文件# wget https://paddlenlp.bj.bcebos.com/data/senta_word_dict.txtvocab_file_path = './senta_word_dict.txt'# 构建词表vocab = Vocab.load_vocabulary(
    vocab_file_path,
    unk_token='[UNK]',
    pad_token='[PAD]')
tokenizer = JiebaTokenizer(vocab)
tokens = tokenizer.cut('我爱你中国') # ['我爱你', '中国']ids = tokenizer.encode('我爱你中国') # [1170578, 575565]
登录后复制
       

2.2 构建Sampler

2.2.1 paddlenlp.data.SamplerHelper

paddlenlp.data.SamplerHelper的作用是构建用于DataLoader的可迭代采样器,它包含shuffle、sort、batch、shard等一系列方法,方便用户灵活使用。

from paddlenlp.data import SamplerHelperfrom paddle.io import Datasetclass MyDataset(Dataset):
    def __init__(self):
        super(MyDataset, self).__init__()
        self.data = [
            [[1, 2, 3, 4], [1]],
            [[5, 6, 7], [0]],
            [[8, 9], [1]],
        ]    def __getitem__(self, index):
        data = self.data[index][0]
        label = self.data[index][1]        return data, label    def __len__(self):
        return len(self.data)

dataset = MyDataset()# SamplerHelper返回的是数据索引的可迭代对象,产生的迭代的索引为:[0, 1, 2]sampler = SamplerHelper(dataset)# `shuffle()`的作用是随机打乱索引顺序,产生的迭代的索引为:[0, 2, 1]sampler = sampler.shuffle()# sort()的作用是按照指定key为排序方式并在buffer_size大小个样本中排序# 示例中以样本第一个字段的长度进行升序排序,产生的迭代的索引为:[2, 0, 1]key = (lambda x, data_source: len(data_source[x][0]))
sampler = sampler.sort(key=key, buffer_size=2)# batch()的作用是按照batch_size组建mini-batch,产生的迭代的索引为:[[2, 0], [1]]sampler = sampler.batch(batch_size=2)# shard()的作用是为多卡训练切分数据集,当前卡产生的迭代的索引为:[[2, 0]]sampler = sampler.shard(num_replicas=2)
登录后复制
       

2.3 构建collate_fn

2.3.1 paddlenlp.data.Stack

paddlenlp.data.Stack用来组建batch,其输入必须具有相同的shape,输出便是这些输入的堆叠组成的batch数据。

from paddlenlp.data import Stack
a = [1, 2, 3, 4]
b = [3, 4, 5, 6]
c = [5, 6, 7, 8]
result = Stack()([a, b, c])"""
[[1, 2, 3, 4],
 [3, 4, 5, 6],
 [5, 6, 7, 8]]
"""
登录后复制
       

2.3.2  paddlenlp.data.Pad

paddlenlp.data.Pad用来组建batch,它的输入长度不同,它首先会将输入数据全部padding到最大长度,然后再堆叠组成batch数据输出。

from paddlenlp.data import Pad
a = [1, 2, 3, 4]
b = [5, 6, 7]
c = [8, 9]
result = Pad(pad_val=0)([a, b, c])"""
[[1, 2, 3, 4],
 [5, 6, 7, 0],
 [8, 9, 0, 0]]
"""
登录后复制
       

2.3.3 paddlenlp.data.Tuple

paddlenlp.data.Tuple会将多个组batch的函数包装在一起,组成tuple。

from paddlenlp.data import Stack, Pad, Tupledata = [
        [[1, 2, 3, 4], [1]],
        [[5, 6, 7], [0]],
        [[8, 9], [1]],
       ]
batchify_fn = Tuple(Pad(pad_val=0), Stack())
ids, label = batchify_fn(data)"""
ids:
[[1, 2, 3, 4],
 [5, 6, 7, 0],
 [8, 9, 0, 0]]
label: [[1], [0], [1]]
"""
登录后复制
       

2.3.4 paddlenlp.data.Dict

paddlenlp.data.Dict会将多个组batch的函数包装在一起,组成dict。

from paddlenlp.data import Stack, Pad, Dictdata = [
        {'labels':[1], 'token_ids':[1, 2, 3, 4]},
        {'labels':[0], 'token_ids':[5, 6, 7]},
        {'labels':[1], 'token_ids':[8, 9]},
       ]
batchify_fn = Dict({'token_ids':Pad(pad_val=0), 'labels':Stack()})
ids, label = batchify_fn(data)"""
ids:
[[1, 2, 3, 4],
 [5, 6, 7, 0],
 [8, 9, 0, 0]]
label: [[1], [0], [1]]
"""
登录后复制
       

2.4 综合示例

from paddlenlp.data import Vocab, JiebaTokenizer, Stack, Pad, Tuple, SamplerHelperfrom paddlenlp.datasets import load_datasetfrom paddle.io import DataLoader# 词表文件路径,运行示例程序可先下载词表文件# wget https://paddlenlp.bj.bcebos.com/data/senta_word_dict.txtvocab_file_path = './senta_word_dict.txt'# 构建词表vocab = Vocab.load_vocabulary(
    vocab_file_path,
    unk_token='[UNK]',
    pad_token='[PAD]')# 初始化分词器tokenizer = JiebaTokenizer(vocab)def convert_example(example):
    text, label = example['text'], example['label']
    ids = tokenizer.encode(text)
    label = [label]    return ids, label

dataset = load_dataset('chnsenticorp', splits='train')
dataset = dataset.map(convert_example, lazy=True)

pad_id = vocab.token_to_idx[vocab.pad_token]
batchify_fn = Tuple(
    Pad(axis=0, pad_val=pad_id),  # ids
    Stack(dtype='int64')  # label)

batch_sampler = SamplerHelper(dataset).shuffle().batch(batch_size=16)
data_loader = DataLoader(
    dataset,
    batch_sampler=batch_sampler,
    collate_fn=batchify_fn,
    return_list=True)# 测试数据集for batch in data_loader:
    ids, label = batch    print(ids.shape, label.shape)    print(ids)    print(label)    break
登录后复制
   
In [ ]
<br/>
登录后复制
   

以上就是『NLP打卡营学习笔记』实践课2:文本语义相似度计算的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号