全网最详细的Bert4torch入门教程

网友投稿 1204 2022-09-30

全网最详细的Bert4torch入门教程

全网最详细的Bert4torch入门教程

本人经常会阅读苏神的科学空间网站,里面有很多对前言paper浅显易懂的解释,以及很多苏神自己的创新实践;并且基于bert4keras框架都有了相应的代码实现。但是由于本人主要用pytorch开发,因此参考bert4keras开发了bert4torch项目,实现了bert4keras的主要功能。

目录

​​简介​​

​​主要功能​​

​​支持的预训练权重(bert4torch)​​

​​实战​​

​​1. 建模流程示例​​

​​2. 主要模块讲解​​

​​1) 数据处理部分​​

​​a. 精简词表,并建立分词器​​

​​b. 好用的小函数​​

​​2) 模型定义部分​​

​​3) 模型评估部分​​

​​3. 其他特性讲解​​

​​1) 单机多卡训练​​

​​a. 使用DataParallel​​

​​b. 使用DistributedDataParallel​​

​​2) tensorboard保存训练过程​​

​​3) 打印训练参数​​

简介

bert4torch是一个基于pytorch的训练框架,前期以效仿和实现bert4keras的主要功能为主,方便加载多类预训练模型进行finetune,提供了中文注释方便用户理解模型结构。主要是期望应对新项目时,可以直接调用不同的预训练模型直接finetune,或方便用户基于bert进行魔改,快速验证自己的idea;节省在github上clone各种项目耗时耗力,且本地文件各种copy的问题。

pip安装

pip install bert4torch

github链接​​seq_len, hdsz]的隐含层向量后做各种魔改

3、调用方式和bert4keras基本一致,简洁高效

model.fit( train_dataloader, steps_per_epoch=1000, epochs=epochs, callbacks=[evaluator] )

4、实现基于keras的训练进度条动态展示

仿照keras的模型训练进度条

5、配合torchinfo,实现打印各层参数量功能

打印参数

6、结合logger,或者tensorboard可以在后台打印日志

支持在训练开始/结束,batch开始/结束,epoch的开始/结束,记录日志,写tensorboard等

class Callback(object): '''Callback基类 ''' def __init__(self): pass def on_train_begin(self, logs=None): pass def on_train_end(self, logs=None): pass def on_epoch_begin(self, global_step, epoch, logs=None): pass def on_epoch_end(self, global_step, epoch, logs=None): pass def on_batch_begin(self, global_step, batch, logs=None): pass def on_batch_end(self, global_step, batch, logs=None): pass

7、集成多个example,可以作为自己的训练框架,方便在同一个数据集上尝试多种解决方案

实现多个example可供参考

支持的预训练权重(bert4torch)

实战

1. 建模流程示例

# 建立分词器tokenizer = Tokenizer(dict_path, do_lower_case=True)# 加载数据集,可以自己继承Dataset来定义class MyDataset(ListDataset): @staticmethod def load_data(filenames): """读取文本文件,整理成需要的格式 """ D = [] return Ddef collate_fn(batch): '''处理上述load_data得到的batch数据,整理成对应device上的Tensor 注意:返回值分为feature和label, feature可整理成list或tuple ''' batch_token_ids, batch_segment_ids, batch_labels = [], [], [] return [batch_token_ids, batch_segment_ids], batch_labels.flatten()# 加载数据集train_dataloader = DataLoader(MyDataset('file_path'), batch_size=batch_size, shuffle=True, collate_fn=collate_fn) # 定义bert上的模型结构,以文本二分类为例class Model(BaseModel): def __init__(self) -> None: super().__init__() self.bert = build_transformer_model(config_path, checkpoint_path, with_pool=True) self.dropout = nn.Dropout(0.1) self.dense = nn.Linear(768, 2) def forward(self, token_ids, segment_ids): # build_transformer_model得到的模型仅接受list/tuple传参,因此入参只有一个时候包装成[token_ids] hidden_states, pooled_output = self.bert([token_ids, segment_ids]) output = self.dropout(pooled_output) output = self.dense(output) return outputmodel = Model().to(device)# 定义使用的loss和optimizer,这里支持自定义model.compile( loss=nn.CrossEntropyLoss(), # 可以自定义Loss optimizer=optim.Adam(model.parameters(), lr=2e-5), # 可以自定义优化器 scheduler=None, # 可以自定义scheduler metrics=['accuracy'])# 定义评价函数def evaluate(data): total, right = 0., 0. for x_true, y_true in data: y_pred = model.predict(x_true).argmax(axis=1) total += len(y_true) right += (y_true == y_pred).sum().item() return right / totalclass Evaluator(Callback): """评估与保存,这里定义仅在epoch结束后调用 """ def __init__(self): self.best_val_acc = 0. def on_epoch_end(self, global_step, epoch, logs=None): val_acc = evaluate(valid_dataloader) if val_acc > self.best_val_acc: self.best_val_acc = val_acc model.save_weights('best_model.pt') print(f'val_acc: {val_acc:.5f}, best_val_acc: {self.best_val_acc:.5f}\n')if __name__ == '__main__': evaluator = Evaluator() model.fit(train_dataloader, epochs=20, steps_per_epoch=100, grad_accumulation_steps=2, callbacks=[evaluator])

2. 主要模块讲解

1) 数据处理部分

a. 精简词表,并建立分词器

token_dict, keep_tokens = load_vocab( dict_path=dict_path, # 词典文件路径 simplified=True, # 过滤冗余部分token,如[unused1] startswith=['[PAD]', '[UNK]', '[CLS]', '[SEP]'], # 指定起始的token,如[UNK]从bert默认的103位置调整到1)tokenizer = Tokenizer(token_dict, do_lower_case=True) # 若无需精简,仅使用当前行定义tokenizer即可

b. 好用的小函数

​​text_segmentate()​​: 截断总长度至不超过maxlen, 接受多个sequence输入,每次截断最长的句子,indices表示删除的token位置​​tokenizer.encode()​​​: 把text转成token_ids,默认句首添加[CLS],句尾添加[SEP],返回token_ids和segment_ids,相当于同时调用​​tokenizer.tokenize()​​和​​tokenizer.tokens_to_ids()​​​​tokenizer.decode()​​​: 把token_ids转成text,默认会删除[CLS], [SEP], [UNK]等特殊字符,相当于调用​​tokenizer.ids_to_tokens()​​并做了一些后处理​​sequence_padding​​: 将序列padding到同一长度, 传入一个元素为list, ndarray, tensor的list,返回ndarry或tensor

2) 模型定义部分

模型创建​​​​​​​

'''调用模型后,若设置with_pool, with_nsp, with_mlm,则返回值依次为[hidden_states, pool_emb/nsp_emb, mlm_scores],否则只返回hidden_states'''build_transformer_model( config_path=config_path, # 模型的config文件地址 checkpoint_path=checkpoint_path, # 模型文件地址,默认值None表示不加载预训练模型 model='bert', # 加载的模型结构,这里Model也可以基于nn.Module自定义后传入 application='encoder', # 模型应用,支持encoder,lm和unilm格式 segment_vocab_size=2, # type_token_ids数量,默认为2,如不传入segment_ids则需设置为0 with_pool=False, # 是否包含Pool部分 with_nsp=False, # 是否包含NSP部分 with_mlm=False, # 是否包含MLM部分 return_model_config=False, # 是否返回模型配置参数 output_all_encoded_layers=False, # 是否返回所有hidden_state层)

定义loss,optimizer,scheduler等​​​​​​​

'''定义使用的loss和optimizer,这里支持自定义'''model.compile( loss=nn.CrossEntropyLoss(), # 可以自定义Loss optimizer=optim.Adam(model.parameters(), lr=2e-5), # 可以自定义优化器 scheduler=None, # 可以自定义scheduler adversarial_train={'name': 'fgm'}, # 训练trick方案设置,支持fgm, pgd, gradient_penalty, vat metrics=['accuracy'] # loss等默认打印的字段无需设置)

自定义模型​​​​​​​

'''基于bert上层的各类魔改,如last2layer_average, token_first_last_average'''class Model(BaseModel): # 需要继承BaseModel def __init__(self): super().__init__() self.bert = build_transformer_model(config_path, checkpoint_path) def forward(self): pass

自定义训练过程​​​​​​​

'''自定义fit过程,适用于自带fit()不满足需求时'''class Model(BaseModel): def fit(self, train_dataloader, steps_per_epoch, epochs): train_dataloader = cycle(train_dataloader) self.train() for epoch in range(epochs): for bti in range(steps_per_epoch): train_X, train_y = next(train_dataloader) output = self.forward(*train_X) loss = self.criterion(output, train_y) loss.backward() self.optimizer.step() self.optimizer.zero_grad()

模型保存和加载​​​​​​​

'''prefix: 是否以原始的key来保存,如word_embedding原始key为bert.embeddings.word_embeddings.weight默认为None表示不启用, 若基于BaseModel自定义模型,需指定为bert模型对应的成员变量名,直接使用设置为''主要是为了别的训练框架容易加载'''model.save_weights(save_path, prefix=None)model.load_weights(load_path, strict=True, prefix=None)

加载transformers模型进行训练​​​​​​​

from transformers import AutoModelForSequenceClassificationclass Model(BaseModel): def __init__(self): super().__init__() self.bert = AutoModelForSequenceClassification.from_pretrained("file_path", num_labels=2) def forward(self, token_ids, attention_mask, segment_ids): output = self.bert(input_ids=token_ids, attention_mask=attention_mask, token_type_ids=segment_ids) return output.logits

3) 模型评估部分

'''支持在多个位置执行'''class Evaluator(Callback): """评估与保存 """ def __init__(self): self.best_val_acc = 0. def on_train_begin(self, logs=None): # 训练开始时候 pass def on_train_end(self, logs=None): # 训练结束时候 pass def on_batch_begin(self, global_step, batch, logs=None): # batch开始时候 pass def on_batch_end(self, global_step, batch, logs=None): # batch结束时候 # 可以设置每隔多少个step,后台记录log,写tensorboard等 # 尽量不要在batch_begin和batch_end中print,防止打断进度条功能 pass def on_epoch_begin(self, global_step, epoch, logs=None): # epoch开始时候 pass def on_epoch_end(self, global_step, epoch, logs=None): # epoch结束时候 val_acc = evaluate(valid_dataloader) if val_acc > self.best_val_acc: self.best_val_acc = val_acc model.save_weights('best_model.pt') print(f'val_acc: {val_acc:.5f}, best_val_acc: {self.best_val_acc:.5f}\n')

3. 其他特性讲解

1) 单机多卡训练

a. 使用DataParallel

'''DP有两种方式,第一种是forward只计算logit,第二种是forward直接计算loss建议使用第二种,可以部分缓解负载不均衡的问题'''from bert4torch.models import BaseModelDP# ===========处理数据和定义model===========model = BaseModelDP(model) # 指定DP模式使用多gpumodel.compile( loss=lambda x, _: x.mean(), # 多个gpu计算的loss的均值 optimizer=optim.Adam(model.parameters(), lr=2e-5), # 用足够小的学习率)

b. 使用DistributedDataParallel

'''DDP使用torch.distributed.launch,从命令行启动'''# 需要定义命令行参数parser = argparse.ArgumentParser()parser.add_argument("--local_rank", type=int, default=-1)args = parser.parse_args()torch.cuda.set_device(args.local_rank)device = torch.device('cuda', args.local_rank)torch.distributed.init_process_group(backend='nccl')# ===========处理数据和定义model===========# 指定DDP模型使用多gpu, master_rank为指定用于打印训练过程的local_rankmodel = BaseModelDDP( model, master_rank=0, device_ids=[args.local_rank], output_device=args.local_rank, find_unused_parameters=False )# 定义使用的loss和optimizer,这里支持自定义model.compile(loss=lambda x, _: x, # 直接把forward计算的loss传出来optimizer=optim.Adam(model.parameters(), lr=2e-5), # 用足够小的学习率)

2) tensorboard保存训练过程

from tensorboardX import SummaryWriterclass Evaluator(Callback): """每隔多少个step评估并记录tensorboard """ def on_batch_end(self, global_step, batch, logs=None): if global_step % 100 == 0: writer.add_scalar(f"train/loss", logs['loss'], global_step) val_acc = evaluate(valid_dataloader) writer.add_scalar(f"valid/acc", val_acc, global_step)

3) 打印训练参数

from torchinfo import summarysummary(model, input_data=next(iter(train_dataloader))[0])

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:小程序开发用什么编程语言(小程序开发用什么编程语言最好)
下一篇:关于Mybatis与JPA的优缺点说明
相关文章

 发表评论

暂时没有评论,来抢沙发吧~