Android APK 更新之路(android什么意思)
2013
2022-08-22
pytorch-pretrained-bert的模型-慢的问题
今天需要用到pytorch-pretained-bert,但是-预训练的模型花费了好长时间,这里来分享以下解决方法,其安装过程为:
pip install pytorch-pretrained-bert
如果调用BertModel等模型的时候,需要-相应的预先训练模型,-后的文件存放在cache文件夹:~/.pytorch_pretrained_bert/
但是这个-的过程我是等到了绝望.
后面就自己手动-了该模型,放到了自己的一个目录文件夹下(../temp/bert-base-uncased,cache_dir可以不管),然后直接调用:
model = BertModel.from_pretrained('../temp/bert-base-uncased', cache_dir=temp_dir)
然后就可以正常加载自己-的模型了。预训练模型的-链接为:
PRETRAINED_MODEL_ARCHIVE_MAP = { 'bert-base-uncased': " 'bert-large-uncased': " 'bert-base-cased': " 'bert-base-multilingual': " 'bert-base-chinese': " }
如果自己-很慢,可以求助一些-代理或者找国外的朋友帮你-。
相应的vocab的文件-为:
PRETRAINED_VOCAB_ARCHIVE_MAP = { 'bert-base-uncased': " 'bert-large-uncased': " 'bert-base-cased': " 'bert-large-cased': " 'bert-base-multilingual-uncased': " 'bert-base-multilingual-cased': " 'bert-base-chinese': "demo初探. https://zhuanlan.zhihu.com/p/50773178
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。
发表评论
暂时没有评论,来抢沙发吧~