到底该怎么将这些顶尖工具用到我的模型里呢?.doc

上传人:白大夫 文档编号:3394855 上传时间:2019-08-21 格式:DOC 页数:3 大小:16.50KB
返回 下载 相关 举报
到底该怎么将这些顶尖工具用到我的模型里呢?.doc_第1页
第1页 / 共3页
亲,该文档总共3页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《到底该怎么将这些顶尖工具用到我的模型里呢?.doc》由会员分享,可在线阅读,更多相关《到底该怎么将这些顶尖工具用到我的模型里呢?.doc(3页珍藏版)》请在三一文库上搜索。

1、到底该怎么将这些顶尖工具用到我的模型里呢?NLP方向近日各种大神工具层出不穷。然而,实践才是硬道理,如何将它们应用到自己的模型是个关键问题。本文就对此问题进行了介绍。近期的NLP方向,ELMO、GPT、BERT、Transformer-XL、GPT-2,各种预训练语言模型层出不穷,这些模型在各种NLP任务上一次又一次刷新上线,令人心驰神往。但是当小编翻开他们的paper,每一个上面都写着四个大字:“弱者退散”,到底该怎么将这些顶尖工具用到我的模型里呢?答案是Hugging Face的大神们开源的pytorch-pretrained-BERT。Github 地址:https:/github/hu

2、ggingface/pytorch-pretrained-BERT模型简介近期的各种预训练语言模型,横扫各种NLP任务,这里我们介绍三个最火的预训练模型:BERT,由Google AI团队,发表于2018年10月11日。它的文章是:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding。Transformer-XL, 由Google AI和Carnegie Mellon大学,发表于2019年1月9日。它的文章是:Transformer-XL: Attentive Language Mode

3、ls Beyond a Fixed-Length Context。GPT-2,由OpenAI 团队,发表于2019年2月14日,它的文章是:Language Models are Unsupervised Multitask Learners。基本上,每一个文章,都在发表的时候,刷新当时的几乎所有NLP任务的State-of-the-Art,然后引发一波热潮。 当然,目前风头正盛的是GPT-2,它前几天刚发表。开源实现然而,让小编翻开他们的paper,发现每一个上面都写着四个大字:“弱者退散”,到底该怎么将这些顶尖工具用到我的模型里呢,Hugging Face 的大神们,紧跟前沿,将所有的预训

4、练语言模型都实现并开源了。更令人钦佩的是,它们还做了很多封装,让大家都可以才在这些巨人模型的肩膀上。Hugging Face开源的库叫pytorch-pretained-bert, 你可以在本文开头找到链接。接下来的部分,我们介绍一下它的安装和使用。安装使用你可以直接使用 Pip install 来安装它:pip install pytorch-pretrained-bertpytorch-pretrained-bert 内 BERT,GPT,Transformer-XL,GPT-2。为了获取一句话的BERT表示,我们可以:拿到表示之后,我们可以在后面,接上自己的模型,比如NER。我们也可以获

5、取GPT的表示:Transformer-XL表示:以及,非常火的,GPT-2的表示:有了这些表示,我们可以在后面,接入自己的模型,比如:文本分类https:/github/huggingface/pytorch-pretrained-BERT/blob/master/examples/run_classifier.py阅读理解https:/github/huggingface/pytorch-pretrained-BERT/blob/master/examples/run_squad.py语言模型https:/github/huggingface/pytorch-pretrained-BERT/blob/master/examples/run_lm_finetuning.py等等

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 其他


经营许可证编号:宁ICP备18001539号-1