DataXujing / NLP-paper
NLP 自然语言处理教程 https://dataxujing.github.io/NLP-paper/
☆32Updated 3 years ago
Alternatives and similar repositories for NLP-paper:
Users that are interested in NLP-paper are comparing it to the libraries listed below
- BLOOM 模型的指令微调☆24Updated last year
- 基于 pytorch 的 bert 实现和下游任务微调☆48Updated 2 years ago
- 商品标题实体识别☆23Updated 2 years ago
- RelExt: A Tool for Relation Extraction from Text. 文本实体关系抽取工具。☆48Updated 2 years ago
- 多模型中文cnews新闻文本分类☆53Updated 4 years ago
- 自己之前收集的自然语言处理和知识图谱相关的一些开源项目☆45Updated 4 years ago
- 天池-Datawhale 零基础入门NLP-新闻文本分类 最终榜Top10分享☆56Updated 4 years ago
- 用BERT在百度WebQA中文问答数据集上做阅读问答☆65Updated 4 years ago
- NLP学习笔记的Notebook,包含经典模型的理解与相关实践。☆56Updated 4 years ago
- 基于Pytorch实现的中文文本分类脚手架,以及常用模型对比。☆18Updated 3 years ago
- Implementing BERT + CRF with PyTorch for Chinese NER.☆10Updated 2 years ago
- The repository is used to record some useful and reusable codes.☆43Updated 4 years ago
- NLP 相关的项目 如:词向量,文本分类,文本匹配,NER,信息抽取,文本生成以及NLP在电商中的应用☆33Updated last year
- Simple Transformers四种任务(分类、命名实体识别、机器阅读理解、语言模型微调)的代码样例,可以切换多种预训练模型。☆23Updated 2 years ago
- 仓库主要记录 NLP 算法工程师相关的顶会论文研读笔记【文本匹配篇】☆11Updated 2 years ago
- 使用sentence-transformers(SBert)训练自己的文本相似度数据集并进行评估。☆46Updated 3 years ago
- WoBERT Pytorch 版本,中文词汇级Bert:WoBERT学习☆21Updated 4 years ago
- 基于PaddleNLP开源的抽取式UIE进行医学命名实体识别(torch实现)☆44Updated 2 years ago
- benchmark of KgCLUE, with different models and methods☆27Updated 3 years ago
- bert-flat 简化版 添加了很多注释☆15Updated 3 years ago
- 基于中文TaCL-BERT的中文命名实体识别及中文分词☆32Updated 3 years ago
- A full-process dialogue system that can be deployed online☆98Updated 2 years ago
- sodic2021 法律咨询智能问答 Baseline 线上35+☆17Updated 3 years ago
- bert pytorch模型微调用于的多标签文本分类☆128Updated 5 years ago
- 一套代码指令微调大模型☆38Updated last year
- 微调预训练语言模型(BERT、Roberta、XLBert等),用于计算两个文本之间的相似度(通过句子对分类任务转换),适用于中文文本☆89Updated 4 years ago
- 这是使用pytoch 实现的长文本分类器☆45Updated 5 years ago
- 句子匹配模型,包括无监督的SimCSE、ESimCSE、PromptBERT,和有监督的SBERT、CoSENT。☆97Updated 2 years ago
- 论文模型复现☆42Updated 2 years ago
- 神经网络各种模型PyTorch实现☆39Updated 2 years ago