rickiepark / nlp-with-pytorch
<파이토치로 배우는 자연어 처리>(한빛미디어, 2021)의 소스 코드를 위한 저장소입니다.
☆133Updated 5 months ago
Alternatives and similar repositories for nlp-with-pytorch:
Users that are interested in nlp-with-pytorch are comparing it to the libraries listed below
- <트랜스포머를 활용한 자연어 처리> 예제 코드를 위한 저장소입니다.☆133Updated last year
- tools for Natural Language Processing☆78Updated last year
- EDA를 한국어 데이터에서도 사용할 수 있도록 WordNet을 추가☆107Updated 4 years ago
- KB국민은행에서 제공하는 경제/금융 도메인에 특화된 한국어 ALBERT 모델☆230Updated 3 years ago
- 김웅곤 - 텐서플로우와 케라스로 구현한 NLP 기초 (2020년 버전)☆180Updated 3 years ago
- 🤗 Korean Comments ELECTRA: 한국어 댓글로 학습한 ELECTRA 모델☆244Updated 2 years ago
- Jiphyeonjeon Season 1☆179Updated 3 years ago
- pratical tips for Natural Language Processing☆100Updated 2 years ago
- 한국어 자연어처리 튜토리얼☆116Updated 4 years ago
- 《머신러닝·딥러닝 문제해결 전략》☆157Updated 2 years ago
- Transformer 이후 나온 Pretrained Language Model을 간단하게 구현하였음.☆126Updated 4 years ago
- 개인적으로 수집한 한국어 NLP용 말뭉치 모음☆133Updated 4 years ago
- Chatbot_data_for_Korean☆356Updated last year
- Jiphyeonjeon Season 2☆121Updated 2 years ago
- ☆35Updated 2 years ago
- List of Korean pre-trained language models.☆188Updated last year
- Korean Language Model을 이용한 심리상담 대화 언어 모델☆207Updated last year
- Summarization module based on KoBART☆197Updated last year
- 텐서플로2와 머신러닝으로 시작하는 자연어처리 (로지스틱회귀부터 BERT와 GPT3까지) 실습자료☆274Updated 2 years ago
- Sentence Embeddings using Siamese SKT KoBERT-Networks☆134Updated 2 years ago
- KoBertSum은 BertSum모델을 한국어 데이터에 적용할 수 있도록 수정한 한국어 요약 모델입니다.☆83Updated 3 years ago
- KNU(케이앤유) 한국어 감성사전☆152Updated 3 years ago
- 도서 내의 코드들을 모아 놓은 repo입니다.☆80Updated 3 years ago
- Implementation TextRank and related utils☆86Updated 3 years ago
- 텍스트 요약 분야의 주요 연구 주제, Must-read Papers, 이용 가능한 model 및 data 등을 추천 자료와 함께 정리한 저장소입니다.☆337Updated 2 years ago
- This repository provides list of Korean NLP papers.☆204Updated 4 years ago
- KoBERT on 🤗 Huggingface Transformers 🤗 (with Bug Fixed)☆207Updated 4 months ago
- 자연어처리 바이블의 실습 자료입니다.☆53Updated 2 years ago
- 한빛미디어 처음 배우는 딥러닝 챗봇☆53Updated 2 years ago