sooftware / Korean-PLM
List of Korean pre-trained language models.
☆189Updated last year
Alternatives and similar repositories for Korean-PLM:
Users that are interested in Korean-PLM are comparing it to the libraries listed below
- EDA를 한국어 데이터에서도 사용할 수 있도록 WordNet을 추가☆107Updated 4 years ago
- ☆195Updated last year
- Jiphyeonjeon Season 2☆121Updated 2 years ago
- 🤗 Korean Comments ELECTRA: 한국어 댓글로 학습한 ELECTRA 모델☆245Updated 2 years ago
- tools for Natural Language Processing☆78Updated last year
- 🦅 Pretrained BigBird Model for Korean (up to 4096 tokens)☆202Updated last year
- Korean Sentence Embedding Repository☆206Updated 2 months ago
- <파이토치로 배우는 자연어 처리>(한빛미디어, 2021)의 소스 코드를 위한 저장소입니다.☆133Updated 7 months ago
- ☆145Updated 2 years ago
- Jiphyeonjeon Season 1☆179Updated 3 years ago
- Summarization module based on KoBART☆197Updated last year
- Sentence Embeddings using Siamese SKT KoBERT-Networks☆136Updated 2 years ago
- ☆73Updated 3 years ago
- KLUE 데이터를 활용한 HuggingFace Transformers 튜토리얼☆129Updated 3 years ago
- Transformer 이후 나온 Pretrained Language Model을 간단하게 구현하였음.☆126Updated 4 years ago
- KoBERT on 🤗 Huggingface Transformers 🤗 (with Bug Fixed)☆206Updated 6 months ago
- Korean Online That-gul Emotions Dataset☆120Updated last year
- 🇰🇷 Text to Image in Korean☆85Updated 3 years ago
- KoBertSum은 BertSum모델을 한국어 데이터에 적용할 수 있도록 수정한 한국어 요약 모델입니다.☆83Updated 3 years ago
- <트랜스포머를 활용한 자연어 처리> 예제 코드를 위한 저장소입니다.☆136Updated last year
- 부스트캠프 AI Tech 수료생 커뮤니티 event wiki☆32Updated last year
- "A survey of Transformer" paper study 👩🏻💻🧑🏻💻 KoreaUniv. DSBA Lab☆186Updated 3 years ago
- 개인적으로 수집한 한국어 NLP용 말뭉치 모음☆133Updated 4 years ago
- pratical tips for Natural Language Processing☆100Updated 2 years ago
- ☆91Updated 2 years ago
- Korean Language Model을 이용한 심리상담 대화 언어 모델☆209Updated last year
- KoRean based SBERT pre-trained models (KR-SBERT) for PyTorch☆94Updated 2 years ago
- 한국어 사전학습 모델을 활용한 문장 임베딩☆180Updated last year
- 최신 자연어처리 모델 소개☆75Updated 2 years ago
- 언어모델을 학습하기 위한 공개 한국어 instruction dataset들을 모아두었습니다.☆387Updated this week