naver-ai / korean-safety-benchmarksLinks
Official datasets and pytorch implementation repository of SQuARe and KoSBi (ACL 2023)
☆247Updated 2 years ago
Alternatives and similar repositories for korean-safety-benchmarks
Users that are interested in korean-safety-benchmarks are comparing it to the libraries listed below
Sorting:
- Benchmark in Korean Context☆136Updated 2 years ago
- 한국어 언어모델 다분야 사고력 벤치마크☆198Updated last year
- Korean Sentence Embedding Repository☆210Updated 10 months ago
- KURE: 고려대학교에서 개발한, 한국어 검색에 특화된 임베딩 모델☆189Updated last month
- 사용자가 채팅웹을 통해 자신이 처한 법률적 상황을 제시하면, 입력에 대한 문맥을 모델이 이해하여 가이드라인을 제시하고, 유사한 상황의 판례를 제공하는 웹 서비스입니다. (2023.08.18 서비스 종료)☆50Updated 2 months ago
- [KO-Platy🥮] Korean-Open-platypus를 활용하여 llama-2-ko를 fine-tuning한 KO-platypus model☆75Updated 2 months ago
- 언어모델을 학습하기 위한 공개 한국어 instruction dataset들을 모아두었습니다.☆437Updated 6 months ago
- Forked repo from https://github.com/EleutherAI/lm-evaluation-harness/commit/1f66adc☆80Updated last year
- List of Korean pre-trained language models.☆188Updated 2 years ago
- ☆147Updated 3 years ago
- ☆108Updated 3 months ago
- ☆197Updated 2 years ago
- ChatGPT의 RLHF를 학습을 위한 3가지 step별 한국어 데이터셋☆38Updated last year
- The most modern LLM evaluation toolkit☆70Updated last month
- SKT A.X LLM 4.0☆139Updated 3 months ago
- IA3방식으로 KoAlpaca를 fine tuning한 한국어 LLM모델☆69Updated 2 years ago
- 카카오뱅크 & 에프엔가이드에서 학습한 금융 도메인 특화 언어모델☆120Updated last year
- Sentence Embeddings using Siamese SKT KoBERT☆142Updated 2 years ago
- Korean Multi-task Instruction Tuning☆158Updated last year
- ☆79Updated last year
- 🦅 Pretrained BigBird Model for Korean (up to 4096 tokens)☆202Updated last year
- ☆123Updated 2 years ago
- 한국어 사전학습 모델을 활용한 문장 임베딩☆201Updated 2 years ago
- Curation note of NLP datasets☆99Updated 2 years ago
- Full Stack SolarLLM Zero to All☆168Updated 7 months ago
- LLM 모델의 외국어 토큰 생성을 막는 코드 구현☆80Updated 2 months ago
- Pecab: Pure python Korean morpheme analyzer based on Mecab☆171Updated last year
- 42dot LLM consists of a pre-trained language model, 42dot LLM-PLM, and a fine-tuned model, 42dot LLM-SFT, which is trained to respond to …☆130Updated last year
- pratical tips for Natural Language Processing☆101Updated 3 years ago
- tools for Natural Language Processing☆82Updated 2 years ago