nlpai-lab / KURELinks
KURE: 고려대학교에서 개발한, 한국어 검색에 특화된 임베딩 모델
☆177Updated last month
Alternatives and similar repositories for KURE
Users that are interested in KURE are comparing it to the libraries listed below
Sorting:
- 한국어 언어모델 다분야 사고력 벤치마크☆196Updated 10 months ago
- 한글 텍스트 임베딩 모델 리더보드☆93Updated 10 months ago
- Korean Sentence Embedding Model Performance Benchmark for RAG☆48Updated 7 months ago
- Benchmark in Korean Context☆136Updated last year
- Kor-IR: Korean Information Retrieval Benchmark☆89Updated last year
- LLM 모델의 외국어 토큰 생성을 막는 코드 구현☆79Updated 3 weeks ago
- 사용자가 채팅웹을 통해 자신이 처한 법률적 상황을 제시하면, 입력에 대한 문맥을 모델이 이해하여 가이드라인을 제시하고, 유사한 상황의 판례를 제공하는 웹 서비스입니다. (2023.08.18 서비스 종료)☆49Updated last week
- This repository aims to develop CoT Steering based on CoT without Prompting. It focuses on enhancing the model’s latent reasoning capabil…☆112Updated 2 months ago
- ☆68Updated last year
- SKT A.X LLM 4.0☆133Updated last month
- [KO-Platy🥮] Korean-Open-platypus를 활용하여 llama-2-ko를 fine-tuning한 KO-platypus model☆75Updated last week
- 언어모델을 학습하기 위한 공개 한국어 instruction dataset들을 모아두었습니다.☆434Updated 4 months ago
- 한국어 사전학습 모델을 활용한 문장 임베딩☆196Updated 2 years ago
- Official datasets and pytorch implementation repository of SQuARe and KoSBi (ACL 2023)☆244Updated 2 years ago
- The most modern LLM evaluation toolkit☆70Updated last week
- IA3방식으로 KoAlpaca를 fine tuning한 한국어 LLM 모델☆69Updated 2 years ago
- Forked repo from https://github.com/EleutherAI/lm-evaluation-harness/commit/1f66adc☆80Updated last year
- Korean Sentence Embedding Repository☆209Updated 9 months ago
- 카카오뱅크 & 에프엔가이드에서 학습한 금융 도메인 특화 언어모델☆119Updated last year
- Korean Multi-task Instruction Tuning☆158Updated last year
- ☆106Updated last month
- ☆147Updated 3 years ago
- KoRean based SBERT pre-trained models (KR-SBERT) for PyTorch☆100Updated 3 years ago
- '내마리'는 나의 이야기에 귀를 기울임으로써 나에게 공감하고, 이야기의 맥락을 파악하고, 더 깊은 내용을 질문해주는 챗봇입니다.☆14Updated last year
- Korean-MTEB☆50Updated 2 months ago
- 한국어 심리 상담 데이터셋☆79Updated 2 years ago
- ☆78Updated last year
- AutoRAG 한국어 튜토리얼을 위한 레포입니다.☆73Updated 10 months ago
- ☆123Updated 2 years ago
- 42dot LLM consists of a pre-trained language model, 42dot LLM-PLM, and a fine-tuned model, 42dot LLM-SFT, which is trained to respond to …☆130Updated last year