instructkr / LogicKor
한국어 언어모델 다분야 사고력 벤치마크
☆185Updated 4 months ago
Alternatives and similar repositories for LogicKor:
Users that are interested in LogicKor are comparing it to the libraries listed below
- KURE: 고려대학교에서 개발한, 한국어 검색에 특화된 임베딩 모델☆140Updated this week
- ☆66Updated 11 months ago
- [KO-Platy🥮] Korean-Open-platypus를 활용하여 llama-2-ko를 fine-tuning한 KO-platypus model☆77Updated last year
- 한글 텍스트 임베딩 모델 리더보드☆70Updated 4 months ago
- Benchmark in Korean Context☆128Updated last year
- IA3방식으로 KoAlpaca를 fine tuning한 한국어 LLM모델☆68Updated last year
- Forked repo from https://github.com/EleutherAI/lm-evaluation-harness/commit/1f66adc☆76Updated last year
- Kor-IR: Korean Information Retrieval Benchmark☆83Updated 8 months ago
- 언어모델을 학습하기 위한 공개 한국어 instruction dataset들을 모아두었습니다.☆391Updated 2 weeks ago
- 한국어 사전학습 모델을 활용한 문장 임베딩☆180Updated last year
- Korean Multi-task Instruction Tuning☆157Updated last year
- Official datasets and pytorch implementation repository of SQuARe and KoSBi (ACL 2023)☆240Updated last year
- 사용자가 채팅웹을 통해 자신이 처한 법률적 상황을 제시하면, 입력에 대한 문맥을 모델이 이해하여 가이드라인을 제시하고, 유사한 상황의 판례를 제공하는 웹 서비스입니다. (2023.08.18 서비스 종료)☆50Updated last year
- ☆68Updated 9 months ago
- 카카오뱅크 & 에프엔가이드에서 학습한 금융 도메인 특화 언어모델☆112Updated last year
- AutoRAG 한국어 튜토리얼을 위한 레포입니다.☆62Updated 5 months ago
- Korean Sentence Embedding Model Performance Benchmark for RAG☆47Updated last month
- LangChain 을 더 쉽게 구현하기 위한 유틸 함수, 클래스를 만들어서 패키지로 배포하였습니다.☆78Updated last month
- ☆43Updated 8 months ago
- ☆124Updated last year
- tools for Natural Language Processing☆78Updated last year
- <트랜스포머를 활용한 자연어 처리> 예제 코드를 위한 저장소입니다.☆138Updated last year
- 한국어 심리 상담 데이터셋☆76Updated last year
- Liner LLM Meetup archive☆72Updated 11 months ago
- Korean Sentence Embedding Repository☆207Updated 3 months ago
- KoRean based SBERT pre-trained models (KR-SBERT) for PyTorch☆95Updated 2 years ago
- ☆41Updated last year
- 가짜연 9th 깃허브 잔디심기 Stockelper Multi Agent Backend Fastapi☆59Updated last month
- AutoRAG example about benchmarking Korean embeddings.☆34Updated 5 months ago
- 42dot LLM consists of a pre-trained language model, 42dot LLM-PLM, and a fine-tuned model, 42dot LLM-SFT, which is trained to respond to …☆127Updated 11 months ago