Marker-Inc-Korea / COT_steeringLinks
This repository aims to develop CoT Steering based on CoT without Prompting. It focuses on enhancing the model’s latent reasoning capability without additional training by leveraging Test-Time Scaling techniques.
☆109Updated this week
Alternatives and similar repositories for COT_steering
Users that are interested in COT_steering are comparing it to the libraries listed below
Sorting:
- LLM 모델의 외국어 토큰 생성을 막는 코드 구현☆74Updated 3 months ago
- KURE: 고려대학교에서 개발한, 한국어 검색에 특화된 임베딩 모델☆166Updated 3 months ago
- ☆68Updated last year
- 한국어 언어모델 다분야 사고력 벤치마크☆191Updated 8 months ago
- Kor-IR: Korean Information Retrieval Benchmark☆85Updated 11 months ago
- IA3방식으로 KoAlpaca를 fine tuning한 한국어 LLM모델☆69Updated last year
- [KO-Platy🥮] Korean-Open-platypus를 활용하여 llama-2-ko를 fine-tuning한 KO-platypus model☆75Updated last year
- The most modern LLM evaluation toolkit☆60Updated this week
- Benchmark in Korean Context☆132Updated last year
- 사용자가 채팅웹을 통해 자신이 처한 법률적 상황을 제시하면, 입력에 대한 문맥을 모델이 이해하여 가이드라인을 제시하고, 유사한 상황의 판례를 제공하는 웹 서비스입니다. (2023.08.18 서비스 종료)☆51Updated last year
- ☆62Updated last month
- ☆48Updated last year
- Korean Sentence Embedding Model Performance Benchmark for RAG☆48Updated 4 months ago
- AutoRAG 한국어 튜토리얼을 위한 레포입니다.☆68Updated 8 months ago
- Forked repo from https://github.com/EleutherAI/lm-evaluation-harness/commit/1f66adc☆78Updated last year
- 한글 텍스트 임베딩 모델 리더보드☆91Updated 8 months ago
- hwplib 패키지 python에서 쉽게 사용 할수 있게 만든 github repo 입니다.☆49Updated 2 months ago
- ☆94Updated 6 months ago
- 구글에서 발표한 Chain-of-Thought Reasoning without Prompting을 코드로 구현한 레포입니다.☆66Updated 8 months ago
- 《한 권으로 끝내는 실전 LLM 파인튜닝》 예제 코드☆46Updated 6 months ago
- AutoRAG example about benchmarking Korean embeddings.☆39Updated 8 months ago
- SKT A.X LLM 4.0☆61Updated 2 weeks ago
- Gunmo-emo-classification: 한국어 감정 다중 분류 모델 제작법☆29Updated last year
- ☆147Updated 3 years ago
- Gugugo: 한국어 오픈소스 번역 모델 프로젝트☆82Updated last year
- 한국어 의료 분야 특화 챗봇 프로젝트☆31Updated last year
- ☆41Updated last year
- 42dot LLM consists of a pre-trained language model, 42dot LLM-PLM, and a fine-tuned model, 42dot LLM-SFT, which is trained to respond to …☆131Updated last year
- 카카오뱅크 & 에프엔가이드에서 학습한 금융 도메인 특화 언어모델☆117Updated last year
- Korean-MTEB☆33Updated 2 weeks ago