Marker-Inc-Korea / COT_steering
This repository aims to develop CoT Steering based on CoT without Prompting. It focuses on enhancing the model’s latent reasoning capability without additional training by leveraging Test-Time Scaling techniques.
☆100Updated 3 weeks ago
Alternatives and similar repositories for COT_steering
Users that are interested in COT_steering are comparing it to the libraries listed below
Sorting:
- ☆68Updated last year
- 한국어 언어모델 다분야 사고력 벤치마크☆189Updated 6 months ago
- LLM 모델의 외국어 토큰 생성을 막는 코드 구현☆72Updated last month
- KURE: 고려대학교에서 개발한, 한국어 검색에 특화된 임베딩 모델☆161Updated 2 months ago
- Kor-IR: Korean Information Retrieval Benchmark☆84Updated 10 months ago
- Benchmark in Korean Context☆131Updated last year
- 한글 텍스트 임베딩 모델 리더보드☆88Updated 6 months ago
- [KO-Platy🥮] Korean-Open-platypus를 활용하여 llama-2-ko를 fine-tuning한 KO-platypus model☆75Updated last year
- IA3방식으로 KoAlpaca를 fine tuning한 한국어 LLM모델☆68Updated last year
- ☆46Updated 10 months ago
- Forked repo from https://github.com/EleutherAI/lm-evaluation-harness/commit/1f66adc☆76Updated last year
- 《한 권으로 끝내는 실전 LLM 파인튜닝》 예제 코드☆45Updated 5 months ago
- 사용자가 채팅웹을 통해 자신이 처한 법률적 상황을 제시하면, 입력에 대한 문맥을 모델이 이해하여 가이드라인을 제시하고, 유사한 상황의 판례를 제공하는 웹 서비스입니다. (2023.08.18 서비스 종료)☆51Updated last year
- Korean Sentence Embedding Model Performance Benchmark for RAG☆48Updated 3 months ago
- 한국어 심리 상담 데이터셋☆78Updated last year
- ☆91Updated 5 months ago
- ☆61Updated 2 weeks ago
- AutoRAG 한국어 튜토리얼을 위한 레포입니다.☆65Updated 7 months ago
- Gunmo-emo-classification: 한국어 감정 다중 분류 모델 제작법☆27Updated last year
- The most modern LLM evaluation toolkit☆57Updated 2 weeks ago
- 가짜연 9th 깃허브 잔디심기 Stockelper Multi Agent Backend Fastapi☆64Updated 4 months ago
- hwplib 패키지 python에서 쉽게 사용 할수 있게 만든 github repo 입니다.☆45Updated last month
- ☆124Updated 2 years ago
- ☆41Updated last year
- LangChain 을 더 쉽게 구현하기 위한 유틸 함수, 클래스를 만들어서 패키지로 배포하였습니다.☆92Updated 2 months ago
- Kanana: Compute-efficient Bilingual Language Models☆232Updated 2 months ago
- Korean SAT leader board☆165Updated 2 months ago
- 42dot LLM consists of a pre-trained language model, 42dot LLM-PLM, and a fine-tuned model, 42dot LLM-SFT, which is trained to respond to …☆131Updated last year
- Ko-Arena-Hard-Auto: An automatic LLM benchmark for Korean☆23Updated 3 weeks ago
- TeddyNote Parser API Client Library for Python☆31Updated 2 months ago