Marker-Inc-Korea / KO-Platypus
[KO-Platy๐ฅฎ] Korean-Open-platypus๋ฅผ ํ์ฉํ์ฌ llama-2-ko๋ฅผ fine-tuningํ KO-platypus model
โ77Updated last year
Related projects โ
Alternatives and complementary repositories for KO-Platypus
- IA3๋ฐฉ์์ผ๋ก KoAlpaca๋ฅผ fine tuningํ ํ๊ตญ์ด LLM๋ชจ๋ธโ68Updated last year
- Benchmark in Korean Contextโ123Updated last year
- โ55Updated 8 months ago
- Forked repo from https://github.com/EleutherAI/lm-evaluation-harness/commit/1f66adcโ69Updated 8 months ago
- ํ๊ตญ์ด ์ธ์ด๋ชจ๋ธ ๋ค๋ถ์ผ ์ฌ๊ณ ๋ ฅ ๋ฒค์น๋งํฌโ175Updated last month
- KURE: ๊ณ ๋ ค๋ํ๊ต์์ ๊ฐ๋ฐํ, ํ๊ตญ์ด ๊ฒ์์ ํนํ๋ ์๋ฒ ๋ฉ ๋ชจ๋ธโ37Updated 3 weeks ago
- Korean Sentence Embedding Model Performance Benchmark for RAGโ45Updated 6 months ago
- Kor-IR: Korean Information Retrieval Benchmarkโ72Updated 4 months ago
- โ41Updated 11 months ago
- Liner LLM Meetup archiveโ72Updated 7 months ago
- ํ๊ตญ์ด ์ฌ๋ฆฌ ์๋ด ๋ฐ์ดํฐ์ โ74Updated last year
- โ124Updated last year
- Korean Multi-task Instruction Tuningโ156Updated 11 months ago
- ํ๊ตญ์ด ์๋ฃ ๋ถ์ผ ํนํ ์ฑ๋ด ํ๋ก์ ํธโ27Updated last year
- Gunmo-emo-classification: ํ๊ตญ์ด ๊ฐ์ ๋ค์ค ๋ถ๋ฅ ๋ชจ๋ธ ์ ์๋ฒโ24Updated 11 months ago
- ํ๊ตญ์ด ์ธ์ด๋ชจ๋ธ ์คํ์์คโ80Updated last year
- ํ๊ธ ํ ์คํธ ์๋ฒ ๋ฉ ๋ชจ๋ธ ๋ฆฌ๋๋ณด๋โ37Updated last month
- โ101Updated last year
- ๊ตฌ๊ธ์์ ๋ฐํํ Chain-of-Thought Reasoning without Prompting์ ์ฝ๋๋ก ๊ตฌํํ ๋ ํฌ์ ๋๋ค.โ56Updated last month
- โ31Updated 11 months ago
- ์ฌ์ฉ์๊ฐ ์ฑํ ์น์ ํตํด ์์ ์ด ์ฒํ ๋ฒ๋ฅ ์ ์ํฉ์ ์ ์ํ๋ฉด, ์ ๋ ฅ์ ๋ํ ๋ฌธ๋งฅ์ ๋ชจ๋ธ์ด ์ดํดํ์ฌ ๊ฐ์ด๋๋ผ์ธ์ ์ ์ํ๊ณ , ์ ์ฌํ ์ํฉ์ ํ๋ก๋ฅผ ์ ๊ณตํ๋ ์น ์๋น์ค์ ๋๋ค. (2023.08.18 ์๋น์ค ์ข ๋ฃ)โ49Updated last year
- KoRean based SBERT pre-trained models (KR-SBERT) for PyTorchโ95Updated 2 years ago
- ๐ค ์ต์ํ์ ์ธํ ์ผ๋ก LM์ ํ์ตํ๊ธฐ ์ํ ์ํ์ฝ๋โ57Updated last year
- Gugugo: ํ๊ตญ์ด ์คํ์์ค ๋ฒ์ญ ๋ชจ๋ธ ํ๋ก์ ํธโ71Updated 7 months ago
- Train GEMMA on TPU/GPU! (Codebase for training Gemma-Ko Series)โ45Updated 8 months ago
- ํ๊ตญ์ด ์ฌ์ ํ์ต ๋ชจ๋ธ์ ํ์ฉํ ๋ฌธ์ฅ ์๋ฒ ๋ฉโ171Updated last year
- '๋ด๋ง๋ฆฌ'๋ ๋์ ์ด์ผ๊ธฐ์ ๊ท๋ฅผ ๊ธฐ์ธ์์ผ๋ก์จ ๋์๊ฒ ๊ณต๊ฐํ๊ณ , ์ด์ผ๊ธฐ์ ๋งฅ๋ฝ์ ํ์ ํ๊ณ , ๋ ๊น์ ๋ด์ฉ์ ์ง๋ฌธํด์ฃผ๋ ์ฑ๋ด์ ๋๋ค.โ15Updated last year
- 42dot LLM consists of a pre-trained language model, 42dot LLM-PLM, and a fine-tuned model, 42dot LLM-SFT, which is trained to respond to โฆโ122Updated 8 months ago
- tools for Natural Language Processingโ78Updated last year
- ์์ฒด ๊ตฌ์ถํ ํ๊ตญ์ด ํ๊ฐ ๋ฐ์ดํฐ์ ์ ์ด์ฉํ ํ๊ตญ์ด ๋ชจ๋ธ ํ๊ฐโ30Updated 5 months ago