oglee815 / mygpt-lecture
나만의 데이터로 만드는 ChatGPT(MyGPT) 강의 코드
☆20Updated 7 months ago
Alternatives and similar repositories for mygpt-lecture:
Users that are interested in mygpt-lecture are comparing it to the libraries listed below
- AWS SageMaker를 이용한 MLOps와 LLMOps☆33Updated last year
- 카카오톡 GPT☆18Updated 9 months ago
- 한국어 심리 상담 데이터셋☆75Updated last year
- Telegram chatbot for ChatGPT that can be used personally☆12Updated last year
- ☆41Updated last year
- 카카오뱅크 & 에프엔가이드에서 학습한 금융 도메인 특화 언어모델☆111Updated last year
- 가짜연 9th 깃허브 잔디심기 Stockelper Multi Agent Backend Fastapi☆45Updated last week
- ☆24Updated 5 months ago
- ☆4Updated last year
- 머신러닝/딥러닝(PyTorch, TensorFlow) 전용 도커입니다. 한글 폰트, 한글 자연어처리 패키지(konlpy), 형태소 분석기, Timezone 등의 설정 등을 추가 하였습니다.☆69Updated last year
- 프롬프트 엔지니어링을 하기 위한 공간을 만들어보고 싶었습니다.☆32Updated 4 months ago
- IA3방식으로 KoAlpaca를 fine tuning한 한국어 LLM모델☆68Updated last year
- A collection of Korean NLP hands-on labs on Amazon SageMaker☆17Updated last year
- ☆124Updated last year
- This hands-on lab walks you through a step-by-step approach to efficiently serving and fine-tuning large-scale Korean models on AWS infra…☆25Updated 11 months ago
- 한국어 중의성 해소 평가 데이터 세트☆47Updated last year
- ☆103Updated 8 months ago
- 한국어 언어모델 오픈소스☆82Updated last year
- Liner LLM Meetup archive☆72Updated 9 months ago
- AutoRAG example about benchmarking Korean embeddings.☆26Updated 3 months ago
- Summarize Youtube's script by chapter creater configured☆25Updated 7 months ago
- Unofficial API for CLOVA X☆37Updated last year
- [KO-Platy🥮] Korean-Open-platypus를 활용하여 llama-2-ko를 fine-tuning한 KO-platypus model☆77Updated last year
- LINER PDF Chat Tutorial with ChatGPT & Pinecone☆46Updated last year
- pytorch를 사용하여 텍스트 전처리부터, BERT, GPT와 같은 모델의 다운스트림 태스크들을 정리한 Deep Learning NLP 저장소입니다.☆19Updated 4 months ago
- A clean and structured implementation of the RNN family with wandb and pytorch-lightning☆48Updated 2 years ago
- It shows a korean chatbot using LangChain based on Llama3☆38Updated 5 months ago
- 42dot LLM consists of a pre-trained language model, 42dot LLM-PLM, and a fine-tuned model, 42dot LLM-SFT, which is trained to respond to …☆125Updated 10 months ago
- 한국어 자연어처리 튜토리얼☆116Updated 4 years ago