FunnySaltyFish / bilibili_comments_crawlLinks
基于 B 站评论区数据构建大语言模型训练用对话数据集
☆58Updated 11 months ago
Alternatives and similar repositories for bilibili_comments_crawl
Users that are interested in bilibili_comments_crawl are comparing it to the libraries listed below
Sorting:
- 【逐条处理完成】人为审核+修改每一条的弱智吧精选问题QA数据集☆239Updated 8 months ago
- Chat-甄嬛是利用《甄嬛传》剧本中所有关于甄嬛的台词和语句,基于ChatGLM2进行LoRA微调得到的模仿甄嬛语气的聊天语言模型。☆774Updated 6 months ago
- 从小说中提取对话数据集☆295Updated 3 months ago
- 基于ChatGLM3基座模型和LLAMA-Factory框架进行微调的一个中医问答机器人☆104Updated last year
- Retriever-0.1B☆95Updated last year
- 💼法律AI助手,法律RAG,通过全部200+本法律手册📖、网页搜索内容💻结合LLM回答你的问题,并且给出相应的法规和网站,基于⚡️ langchain,Gradio,openai,chroma,duckduckgo-search☆191Updated last year
- 大语言模型微调,Qwen2VL、Qwen2、GLM4指令微调☆577Updated 6 months ago
- [EMNLP'24] CharacterGLM: Customizing Chinese Conversational AI Characters with Large Language Models☆487Updated 2 months ago
- LLaMA-Factory使用经验记录☆41Updated last year
- ChatGPT WebUI using gradio. 给 LLM 对话和检索知识问答RAG提供一个简单好用的Web UI界面☆138Updated last year
- 从0到1构建一个MiniLLM (pretrain+sft+dpo实践中)☆505Updated 8 months ago
- FinQwen: 致力于构建一个开放、稳定、高质量的金融大模型项目,基于大模型搭建金融场景智能问答系统,利用开源开放来促进「AI+金融」。☆425Updated last year
- 这是一个一键让小参数大模型进行角色扮演的项目,从数据构成和训练都包含在这项目中☆24Updated last year
- NLP_Study_Demo☆169Updated last year
- 夫子•明察司法大模型是由山东大学、浪潮云、中国政法大学联合研发,以 ChatGLM 为大模型底座,基于海量中文无监督司法语料与有监督司法微调数据训练的中文司法大模型。该模型支持法条检索、案例分析、三段论推理判决以及司法对话等功能,旨在为用户提供全方位、高精准的法律咨询与解答…☆364Updated 4 months ago
- Alpaca Chinese Dataset -- 中文指令微调数据集☆217Updated last year
- RAG-QA-Generator 是一个用于检 索增强生成(RAG)系统的自动化知识库构建与管理工具。该工具通过读取文档数据,利用大规模语言模型生成高质量的问答对(QA对),并将这些数据插入数据库中,实现RAG系统知识库的自动化构建和管理。☆252Updated 11 months ago
- qwen ai agent☆143Updated last year
- 从0开始,将chatgpt的技术路线跑一遍。☆268Updated last year
- Phi2-Chinese-0.2B 从0开始训练自己的Phi2中文小模型,支持接入langchain加载本地知识库做检索增强生成RAG。Training your own Phi2 small chat model from scratch.☆579Updated last year
- 通义千问VLLM推理部署DEMO☆630Updated last year
- 中文领域心理健康对话大模型SoulChat☆687Updated last year
- 为ChatGLM设计的微调数据集生成工具,速来制作自己的猫娘。☆608Updated last year
- This is a repository used by individuals to experiment and reproduce the pre-training process of LLM.☆482Updated 7 months ago
- 基于chatglm3-6b模型的lora方法的微调☆82Updated last year
- 星火大模型 python sdk库☆308Updated 11 months ago
- Train an LLM LoRA using a specific dataset to enable the LLM to continue stories in a specific style based on the plot and background.通过特…☆44Updated last year
- 学习ChatGLM3模型和LangChain框架的架构与核心功能,并基于LangChain+ChatGLM3实现本地知识库问答。☆39Updated last year
- 中文对话0.2B小模型(ChatLM-Chinese-0.2B),开源所有数据集来源、数据清洗、tokenizer训练、模型预训练、SFT指令微调、RLHF优化等流程的全部代码。支持下游任务sft微调,给出三元组信息抽取微调示例。☆1,652Updated last year
- ChatGLM 6B 的模型与UI,通过 LangChain 与向量匹配实现本地知识库问答,支持流式输出☆116Updated 2 years ago