sungatetop / QA_generator
问题生成器,无限追问
☆11Updated last year
Alternatives and similar repositories for QA_generator:
Users that are interested in QA_generator are comparing it to the libraries listed below
- 全球首个StableVicuna中文优化版。☆65Updated last year
- ☆37Updated 8 months ago
- share data, prompt data , pretraining data☆35Updated last year
- ChatGLM-6B fine-tuning.☆135Updated last year
- 首个llama2 13b 中文版模型 (Base + 中文对话SFT,实现流畅多轮人机自然语言交互)☆89Updated last year
- Ziya-LLaMA-13B是IDEA基于LLaMa的130亿参数的大规模预训练模型,具备翻译,编程,文本分类,信息抽取,摘要,文案生成,常识问答和数学计算等能力。目前姜子牙通用大模型已完成大规模预训练、多任务有监督微调和人类反馈学习三阶段的训练过程。本文主要用于Ziya-…☆45Updated last year
- llama inference for tencentpretrain☆96Updated last year
- 骆驼QA,中文大语言阅读理解模型。☆74Updated last year
- (1)弹性区间标准化的旋转位置词嵌入编码器+peft LORA量化训练,提高万级tokens性能支持。(2)证据理论解释学习,提升模型的复杂逻辑推理能力(3)兼容alpaca数据格式。☆45Updated last year
- Humanable Chat Generative-model Fine-tuning | LLM微调☆206Updated last year
- 千问14B和7B的逐行解释☆53Updated last year
- 使用qlora对中文大语言模型进行微调,包含ChatGLM、Chinese-LLaMA-Alpaca、BELLE☆85Updated last year
- 使用甄嬛语料微调的chatglm☆84Updated last year
- This project is mainly to explore what effect can be achieved by fine-tuning LLM model (ChatGLM-6B)of about 6B in vertical field (Romance…☆25Updated last year
- ☆24Updated last year
- chatglm-6b微调/LORA/PPO/推理, 样本为自动生成的整数/小数加减乘除运算, 可gpu/cpu☆164Updated last year
- ChatGLM2-6B微调, SFT/LoRA, instruction finetune☆105Updated last year
- ☆58Updated 2 months ago
- zero零训练llm调参☆31Updated last year
- 适用于ChatGLM微调的数据集生成器, 支持多轮对话☆13Updated last year
- moss chat finetuning☆50Updated 8 months ago
- 想要从零开始训练一个中文的mini大语言模型,可以进行基本的对话,模型大小根据手头的机器决定☆56Updated 5 months ago
- ChatGLM 6B 的模型与UI,通过 LangChain 与向量匹配实现本地知识库问答,支持流式输出☆110Updated last year
- large language model training-3-stages+deployment☆46Updated last year
- 基于 LoRA 和 P-Tuning v2 的 ChatGLM-6B 高效参数微调☆54Updated last year
- 多显卡部署版 | ChatGLM-6B:开源双语对话语言模型 | An Open Bilingual Dialogue Language Model☆62Updated last year
- 基于sentence transformers和chatglm实现的文档搜索工具☆154Updated last year