meowcao / InsuranceModel
基于internlm-chat-7b的保险知识大模型微调
☆17Updated last year
Alternatives and similar repositories for InsuranceModel:
Users that are interested in InsuranceModel are comparing it to the libraries listed below
- Pytorch implementation of JointBERT: "BERT for Joint Intent Classification and Slot Filling"☆33Updated last year
- baichuan-7B 微调 C++ 面试大模型☆15Updated last year
- 阿里天池: 2023全球智能汽车AI挑战赛——赛道一:AI大模型检索问答 baseline 80+☆99Updated last year
- 一套代码指令微调大模型☆39Updated last year
- 可以成功Lora微调的Qwen-VL模型☆18Updated last year
- 利用开源大模型,通过RAG(检索增强生成)技术,实现基于企业内部知识图谱的,可内网运行的大模型智能客服☆63Updated last year
- 中文大模型微调(LLM-SFT), 数学指令数据集MWP-Instruct, 支持模型(ChatGLM-6B, LLaMA, Bloom-7B, baichuan-7B), 支持(LoRA, QLoRA, DeepSpeed, UI, TensorboardX), 支持(微…☆196Updated 11 months ago
- 对深度学习中的NLP进行解释和代码使用☆48Updated last year
- chatglm-6B for tools application using langchain☆75Updated last year
- 学习开源chatGPT类模型的指南,汇总各种训练数据获取、模型微调、模型服务的方法,以及记录自己操作总遇到的各种常见坑,欢迎收藏、转发,希望能帮你省一些时间☆75Updated last year
- 基于pytorch的中文意图识别和槽位填充☆171Updated 9 months ago
- 在RAG技术中,嵌入向量的生成和匹配是关键环节。本文介绍了一种基于CLIP/BLIP模型的嵌入服务,该服务支持文本和图像的嵌入生成与相似度计算,为多模态信息检索提供了基础能力。☆23Updated 3 months ago
- 使用煤矿历史事故案例,事故处理报告、安全规程规章制度、技术文档、煤矿从业人员入职考试题库等数据,微调internlm2模型实现针对煤矿事故和煤矿安全知识的智能问答。☆47Updated 3 months ago
- BERT-based intent and slots detector for chatbots.☆174Updated 2 months ago
- kbqa,langchain,large langauge model, chatgpt☆80Updated 6 months ago
- 学习ChatGLM3模型和LangChain框架的架构与核心功能,并基于LangChain+ChatGLM3实现本地知识库问答。☆39Updated last year
- prompt engineering ,llm,text2sql☆36Updated last year
- text security audit 安全审核-语义模型过滤 敏感内容检测系统☆22Updated 2 months ago
- Legal-Eagle-InternLM 是一个基于商汤科技和上海人工智能实验室推出的书生浦语大模型InternLM的法律问答机器人。旨在为用户提供符合3H(即Helpful、Honest、Harmless)原则的专业、智能、全面的法律服务的法律领域大模型。☆56Updated last year
- ChatGLM2-6B-Explained☆35Updated last year
- ☆21Updated last year
- 专注于对话系统领域的技术分享,重点写《Dify应用操作和源码剖析》专栏。☆92Updated 9 months ago
- Qwen1.5-SFT(阿里, Ali), Qwen_Qwen1.5-2B-Chat/Qwen_Qwen1.5-7B-Chat微调(transformers)/LORA(peft)/推理☆57Updated 11 months ago
- 大模型检索增强生成技术最佳实践。☆73Updated 7 months ago
- 基于大语言模型的检索增强生成RAG示例☆142Updated 4 months ago
- Ziya-LLaMA-13B是IDEA基于LLaMa的130亿参数的大规模预训练模型,具备翻译,编程,文本分类,信息抽取,摘要,文案生成,常识问答和数学计算等能力。目前姜子牙通用大模型已完成大规模预训练、多任务有监督微调和人类反馈学习三阶段的训练过程。本文主要用于Ziya-…☆45Updated last year
- AFAC2024金融智能创新大赛☆33Updated 4 months ago
- baichuan LLM surpervised finetune by lora☆63Updated last year
- 属于每个人的公众号”查特查特“上线啦!新问题、新方法、新发现,欢迎提PR!☆45Updated last year
- ChatGLM2-6B微调, SFT/LoRA, instruction finetune☆107Updated last year