ZixinxinWang / Legal-Eagle-InternLMLinks
Legal-Eagle-InternLM 是一个基于商汤科技和上海人工智能实验室推出的书生浦语大模型InternLM的法律问答机器人。旨在为用户提供符合3H(即Helpful、Honest、Harmless)原则的专业、智能、全面的法律服务的法律领域大模型。
☆57Updated last year
Alternatives and similar repositories for Legal-Eagle-InternLM
Users that are interested in Legal-Eagle-InternLM are comparing it to the libraries listed below
Sorting:
- ChatGPT WebUI using gradio. 给 LLM 对话和检索知识问答RAG提供一个简单好用的Web UI界面☆130Updated 10 months ago
- 基于大语言模型的检索增强生成RAG示例☆151Updated last month
- 国内首个全参数训练的法律大模型 HanFei-1.0 (韩非)☆120Updated last year
- PDF解析(文字,章节,表格,图片,参考),基于大模型(ChatGLM2-6B, RWKV)+langchain+streamlit的PDF问答,摘要,信息抽取☆201Updated last year
- ✏️0成本LLM微调上手项目,⚡️一步一步使用colab训练法律LLM,基于microsoft/phi-1_5、chatglm3,包含lora微调,全参微调☆75Updated last year
- A Chinese medical ChatGPT based on LLaMa, training from large-scale pretrain corpus and multi-turn dialogue dataset.☆363Updated last year
- 💼法律AI助手,法律RAG,通过全部200+本法律手册📖、网页搜索内容💻结合LLM回答你的问题,并且给出相应的法规和网站,基于⚡️ langchain,Gradio,openai,chroma,duckduckgo-search☆155Updated last year
- Deepspeed、LLM、Medical_Dialogue、医疗大模型、预训练、微调☆273Updated last year
- Qwen1.5-SFT(阿里, Ali), Qwen_Qwen1.5-2B-Chat/Qwen_Qwen1.5-7B-Chat微调(transformers)/LORA(peft)/推理☆63Updated last year
- Generate dialog data from documents using LLM like ChatGLM2 or ChatGPT;利用ChatGLM2,ChatGPT等大模型根据文档生成对话数据集☆158Updated last year
- 探索 LLM 在法律行业的应用潜力☆90Updated 6 months ago
- 雅意信息抽取大模型:在百万级人工构造的高质量信息抽取数据上进行指令微调,由中科闻歌算法团队研发。 (Repo for YAYI Unified Information Extraction Model)☆304Updated 10 months ago
- 使用煤矿历史事故案例,事故处理报告、安全规程规章制度、技术文档、煤矿从业人员入职考试题库等数据,微调internlm2模型实现针对煤矿事故和煤矿安全知识的智能问答。☆48Updated 5 months ago
- llm-medical-data:用于大模型微调训练的医疗数据集☆114Updated 2 years ago
- 中文大模型微调(LLM-SFT), 数学指令数据集MWP-Instruct, 支持模型(ChatGLM-6B, LLaMA, Bloom-7B, baichuan-7B), 支持(LoRA, QLoRA, DeepSpeed, UI, TensorboardX), 支持(微…☆203Updated last year
- 基于qlora对baichuan-7B大模型进行指令微调。☆23Updated 2 years ago
- MCM(Multimodal Chinese Medical LLM)多模态中医问诊大模型☆114Updated 11 months ago
- 中文世界的NLP自动标注开源工具,简单样本,交给LabelFast。☆73Updated 5 months ago
- TechGPT: Technology-Oriented Generative Pretrained Transformer☆226Updated last year
- 本项目用于Embedding模型的相关实验,包括Embedding模型评估、Embedding模型微调、Embedding模型量化等。☆55Updated 11 months ago
- ☆104Updated last year
- 大模型预训练中文语料清洗及质量评估 Large model pre-training corpus cleaning☆65Updated 10 months ago
- "桃李“: 国际中文教育大模型☆181Updated last year
- 基于ChatGLM3基座模型和LLAMA-Factory框架进行微调的一个中医问答机器人☆89Updated last year
- 基于ChatGLM3-6b的智能对话系统,集成了RAG、知识图谱、Agent、多模态等技术来增强大模型的回复质量。☆46Updated 10 months ago
- 数据科学教程案例☆139Updated 6 months ago
- RAGOnMedicalKG,将大模型RAG与KG结合,完成demo级问答,旨在给出基础的思路。☆300Updated last year
- kbqa,langchain,large langauge model, chatgpt☆81Updated 8 months ago
- 夫子•明察司法大模型是由山东大学、浪潮云、中国政法大学联合研发,以 ChatGLM 为大模型底座,基于海量中文无监督司法语料与有监督司法微调数据训练的中文司法大模型。该模型支持法条检索、案例分析、三段论推理判决以及司法对话等功能,旨在为用户提供全方位、高精准的法律咨询与解答…☆345Updated 8 months ago
- 🛰️ 基于真实医疗对话数据在ChatGLM上进行LoRA、P-Tuning V2、Freeze、RLHF等微调,我们的眼光不止于医疗问答☆326Updated last year