ZixinxinWang / Legal-Eagle-InternLMLinks
Legal-Eagle-InternLM 是一个基于商汤科技和上海人工智能实验室推出的书生浦语大模型InternLM的法律问答机器人。旨在为用户提供符合3H(即Helpful、Honest、Harmless)原则的专业、智能、全面的法律服务的法律领域大模型。
☆60Updated last year
Alternatives and similar repositories for Legal-Eagle-InternLM
Users that are interested in Legal-Eagle-InternLM are comparing it to the libraries listed below
Sorting:
- 国内首个全参数训练的法律大模型 HanFei-1.0 (韩非)☆124Updated last year
- ChatGPT WebUI using gradio. 给 LLM 对话和检索知识问答RAG提供一个简单好用的Web UI界面☆134Updated last year
- 基于大语言模型的检索增强生成RAG示例☆158Updated 4 months ago
- PDF解析(文字,章节,表格,图片,参考),基于大模型(ChatGLM2-6B, RWKV)+langchain+streamlit的PDF问答,摘要,信息抽取☆206Updated last year
- 💼法律AI助手,法律RAG,通过全部200+本法律手册📖、网页搜索内容💻结合LLM回答你的问题,并且给出相应的法规和网站,基于⚡️ langchain,Gradio,openai,chroma,duckduckgo-search☆171Updated last year
- Generate dialog data from documents using LLM like ChatGLM2 or ChatGPT;利用ChatGLM2,ChatGPT等大模型根据文档生成对话数据集☆159Updated last year
- 夫子•明察司法大模型是由山东大学、浪潮云、中国政法大学联合研发,以 ChatGLM 为大模型底座,基于海量中文无监督司法语料与有监督司法微调数据训练的中文司法大模型。该模型支持法条检索、案例分析、三段论推理判决以及司法对话等功能,旨在为用户提供全方位、高精准的法律咨询与解答…☆355Updated last month
- Deepspeed、LLM、Medical_Dialogue、医疗大模型、预训练、微调☆279Updated last year
- 雅意信息抽取大模型:在百万级人工构造的高质量信息抽取数据上进行指令微调,由中科闻歌算法团队研发。 (Repo for YAYI Unified Information Extraction Model)☆309Updated last year
- TechGPT: Technology-Oriented Generative Pretrained Transformer☆226Updated 2 years ago
- 中文世界的NLP自动标注开源工具,简单样本,交给LabelFast。☆76Updated 8 months ago
- RAGOnMedicalKG,将大模型RAG与KG结合,完成demo级问答,旨在给出基础的思路。☆317Updated last year
- A Chinese medical ChatGPT based on LLaMa, training from large-scale pretrain corpus and multi-turn dialogue dataset.☆374Updated last year
- 探索 LLM 在法律行业的应用潜力☆91Updated 9 months ago
- Alpaca Chinese Dataset -- 中文指令微调数据集☆213Updated 11 months ago
- TianGong-AI-Unstructure☆69Updated 3 months ago
- "桃李“: 国际中文教育大模型☆183Updated last year
- 中文大模型微调(LLM-SFT), 数学指令数据集MWP-Instruct, 支持模型(ChatGLM-6B, LLaMA, Bloom-7B, baichuan-7B), 支持(LoRA, QLoRA, DeepSpeed, UI, TensorboardX), 支持(微…☆210Updated last year
- 利用LLM+敏感词库,来自动判别是否涉及敏感词。☆127Updated 2 years ago
- 大模型检索增强生成技术最佳实践。☆83Updated last year
- ✏️0成本LLM微调上手项目,⚡️一步一步使用colab训练法律LLM,基于microsoft/phi-1_5、chatglm3,包含lora微调,全参微调☆77Updated last year
- 学习开源chatGPT类模型的指南,汇总各种训练数据获取、模型微调、模型服务的方法,以及记录自己操作总遇到的各种常见坑,欢迎收藏、转发,希望能帮你省一些时间☆76Updated last year
- MCM(Multimodal Chinese Medical LLM)多模态中医问诊大模型☆123Updated last year
- SearchGPT: Building a quick conversation-based search engine with LLMs.☆47Updated 8 months ago
- 基于ChatGLM3基座模型和LLAMA-Factory框架进行微调的一个中医问答机器人☆95Updated last year
- Qwen1.5-SFT(阿里, Ali), Qwen_Qwen1.5-2B-Chat/Qwen_Qwen1.5-7B-Chat微调(transformers)/LORA(peft)/推理☆67Updated last year
- 大模型预训练中文语料清洗及质量评估 Large model pre-training corpus cleaning☆69Updated last year
- 中文原生检索增强生成测评基准☆122Updated last year
- 在RAG技术中,嵌入向量的生成和匹配是关键环节。本文介绍了一种基于CLIP/BLIP模型的嵌入服务,该服务支持文本和图像的嵌入生成与相似度计算,为多模态信息检索提供了基础能力。☆34Updated 8 months ago
- QA based on local knowledge and LLM.☆236Updated 7 months ago