ZixinxinWang / Legal-Eagle-InternLM
Legal-Eagle-InternLM 是一个基于商汤科技和上海人工智能实验室推出的书生浦语大模型InternLM的法律问答机器人。旨在为用户提供符合3H(即Helpful、Honest、Harmless)原则的专业、智能、全面的法律服务的法律领域大模型。
☆55Updated last year
Alternatives and similar repositories for Legal-Eagle-InternLM:
Users that are interested in Legal-Eagle-InternLM are comparing it to the libraries listed below
- 国内首个全参数训练的法律大模型 HanFei-1.0 (韩非)☆114Updated last year
- ChatGPT WebUI using gradio. 给 LLM 对话和检索知识问答RAG提供一个简单好用的Web UI界面☆118Updated 7 months ago
- 中文世界的NLP自动标注开源工具,简单样本,交给LabelFast。☆65Updated 2 months ago
- ✏️0成本LLM微调上手项目,⚡️一步一步使用colab训练法律LLM,基于microsoft/phi-1_5、chatglm3,包含lora微调,全参微调☆66Updated last year
- LAiW: A Chinese Legal Large Language Models Benchmark☆78Updated 8 months ago
- 基于大语言模型的检索增强生成RAG示例☆134Updated 3 months ago
- 夫子•明察司法大模型是由山东大学、浪潮云、中国政法大学联合研发,以 ChatGLM 为大模型底座,基于海量中文无监督司法语料与有监督司法微调数据训练的中文司法大模型。该模型支持法条检索、案例分析、三段论推理判决以及司法对话等功能,旨在为用户提供全方位、高精准的法律咨询与解答…☆316Updated 5 months ago
- deepspeed+trainer简单高效实现多卡微调大模型☆123Updated last year
- 学习开源chatGPT类模型的指南,汇总各种训练数据获取、模型微调、模型服务的方法,以及记录自己操作总遇到的各种常见坑,欢迎收藏、转发,希望能帮你省一些时间☆74Updated last year
- 由中国政法大学和北京航空航天大学共同设计,基于GLM-9B的法律文书处理和判决预测模型☆19Updated 6 months ago
- LLM for NER☆66Updated 7 months ago
- 本项目致力于为大模型领域的初学者提供全面的知识体系,包括基础和高阶内 容,以便开发者能迅速掌握大模型技术栈并全面了解相关知识。☆51Updated 2 months ago
- 雅意信息抽取大模型:在百万级人工构造的高质量信息抽取数据上进行指令微调,由中科闻歌算法团队研发。 (Repo for YAYI Unified Information Extraction Model)☆295Updated 7 months ago
- 基于Qwen2模型进行通用信息抽取【实体/关系/事件抽取】☆30Updated 8 months ago
- ☆94Updated 11 months ago
- llama信息抽取实战☆98Updated last year
- TianGong-AI-Unstructure☆62Updated this week
- 大模型预训练中文语料清洗及质量评估 Large model pre-training corpus cleaning☆54Updated 8 months ago
- 阿里天池: 2023全球智能汽车AI挑战赛——赛道一:AI大模型检索问答 baseline 80+☆92Updated last year
- PDF解析(文字,章节,表格,图片,参考),基于大模型(ChatGLM2-6B, RWKV)+langchain+streamlit的PDF问答,摘要,信息抽取☆191Updated last year
- ☆39Updated last month
- kbqa,langchain,large langauge model, chatgpt☆79Updated 5 months ago
- 探索 LLM 在法律行业的应用潜力☆85Updated 3 months ago
- 本项目用于Embedding模型的相关实验,包括Embedding模型评估、Embedding模型微调、Embedding模型量化等。☆44Updated 8 months ago
- 使用qlora对中文大语言模型进行微调,包含ChatGLM、Chinese-LLaMA-Alpaca、BELLE☆85Updated last year
- A Chinese medical ChatGPT based on LLaMa, training from large-scale pretrain corpus and multi-turn dialogue dataset.☆343Updated last year
- 基于 LoRA 和 P-Tuning v2 的 ChatGLM-6B 高效参数微调☆54Updated last year
- "桃李“: 国际中文教育大模型☆175Updated last year
- 打造人人都会的NLP,开源不易,记得star哦☆101Updated last year
- Generate dialog data from documents using LLM like ChatGLM2 or ChatGPT;利用ChatGLM2,ChatGPT等大模型根据文档生成对话数据集☆153Updated last year