yuwenhan07 / LawLLM-cupl-buaaLinks
由中国政法大学和北京航空航天大学共同设计,基于GLM-9B的法律文书处理和判决预测模型
☆28Updated last year
Alternatives and similar repositories for LawLLM-cupl-buaa
Users that are interested in LawLLM-cupl-buaa are comparing it to the libraries listed below
Sorting:
- Legal-Eagle-InternLM 是一个基于商汤科技和上海人工智能实验室推出的书生浦语大模型InternLM的法律问答机器人。旨在为用户提供符合3H(即Helpful、Honest、Harmless)原则的专业、智能、全面的法律服务的法律领域大模型。☆60Updated last year
- 基于大语言模型的检索增强生成RAG示例☆158Updated 4 months ago
- 介绍docker、docker compose的使用。☆21Updated last year
- ☆15Updated last year
- 国内首个全参数训练的法律大模型 HanFei-1.0 (韩非)☆124Updated last year
- LLM for NER☆82Updated last year
- 基于Qwen2+SFT+DPO的医疗问答系统,项目中使用了LLaMA-Factory用于训练,fastllm和vllm用于推理,☆22Updated 2 months ago
- 雅意信息抽取大模型:在百万级人工构造的高质量信息抽取数据上进行指令微调,由中科闻歌算法团队研发。 (Repo for YAYI Unified Information Extraction Model)☆311Updated last year
- TechGPT: Technology-Oriented Generative Pretrained Transformer☆226Updated 2 years ago
- ChatGPT WebUI using gradio. 给 LLM 对话和检索知识问答RAG提供一个简单好用的Web UI界面☆134Updated last year
- ☆34Updated 2 months ago
- 对深度学习中的NLP进行解释和代码使用☆56Updated last year
- FAQ智能问答系统。实现FAQ的问题-模板匹配功能。部署轻量级的Web服务应用。☆63Updated last year
- 大模型检索增强生成技术最佳实践。☆83Updated last year
- 本项目使用大语言模型(LLM)进行开放领域三元组抽取。☆29Updated last year
- 基于知识图谱和大模型的对话系统☆11Updated 4 months ago
- 基于qlora对baichuan-7B大模型进行指令微调。☆23Updated 2 years ago
- 集成Qwen与DeepSeek等先进大语言模型,支持纯LLM+分类层模式及LLM+LoRA+分类层模式,使用transformers模块化设计和训练便于根据需要调整或替换组件。☆14Updated 2 weeks ago
- 大模型预训练中文语料清洗及质量评估 Large model pre-training corpus cleaning☆69Updated last year
- 通用简单工具项目☆20Updated 11 months ago
- 基于中文法律知识的ChatGLM指令微调☆45Updated 2 years ago
- 基于ChatGLM3基座模型和LLAMA-Factory框架进行微调的一个中医问答机器人☆95Updated last year
- ChatGLM2-6B微调, SFT/LoRA, instruction finetune☆110Updated 2 years ago
- TianGong-AI-Unstructure☆69Updated last week
- 此项目完成了关于 NLP-Beginner:自然语言处理入门练习 的所有任务(文本分类、信息抽取、知识图谱、机器翻译、问答系统、文本生成、Text-to-SQL、文本纠错、文本挖掘、知识蒸馏、模型加速、OCR、TTS、Prompt、embedding等),所有代码都经过测试…☆210Updated last year
- LAiW: A Chinese Legal Large Language Models Benchmark☆83Updated last year
- Ziya-LLaMA-13B是IDEA基于LLaMa的130亿参数的大规模预训练模型,具备翻译,编程,文本分类,信息抽取,摘要,文案生成,常识问答和数学计算等能力。目前姜子牙通用大模型已完成大规模预训练、多任务有监督微调和人类反馈学习三阶段的训练过程。本文主要用于Ziya-…☆45Updated 2 years ago
- 政务公文知识图谱构建☆21Updated 2 years ago
- 基于pytorch+bert的中文文本分类☆89Updated 2 years ago
- Deepspeed、LLM、Medical_Dialogue、医疗大模型、预训练、微调☆279Updated last year