paperClub-hub / chinese_clipLinks
中文CLIP:自定义数据集,可根据文图提取向量,实现文图匹配。
☆22Updated 2 years ago
Alternatives and similar repositories for chinese_clip
Users that are interested in chinese_clip are comparing it to the libraries listed below
Sorting:
- 人工智能实验五:多模态情感分类☆15Updated 3 years ago
- 基于ClipCap的看图说话Image Caption模型☆309Updated 3 years ago
- 基于Bilstm + CRF的信息抽取模型☆35Updated 4 years ago
- 多模态视频分类模型☆22Updated 2 years ago
- 基于BERT-CRF的命名实体识别模型☆14Updated 3 years ago
- ☆13Updated last year
- transformers结构的中文OFA模型☆135Updated 2 years ago
- 500,000 multimodal short video data and baseline models. 50万条多模态短视频数据集和基线模型(TensorFlow2.0)。☆130Updated 6 years ago
- ☆21Updated 3 years ago
- 使用pytorch完成的一个多模态分类任务,文本和图像部分分别使用了bert和resnet提取特征(在config里可以组合多种模型),在我的小规模数据集上取得了良好的性能(验证集acc96%)☆80Updated 2 years ago
- 可以成功Lora微调的Qwen-VL模型☆17Updated last year
- 一个多模态内容理解算法框架,其中包含数据处理、预训练模型、常见模型以及模型加速等模块。☆319Updated 3 years ago
- Chinese CLIP models with SOTA performance.☆56Updated last year
- VLE: Vision-Language Encoder (VLE: 视觉-语言多模态预训练模型)☆193Updated 2 years ago
- 一个用YOLO足球视频分析的任务,检测视频中的人与球。 A task of football video analysis to detect people and balls in the video with YOLO☆11Updated 4 years ago
- 基于多模态检索的互联网图文匹配☆14Updated last year
- ATEC2023——赛道一: 大模型的知识引入Rank7方案分享☆23Updated 9 months ago
- 中文CLIP预训练模型☆417Updated 2 years ago
- Transformer model for Chinese-English translation.☆54Updated last year
- ☆28Updated 11 months ago
- Sparse Multilabel Categorical Crossentropy☆11Updated last year
- 基于 BERT 模型的中文文本分类工具☆67Updated 3 years ago
- Chinese version of CLIP which achieves Chinese cross-modal retrieval and representation generation.☆169Updated 2 years ago
- 抽取式NLP模型(阅读理解模型,MRC)实现词义消歧(WSD)☆12Updated 3 years ago
- 此项目用于自动化采集、处理和可视化医疗问答数据,可助力构建高质量医疗问答对数据集。同时提供使用预处理后的数据集对Qwen-7B-Chat进行微调的详细说明。☆19Updated 7 months ago
- 本项目主要是利用LSTM来对中文文本进行情感分类,包含四个类别(愤怒,焦虑,抑郁,伤感)☆56Updated 5 years ago
- 智能营销文案生成☆35Updated 3 months ago
- 该项目旨在通过输入文本描述来检索与之相匹配的图片。☆41Updated last year
- 一个通用的图像分类模板,天池/CVPR AliProducts挑战赛 3/688☆86Updated 4 years ago
- 疲劳检测☆11Updated 3 years ago