zhongqiangwu960812 / AIGame
A recoding of a expreience about playing AI Game
☆23Updated 5 years ago
Alternatives and similar repositories for AIGame:
Users that are interested in AIGame are comparing it to the libraries listed below
- 三大boosting算法的工程实现 XGBoost、LightGBM、Catboost原理实现及常见面试问题总结,以及其他理解深刻的机器学习、深度学习文章备份☆11Updated 3 years ago
- 从0学习深度学习课程,跟随Andrew Ng的Coursera课程,课后根据记忆用python代码实现课程作业☆11Updated 5 years ago
- Kaggle 项目实战(教程) = 文档 + 代码 + 视频(欢迎参与)☆10Updated 5 years ago
- 天津财经大学2019年统计学院机器学习讨论班☆12Updated 5 years ago
- 使用BERT构建多标签标注模型☆41Updated 5 years ago
- DataFountain第五届达观杯第4名方案☆12Updated 3 years ago
- 2021科大讯飞-车辆贷款违约预测挑战赛 Top1方案☆69Updated 3 years ago
- DataFountain第五届达观杯第4名方案☆50Updated 2 years ago
- 2018科大讯飞AI营销算法大赛模型方案☆22Updated 6 years ago
- 中文对话资料,分别下载☆20Updated 6 years ago
- 开课吧&后厂理工学院_百度NLP项目2:试题数据集多标签文本分类 Models: FastText TextCNN GCN BERT et al.☆48Updated 5 years ago
- tensorflow2.0 实现的 DCN (Deep & Cross Network) ,使用 Criteo 子数据集加以实践。☆15Updated 4 years ago
- 未来杯房产租金预测算法竞赛,房产租金预测,LightGBM,XGBoost,回归,机器学习☆12Updated 4 years ago
- 住房月租金预测大数据赛TOP1☆28Updated 6 years ago
- 讯飞移动广告反欺诈算法竞赛☆34Updated 5 years ago
- 2020厦门国际银行数创金融杯建模大赛-优胜奖方案☆10Updated 4 years ago
- 学习并复现经典的推荐系统多目标任务,如:SharedBottom、ESMM、MMoE、PLE☆35Updated 2 years ago
- FastText 文本分类☆19Updated 6 years ago
- multi-label,classifier,text classification,多标签文本分类,文本分类,BERT,ALBERT,multi-label-classification☆27Updated 3 years ago
- 本项目采用Keras和ALBERT实现文本多标签分类任务,其中对ALBERT进行微调。☆13Updated 4 years ago
- 分类类别不平衡,解决办法:采样(SMOTE和算法集成技术等)、阈值移动、调整代价或权重,附带信用卡诈骗案例☆21Updated 5 years ago
- ☆24Updated 2 years ago
- “达观杯”长文本智能处理挑战赛。达观数据提供了一批长文本数据和分类信息,希望选手动用自己的智慧,结合当下最先进的NLP和人工智能技术,深入分析文本内在结构和语义信息,构建文本分类模型,实现精准分类。☆10Updated 6 years ago
- 比赛中的通用方法和模板☆15Updated 4 years ago
- 2021搜狐校园文本匹配算法大赛☆16Updated 3 years ago
- Python刷Leetcode☆14Updated 5 years ago
- ☆15Updated 4 years ago
- 2019厦门国际银行“数创金融杯”数据建模大赛 复赛第六☆19Updated 5 years ago
- 本项目由三个模块构成。意图识别:判断用户的意图是业务型还是闲聊型;模型检索:该部分构建一个语料库,当用户 发起新的query(通过意图识别判断为业务型对话)时,为用户匹配query检索的最佳response,使用HSWN进行召回(粗排), 然后构建句子的相似度,并利用Lig…☆11Updated 4 years ago
- 基于BERT的预训练语言模型实现,分为两步:预训练和微调。目前已包括BERT、Roberta、ALbert三个模型,且皆可支持Whole Word Mask模式。☆16Updated 5 years ago