xiongmozhou / gmall-realtimeLinks
数仓实时项目
☆10Updated 6 years ago
Alternatives and similar repositories for gmall-realtime
Users that are interested in gmall-realtime are comparing it to the libraries listed below
Sorting:
- flink实时处理kafka传来的数据通过连接池技术写入hbase☆96Updated 2 years ago
- 基于spark-streaming的实时数仓☆12Updated last year
- SparkStreaming项目,显示flume->Kafka->Spark->hbase(实时数据处理方案),Scala实现☆36Updated 7 years ago
- 信托数据仓库及商业智能☆32Updated 6 years ago
- SparkSQL数据分析案例☆23Updated 8 years ago
- Streaming 相关项目☆15Updated 8 years ago
- FlinkTutorial 专注大数据Flink流试处理技术。从基础入门、概念、原理、实战、性能调优、源码解析等内容,使用Java开发,同时含有Scala部分核心代码。欢迎关注我的博客及github。☆70Updated 2 years ago
- 大数据平台相关代码(ES/Hive/Hadoop/hdfs/hbase)☆75Updated 2 years ago
- spark将hdfs数据高性能灌入kafka,然后spark streaming/structured streaming高速消费,关注性能,欢迎提供性能/代码优化建议☆33Updated 6 years ago
- hive仓库元数据管理系统☆166Updated 8 years ago
- Spark Streaming监控平台,支持任务部署与告警、自启动☆128Updated 7 years ago
- 大数据实习hdfs+flume+kafka+spark+hbase+hive项目☆36Updated 7 years ago
- Spark structured-streaming 消费kafka数据写入hbase☆33Updated 6 years ago
- 基于canal/kafka conenct的mysql/oracle数据实时同步、flink rest api、flink sql以及udf☆50Updated 2 years ago
- Hive hook, obtain task information from Hive, fetch input/output tables and lineage information from HSQL.☆40Updated last year
- 数据血缘,Hive/Sqoop/HBase/Spark等,发送到kafka后,解析处理使用neo4j生成血缘☆82Updated 3 years ago
- tools for bigData☆37Updated 6 years ago
- Learning Flink : Flink CEP,Flink Core,Flink SQL☆71Updated 3 years ago
- 使用spark对hive、hbase、ES的读写, 实现一次配置可对不同数据库进行导入导出,并对ES、hbase进行封装☆33Updated 8 years ago
- 大数据工具封装☆19Updated 2 years ago
- 基于flume+kafka+HBase+spark+ElasticSearch的用户轨迹查询大数据开发项目☆117Updated 2 years ago
- Flink 实时ETL案例☆46Updated 2 years ago
- kafka传数据到Flink存储到mysql之Flink使用SQL语句聚合数据流(设置时间窗口,EventTime)☆32Updated 7 years ago
- ☆38Updated last year
- 手动管理spark streaming集成kafka的数据偏移量到zookeeper中☆22Updated 6 years ago
- 学习 Spark 的一个小项目,以及其中各种调优的笔记☆177Updated 7 years ago
- flink-sql 在 flink 上运行 sql 和 构建数据流的平台 基于 apache flink 1.10.0☆110Updated 2 years ago
- Real-time ETL developed by Flink, data from MySQL to Greenplum. Use canal to parse the MySQL binlog, put it into kafka, use Flink to cons…☆79Updated last year
- 基于flink的用户行为分析☆51Updated last year
- 实时数据仓库搭建☆16Updated 5 years ago