徐培成电商项目
项目概览
大数据业务处理
- 01.项目阐述
- 02.项目在idea中的初始化
- 03.项目在model创建和hibernate类库引入以及配置
- 04.项目Spring依赖项引入与spring配置文件与c3p0数据源配置
- 05.测试数据源和连接
- 06.编写Dao接口和基本实现类
- 07.编写Service和基本service实现
- 08.编写Service与beans配置-事务管理回顾-jvm结构回顾
- 09.编写tx事务管理
- 10.编写webmvc部分代码-controller程序
- 第02天-01.idea的web项目库配置-类找不到问题
- 第02天-02.idea的web中用户注册于登录
- 第02天-03.idea的web中完善User信息-验证注册过程
- 第02天-04.idea的web用户信息显示
- 第02天-05.web程序的用户编辑和修改
- 第02天-06.web nginx服务器centos安装启动停止
- 第03天-01.集群上安装tomcat
- 第03天-02.配置win7 nginx反向代理¢os; nginxweb服务器配置
- 第03天-03.配置nginxweb服务器的日志格式以及切割注意事项
- 第03天-04.配置pom.xml项目打成war与war插件依赖设置
- 第03天-05.web项目打包成war在tomcat集群上进行分发
- 第03天-06.通过反向代理服务器访问web静态资源-查看日志记录情况
- 第03天-07.通过apache ab测试软件模拟高并发访问产生大量的日志信息
- 第03天-08.数据收集模式分析-flume-kafka模式收集
- 第03天-09.nginx实现logs滚动
- 第04天-01.flume+kafka集成-flume日志收集
- 第04天-02.kafka集群配置
- 第04天-03.kafka消费者编程-hdfs启动
- 第04天-04.web项目中使用curl标签部署web项目到tomcat集群
- 第04天-05.测试hdfs单元测试-读取hdfs文件数据
- 第04天-06.hdfs写入-工具类-日志解析格式处理
- 第04天-07.hdfs输出流池化处理
- 01.数据输出流池化以及优化处理(重用)
- 02.池化模式测试数据存储
- 第05天-03.使用TimerTask实现流池中的流周期性关闭
- 第05天-04.使用cron调度周期性添加hive分区表
- 第05天-05.导出消费者成jar到centos运行
- 第05天-06.hive清洗消费者
- 第05天-07.hive清洗消费者测试清洗过程
- 第06天-01.Hive使用load加载数据并进行数据topN统计
- 第06天-02.使用sqoop将Hive统计算出的结果导出到mysql
- 第06天-03.编写hive脚本和bash脚本实现统计数据的处理和导出
- 第06天-04.编写bash脚本动态等成hive脚本并执行批处理任务
- 第06天-05.前端读取mysql存放的统计生成图表
- 第06天-06.用户推荐系统处理-web部分
- 第06天-07.spark模型训练与模型存储与外部推荐系统集成
- 第06天-08.spark推荐
- 第06天-02.使用sqoop将Hive统计算出的结果导出到mysql
提交答案
视频学习中有任何产品建议都可由此反
馈,我们将及时处理!
馈,我们将及时处理!
课程介绍
目前无论是企业还是培训机构没有一家完整的大数据案例项目,本次课程从产生数据--收集收据--数据分析---数据展示一步步带您进入大数据世界,让你觉得大数据并不是那么神秘。
此大数据项目分为前端展示,系统搭建,数据分析,数据展示
前端技术展示用spring mvc和hiberate在servlet3.0规范下
数据分析:日志数据产生
数据分析应用:hive与crontab组合实现等一些常用技术
推荐课程