论坛风格切换
 
  • 帖子
  • 日志
  • 用户
  • 版块
  • 群组
帖子
购买邀请后未收到邀请联系sdbeta@qq.com
  • 1965阅读
  • 2回复

[教程资料]使用Flume,Sqoop,Hive和Spark掌握大数据摄取和分析 [复制链接]

上一主题 下一主题
离线pony8000
 

发帖
53402
今日发帖
最后登录
2024-12-22
只看楼主 倒序阅读 使用道具 楼主  发表于: 2019-08-06 16:33:31
持续时间:5H 40M | 视频:h264 1280x720 | 音频:AAC 48kHz 2Ch | MB
类型:电子学习| 语言:英语| 2019年7月



Sqoop,Flume和Hive的完整课程:非常适合CCA175和Hortonworks Spark认证准备
学习
Hadoop分布式文件系统(HDFS)和命令
Sqoop生命周期命令
Sqoop import命令将数据从Mysql迁移到HDFS
Sqoop import命令将数据从Mysql迁移到Hive
了解拆分和边界查询
使用增量模式从Mysql迁移数据到HDFS
使用Sqoop导出将数据从HDFS迁移到MySQL
Spark数据帧 - 使用diff文件格式和压缩
Spark SQL

关于
在本课程中,您将首先了解Hadoop分布式文件系统(HDFS)以及使用HDFS所需的最常见的Hadoop命令。然后,您将了解Sqoop Import,通过它可以了解Sqoop命令的生命周期以及如何使用import命令将数据从Mysql迁移到HDFS,从Mysql迁移到Hive等等。

此外,您将了解Sqoop Export以有效迁移数据,以及Apache Flume可以获取数据。Apache Hive一节介绍了Hive,以及外部和托管表; 使用不同的文件,Parquet和Avro等等。您将在最后几节中了解Spark Dataframes,Spark SQL等等。
所有代码和支持文件均可在以下网址获得:https//github.com/PacktPublishing/Master-Big-Data-Ingestion-and-Analytics-with-Flume-Sqoop-Hive-and-Spark
功能
了解Sqoop,Flume和Hive并成功准备CCA175和Hortonworks Spark认证
了解Hadoop分布式文件系统(HDFS)和Hadoop命令,以便与HDFS一起有效工作




本部分内容设定了隐藏,需要回复后才能看到


精品软件:百度搜闪电软件园  最新软件百度搜:闪电下载吧
有问题联系 sdbeta@qq.com
离线power3

发帖
1469
今日发帖
最后登录
2024-12-23
只看该作者 沙发  发表于: 2021-09-02 07:53:53
先收蒧下,谢谢分享。
离线tflying

发帖
1567
今日发帖
最后登录
2024-06-24
只看该作者 板凳  发表于: 2021-10-01 17:43:26
谢谢楼主的分享。