- 发帖
- 53402
- 今日发帖
- 最后登录
- 2024-12-22
|
持续时间:5H 40M | 视频:h264 1280x720 | 音频:AAC 48kHz 2Ch | MB 类型:电子学习| 语言:英语| 2019年7月 Sqoop,Flume和Hive的完整课程:非常适合CCA175和Hortonworks Spark认证准备学习 Hadoop分布式文件系统(HDFS)和命令 Sqoop生命周期命令 Sqoop import命令将数据从Mysql迁移到HDFS Sqoop import命令将数据从Mysql迁移到Hive 了解拆分和边界查询 使用增量模式从Mysql迁移数据到HDFS 使用Sqoop导出将数据从HDFS迁移到MySQL Spark数据帧 - 使用diff文件格式和压缩 Spark SQL关于 在本课程中,您将首先了解Hadoop分布式文件系统(HDFS)以及使用HDFS所需的最常见的Hadoop命令。然后,您将了解Sqoop Import,通过它可以了解Sqoop命令的生命周期以及如何使用import命令将数据从Mysql迁移到HDFS,从Mysql迁移到Hive等等。此外,您将了解Sqoop Export以有效迁移数据,以及Apache Flume可以获取数据。Apache Hive一节介绍了Hive,以及外部和托管表; 使用不同的文件,Parquet和Avro等等。您将在最后几节中了解Spark Dataframes,Spark SQL等等。所有代码和支持文件均可在以下网址获得:https://github.com/PacktPublishing/Master-Big-Data-Ingestion-and-Analytics-with-Flume-Sqoop-Hive-and-Spark功能 了解Sqoop,Flume和Hive并成功准备CCA175和Hortonworks Spark认证 了解Hadoop分布式文件系统(HDFS)和Hadoop命令,以便与HDFS一起有效工作
本部分内容设定了隐藏,需要回复后才能看到
|