文档库 最新最全的文档下载
当前位置:文档库 › Hadoop核心组件:四步通晓HDFS

Hadoop核心组件:四步通晓HDFS

Hadoop核心组件:四步通晓HDFS
Hadoop核心组件:四步通晓HDFS

Hadoop核心组件:四步通晓HDFS

Hadoop分布式文件系统(HDFS)被设计成适合运行在通用硬件上的分布式文件系统,它提供高吞吐量来访问应用程序的数据,适合那些有着超大数据集的应用程序,那么在实际应用中我们如何来操作使用呢?

一、HDFS操作方式:

1、命令行操作

–FsShell:

$ hdfs dfs

2、其他的计算框架-如spark

通过URI,比如: hdfs://nnhost:port/file…,调用HDFS的协议、主机、端口或者对外提供的服务媒、以及文件,在spark 的程序中实现对HDFS的访问。

3、其他程序:

(1)J ava的API,借助于其他的一些计算框架或者分析工具都可以访问HDFS,如Sqoop加载数据到HDFS,Flume加载

日志到HDFS,Impala基于HDFS进行查询

(2)R EST API:通过HTP的方式访问HDFS。

二、重点关注HDFS命令行的方式:

(1)从本地磁盘拷贝文件foo.txt到HDFS的用户目录

–文件将会拷贝到/user/username/foo.txt (2)获取用户home目录的目录列表

(3)获取HDFS的根目录

(4)显示HDFS文件/user/fred/bar.txt内容

(5)拷贝文件到本地磁盘,命名为baz.txt

(6)在用户home目录下创建input目录

(7)删除input_old目录和所有里面的内容

三、通过HUe进行操作。

通过File Browser可以浏览和管理HDFS的目录和文件,也可以创建、移动、重命名、修改、上传、下载和删除目录和文件,以及查看文件内容

四、HDFS推荐

HDFS是所有数据的仓库,在使用HDFS的时候应该对其目录(如日志目录、数据目录)进行合理地规划和组织。最佳实践方式是定义标准目录结构以及把阶段临时的数据分开。

规划示例如下:

(1)/user-用户目录,存放属于个别用户的数据和配置信息(2)/etl-ETL阶段的数据

(3)/tmp-临时生成的用户在用户间共享的数据

(4)/data-整个组织用来分析的和处理的数据集

(5)/app-非数据文件,比如:配置文件,JAR文件,SQL文件等

掌握以上四步对于应用HDFS有着重要的作用和意义,但是大家应该根据自己的情况循序渐进,注重实践,才可以不断取得进步。我平时喜欢找一些案例进行分析,从而锻炼提升自己的技能,这个比较喜欢“大数据cn ”这个微信服务平台。但是真知更多源于实践,只有学习和了解他人的经验,才可以走的更高更远,我爱关注微信订阅号“大数据时代学习中心”,研究各位数据大牛的经验分享,对于促进我个人的技术成长有着非凡的意义。

相关文档