本文共 730 字,大约阅读时间需要 2 分钟。
1、HDFS上创建目录
${HADOOP_HOME}/bin/hdfs dfs -mkdir /demo1
2、上传本地文件到HDFS上
${HADOOP_HOME}/bin/hdfs dfs -put ${HADOOP_HOME}/etc/hadoop/core-site.xml /demo1
3、上传本地文件到HDFS上
${HADOOP_HOME}/bin/hdfs dfs -cat /demo1/core-site.xml
4、从HDFS上下载文件到本地
${HADOOP_HOME}/bin/hdfs dfs -get /demo1/core-site.xml
其他:
hdfs dfs -cat /demo2/1.txt |grep liugen 查看文件
hdfs dfs -mkdir -P /demo2/haha/wa 创建多级目录(不存在的也给我创建出来)
hdfs dfs -rm -R 删除多级目录
hdfs dfs -ls /demo 查看目录下内容
hdfs dfs -ls -R /demo 把目录和子目录下的文件都列出来
hdfs dfs -chmod -R 777 /demo 对目录和子目录都修改权限
hdfs dfs -get /demo2/1.txt liugen.txt 把hdfs文件拉到本地,并重命名。
hdfs dfs -put -f 1.txt /demo2 将hdfs中已有的文件强制覆盖(-f)
hdfs dfs -cp /demo2/1.txt /user/ //复制文件
hdfs dfs -mv /-user/file.csv /demo2/1.csv //移动文件并重命名(原文件没了)
转载地址:http://dwvws.baihongyu.com/