大数据之---hadoop常用命令大全终极篇-创新互联

软件环境

创新互联建站专注于企业网络营销推广、网站重做改版、榕江网站定制设计、自适应品牌网站建设、H5高端网站建设成都做商城网站、集团公司官网建设、外贸网站制作、高端网站制作、响应式网页设计等建站业务,价格优惠性价比高,为榕江等各大城市提供网站开发制作服务。
RHEL6.8 hadoop2.8.1 apache-maven-3.3.9
findbugs-1.3.9 protobuf-2.5.0.tar.gz jdk-8u45

(操作环境root安装启动的hadoop)
hadoop fs == hdfs dfs

将文件上传至hadoop的根目录/下载至本地
hadoop dfs -put filename /    
hadoop dfs -get /filename   
# '/'不是Linux的根目录,表示hadoop的根目录
 
上传文件   下载
[root@hadoop01 software]# hdfs dfs -put apache-maven-3.3.9-bin.zip  /
[root@hadoop01 software]# hdfs  dfs -ls   /
[root@hadoop01 software]# hdfs dfs -put apache-maven-3.3.9-bin.zip  /
[root@hadoop01 software]# cd
[root@hadoop01 ~]# hdfs dfs -get /apache-maven-3.3.9-bin.zip

帮助

[-moveFromLocal ... ]
  [-moveToLocal ]
查看hadoop里的文件内容
hadoop dfs -ls /
[root@hadoop01 ~]# hdfs dfs -ls /
Found 3 items
-rw-r--r--   3 root supergroup    8617253 2018-04-26 09:20 /apache-maven-3.3.9-bin.zip
-rw-r--r--   3 root supergroup      59776 2018-04-26 09:14 /install.log
-rw-r--r--   3 root supergroup      11067 2018-04-26 08:46 /install.log.syslog
查看hadoop里的文件的内容
hadoop fs -cat filename
[root@hadoop01 ~]# hadoop fs -cat   /file1
111

创建文件夹

hadoop fs -mkdir -p /filename/filename
[root@hadoop01 ~]#   hadoop fs -mkdir -p /filename/filename

删除file 删除dir
[root@hadoop01 ~]# hadoop fs -rm -r -f /file1
Deleted /file1
[root@hadoop01 ~]# hadoop fs -rm -r -f /filename
Deleted /filename

#  [-rm [-f] [-r|-R] [-skipTrash] [-safely] ...]
 
  1.配置回收站
  vi core-site.xml
   
    fs.trash.interval 
    10080          # 回收站保留时间(分钟)
 

 
 
  2.测试
  hadoop fs -rm -r -f /xxxx                              进入回收站,是可以恢复的
  hadoop fs -rm -r -f -skipTrash /xxxx       不进入回收站,是不可以恢复的
  A.进入回收站
[root@hadoop01 ~]# hadoop fs -ls /
Found 4 items
-rw-r--r--   3 root supergroup    8617253 2018-04-26 09:20 /apache-maven-3.3.9-bin.zip
drwxr-xr-x   - root supergroup          0 2018-04-26 09:35 /dir
-rw-r--r--   3 root supergroup      59776 2018-04-26 09:14 /install.log
-rw-r--r--   3 root supergroup      11067 2018-04-26 08:46 /install.log.syslog
[root@hadoop01 ~]# hadoop fs -rm -r -f /install.log
18/04/26 09:38:28 INFO fs.TrashPolicyDefault: Moved: 'hdfs://172.16.18.133:9000/install.log' to trash at: hdfs://172.16.18.133:9000/user/root/.Trash/Current/install.log
[root@hadoop01 ~]# hadoop fs -ls
Found 1 items
drwx------   - root supergroup          0 2018-04-26 09:38 .Trash
[root@hadoop01 ~]# hadoop fs -ls
Found 1 items
drwx------   - root supergroup          0 2018-04-26 09:38 .Trash
[root@hadoop01 ~]# hadoop fs -ls .Trash/
Found 1 items
drwx------   - root supergroup          0 2018-04-26 09:38 .Trash/Current
[root@hadoop01 ~]# hadoop fs -ls .Trash/Current
Found 1 items
-rw-r--r--   3 root supergroup      59776 2018-04-26 09:14 .Trash/Current/install.log
  恢复刚刚删除的文件
[root@hadoop01 ~]# hadoop fs -ls /user
Found 1 items
drwx------   - root supergroup          0 2018-04-26 09:38 /user/root
[root@hadoop01 ~]# hadoop fs -ls /user/root/
Found 1 items
drwx------   - root supergroup          0 2018-04-26 09:38 /user/root/.Trash
[root@hadoop01 ~]# hadoop fs -mv /user/root/.Trash/Current/install.log  /
[root@hadoop01 ~]# hadoop fs -ls /
Found 5 items
-rw-r--r--   3 root supergroup    8617253 2018-04-26 09:20 /apache-maven-3.3.9-bin.zip
drwxr-xr-x   - root supergroup          0 2018-04-26 09:35 /dir
-rw-r--r--   3 root supergroup      59776 2018-04-26 09:14 /install.log
-rw-r--r--   3 root supergroup      11067 2018-04-26 08:46 /install.log.syslog
drwx------   - root supergroup          0 2018-04-26 09:38 /user
 
  B.不进入回收站
[root@hadoop01 ~]# hadoop fs -rm -r -f -skipTrash  /install.log.syslog
Deleted /install.log.syslog
[root@hadoop01 ~]# hadoop fs -ls
Found 1 items
drwx------   - root supergroup          0 2018-04-26 09:38 .Trash
[root@hadoop01 ~]# hadoop fs -ls .Trash/Current
[root@hadoop01 ~]#        

hdfs fs -moveFromLocal /input/xx.txt /input/xx.txt  ---从本地剪切粘贴到hdfs

hdfs fs -moveToLocal /input/xx.txt /input/xx.txt  --从hdfs剪切粘贴到本地

hdfs fs -appedToFile ./hello.txt /input/hello.txt  ---追加一个文件到另一个文件到末尾

注意:appedToFile  moveToLocal moveFromLocal  大小写严格

hdfs fs -cat /input/hello.txt   ---查看文件内容

hdfs fs -tail /input/hello.txt   ---显示一个文件到末尾

hdfs fs -text /input/hello.txt  ---以字符串的形式打印文件的内容

hdfs fs -chmod 666 /input/hello.txt   ---修改文件权限

hdfs fs -chown ruoze.ruoze  /input/hello.txt   --修改文件所属

hdfs fs -copyFromLocal /input/hello.txt /input/   --从本地文件系统拷贝到hdfs里

hdfs fs -copyToLocal /input/hello.txt /input/     --从hdfs拷贝到本地

hdfs fs -cp /input/xx.txt /output/xx.txt              ---从hdfs到一个路径拷贝到另一个路径

hdfs fs -mv /input/xx.txt /output/xx.txt            ---从hdfs到一个路径移动到另一个路径

hdfs fs -df -h /                                                              ----统计文件系统的可用空间信息

hdfs fs -du -s -h /                                                         ----统计文件夹的大小信息

hadoop  fs -count /aaa  -                                             ---统计一个指定目录下的文件节点数量

hadoop fs -setrep 3 /input/xx.txt                           --设置hdfs的文件副本数量

另外有需要云服务器可以了解下创新互联scvps.cn,海内外云服务器15元起步,三天无理由+7*72小时售后在线,公司持有idc许可证,提供“云服务器、裸金属服务器、高防服务器、香港服务器、美国服务器、虚拟主机、免备案服务器”等云主机租用服务以及企业上云的综合解决方案,具有“安全稳定、简单易用、服务可用性高、性价比高”等特点与优势,专为企业上云打造定制,能够满足用户丰富、多元化的应用场景需求。


网站栏目:大数据之---hadoop常用命令大全终极篇-创新互联
当前链接:http://hbruida.cn/article/ccdicp.html