1.創建目錄
hadoop dfs -mkdir /data
hadoop dfs -mkdir -p /data/data1 創建多級目錄
2.查看文件
hadoop dfs -ls /
3.上傳文件
hadoop dfs -put /usr/local/data/ /data
4.下載文件 get,將hdfs文件下載到linux本地
hadoop dfs -get /data/data/students.txt 下載到當前目錄
5. 複制 cp
hadoop dfs -cp /data/data/students.txt /data
6. 查看文件內容 cat , 如果數據量比較大,不能使用
hadoop dfs -cat /data/data/students.txt
7. 移動 mv, 物理層面文件沒有移動,只是改變了元數據(目錄結構)
hadoop dfs -mv /data/data/students.txt /
8. 删除文件或者目錄 rmr 但其實並沒有真正删除,只是一個mv放到了回收站,回收站會自動清理
hadoop dfs -rmr /data/student.txt
etc下的hadoop配置文件中 cat core-site.xml
手動删除回收站
Hadoop dfs -rmr /user/root/.Trash/Current
强制删除,-skipTrash 當需要删除的文件比較大的時候
hadoop dfs -rmr -skipTrash /a
9. 查看文件末尾 tail -f ; 一直等待查看
hadoop dfs -tail /data/data/students.txt
10. 查看文件的大小
hadoop dfs -du -h /data
11.hdfs中的文件都是保存datanode子節點上,在子節點上的比特置
usr/local/soft/hadoop-2.7.6/tmp/dfs/data/current/BP-626788496-192.168.163.110-163187979/current/finalized/subdir0/subdir0
12.安全模式(在安全模式不能進行修改操作,可以查看)
hadoop dfsadmin -safemode get 用來查看當前hadoop安全模式的開關狀態
hadoop dfsadmin -safemode enter 命令是打開安全模式
hadoop dfsadmin -safemode leave 命令是離開安全模式