Hadoop de archivos distribuido comandos de shell del sistema
los Shell Hadoop es una familia de comandos que se pueden ejecutar desde la línea de comandos del sistema operativo. La concha tiene dos conjuntos de comandos: uno para la manipulación de archivos (similar en propósito y la sintaxis de los comandos de Linux que muchos de nosotros conocemos y el amor) y uno para la administración Hadoop. La siguiente lista resume el primer conjunto de comandos para usted, lo que indica lo que hace el comando, así como el uso y ejemplos, en su caso.
gato: Rutas de origen Copias a stdout.
Uso: dfs HDFS -CAT URI [URI # 133-]
Ejemplo:
hdfs dfs -cat hdfs: //
/ archivo1 dfs HDFS -archivo de gato: /// archivo2 / user / Hadoop / archivo3
chgrp: Cambia la asociación grupo de archivos. Con -R, hace que el cambio de forma recursiva a través de la estructura de directorios. El usuario debe ser el propietario del archivo o el superusuario.
Uso: hdfs dfs -chgrp [-R] GRUPO URI [URI # 133-]
chmod: Cambia los permisos de los archivos. Con -R, hace que el cambio de forma recursiva a través de la estructura de directorios. El usuario debe ser el propietario del archivo o el superusuario
Uso: hdfs dfs -chmod [-R] URI [URI # 133-]
Ejemplo: hdfs dfs -chmod 777 prueba / data1.txt
chown: Cambia el propietario de los archivos. Con -R, hace que el cambio de forma recursiva a través de la estructura de directorios. El usuario debe ser el usuario root.
Uso: hdfs dfs -chown [-R] [EMAIL] [: [GRUPO]] URI [URI]
Ejemplo: hdfs dfs -chown -R hduser2 / opt / Hadoop / logs
copyFromLocal: Funciona de manera similar a la poner comando, excepto que la fuente está restringida a una referencia de archivo local.
Uso: hdfs dfs -copyFromLocal
Ejemplo: hdfs dfs -copyFromLocal de entrada / docs / hdfs data2.txt: //localhost/user/rosemary/data2.txt
copyToLocal: Funciona de manera similar a la obtener comando, excepto que el destino está restringida a una referencia de archivo local.
Uso: hdfs dfs -copyToLocal [-ignorecrc] [-CRc] URI
Ejemplo: hdfs dfs -copyToLocal data2.txt data2.copy.txt
contar: Cuenta el número de directorios, archivos y bytes en virtud de las rutas que coinciden con el patrón de archivo especificado.
Uso: hdfs dfs -count [q]
Ejemplo: hdfs dfs -count hdfs: //nn1.example.com/file1 hdfs: //nn2.example.com/file2
cp: Copia uno o más archivos de un origen especificado a un destino especificado. Si especifica múltiples fuentes, el destino especificado debe ser un directorio.
Uso: hdfs dfs -cp URI [URI # 133-]
Ejemplo: hdfs dfs -cp / user / Hadoop / archivo1 / user / Hadoop / archivo2 / user / Hadoop / dir
du: Muestra el tamaño del archivo especificado, o los tamaños de los archivos y directorios que están contenidos en el directorio especificado. Si especifica el -s opción, se muestra un resumen agregado de tamaño de los archivos en lugar de tamaño de los archivos individuales. Si especifica el -h opción, da formato a los tamaños de los archivos de una manera "legible".
Uso: hdfs dfs -du [-s] [-h] URI [URI # 133-]
Ejemplo: hdfs dfs -du / user / Hadoop / dir1 / user / Hadoop / archivo1
dus: Muestra un resumen de equivalente de archivo Sizes- a hdfs dfs -du -s.
Uso: hdfs dfs -dus
borrar: Vacía la papelera. Cuando se elimina un archivo, éste no se elimina inmediatamente del HDFS, pero se cambia el nombre a un archivo en el / basura directorio. Mientras el archivo permanece allí, se puede recuperar si cambia de opinión, aunque sólo la última copia del archivo borrado puede ser restaurado.
Uso: hdfs dfs -expunge
obtener: Copias archivos en el sistema de archivos local. Los archivos que no logran una comprobación de redundancia cíclica (CRC) todavía se pueden copiar si especifica el -ignorecrc opción. El CRC es una técnica común para la detección de errores de transmisión de datos. Archivos de suma de comprobación CRC tienen la .crc extensión y se utilizan para verificar la integridad de los datos de otro archivo. Estos archivos se copian si especifica el -crc opción.
Uso: hdfs dfs-get [-ignorecrc] [-CRc]
Ejemplo: hdfs dfs-get / user / Hadoop / archivo3 localfile
getmerge: Concatena los archivos src y escribe el resultado en el archivo de destino local especificado. Para agregar un carácter de nueva línea al final de cada archivo, especifique el addnl opción.
Uso: hdfs dfs -getmerge
Ejemplo: hdfs dfs -getmerge / user / Hadoop / mydir / ~ / addnl result_file
ls: Devoluciones estadísticas de los archivos o directorios especificados.
Uso: hdfs dfs -ls
Ejemplo: hdfs dfs -ls / user / Hadoop / archivo1
LSR: Sirve como la versión recursiva de ls- similar al comando Unix ls -R.
Uso: hdfs dfs -lsr
Ejemplo: hdfs dfs -lsr / user / hadoop
mkdir: Crea directorios en uno o más específicos caminos. Su comportamiento es similar al Unix mkdir -p comando, lo que crea todos los directorios que conducen hasta el directorio especificado si no existen ya.
Uso: hdfs dfs -mkdir
Ejemplo: hdfs dfs -mkdir / user / Hadoop / dir5 / temp
moveFromLocal: Funciona de manera similar a la poner comandos, excepto que se elimina la fuente después de que se copia.
Uso: hdfs dfs -moveFromLocal
Ejemplo: hdfs dfs -moveFromLocal localfile1 localfile2 / user / Hadoop / hadoopdir
mv: Mueve uno o más archivos de un origen especificado a un destino especificado. Si especifica múltiples fuentes, el destino especificado debe ser un directorio. Mover archivos a través de los sistemas de archivos no está permitido.
Uso: hdfs dfs -mv URI [URI # 133-]
Ejemplo: hdfs dfs -mv / user / Hadoop / archivo1 / user / Hadoop / archivo2
poner: Copia los archivos del sistema de archivos local al sistema de archivos de destino. Este comando también se puede leer la entrada de stdin y escribir en el sistema de archivo de destino.
Uso: hdfs dfs -Poner
Ejemplo: hdfs dfs -Poner localfile1 localfile2 / user / Hadoop / hadoopdir- hdfs dfs -Poner - / user / Hadoop / hadoopdir (lee la entrada de stdin)
rm: Elimina uno o más archivos especificados. Este comando no elimina directorios vacíos o archivos. Para omitir la basura (si está habilitado) y eliminar los archivos especificados de inmediato, especifique el -skipTrash opción.
Uso: hdfs dfs -rm [-skipTrash] URI [URI # 133-]
Ejemplo: hdfs dfs -rm hdfs: //nn.example.com/file9
rmr: Sirve como la versión recursiva de -rm.
Uso: hdfs dfs -rmr [-skipTrash] URI [URI # 133-]
Ejemplo: hdfs dfs -rmr / user / Hadoop / dir
setrep: Cambia el factor de replicación para un archivo o directorio especificado. Con -R, hace que el cambio de forma recursiva a través de la estructura de directorios.
Uso: hdfs dfs -setrep
Ejemplo: hdfs dfs -setrep 3 -R / user / Hadoop / dir1
stat: Muestra información sobre la ruta especificada.
Uso: dfs HDFS -stat URI [URI # 133-]
Ejemplo: hdfs dfs -stat / user / Hadoop / dir1
cola: Muestra el último kilobyte de un archivo especificado stdout. La sintaxis apoya el Unix -F opción, que permite que el archivo especificado para ser monitoreado. A medida que se añaden nuevas líneas al archivo por otro proceso, tafligir actualiza la pantalla.
Uso: hdfs dfs -tail [-f] URI
Ejemplo: hdfs dfs -tail / user / Hadoop / dir1
prueba: Devuelve los atributos del archivo o directorio especificado. Especifica -e para determinar si el archivo o directorio existe- -z para determinar si el archivo o directorio está vacía- y -d para determinar si el URI es un directorio.
Uso: hdfs dfs-test - [EZD] URI
Ejemplo: hdfs dfs-test / user / Hadoop / dir1
texto: Emite un archivo de origen especificado en formato de texto. Formatos de archivo de entrada válidos son cremallera y TextRecordInputStream.
Uso: hdfs dfs -text
Ejemplo: hdfs dfs -text /user/hadoop/file8.zip
touchz: Crea un archivo nuevo, vacío de tamaño 0 en la ruta especificada.
Uso: hdfs dfs -touchz
Ejemplo: hdfs dfs -touchz / user / Hadoop / file12