Ricerca…


Sintassi

  • Comandi Hadoop v1: hadoop fs -<command>

  • Comandi Hadoop v2: hdfs dfs -<command>

Hadoop v1 Comandi

1. Stampa la versione di Hadoop

hadoop version

2. Elencare i contenuti della directory root in HDFS

hadoop fs -ls /

3. Segnala la quantità di spazio utilizzato e

disponibile sul filesystem attualmente montato

hadoop fs -df hdfs:/

4. Contare il numero di directory, file e byte sotto

i percorsi che corrispondono al modello di file specificato

hadoop fs -count hdfs:/

5. Eseguire un'utilità di controllo del filesystem DFS

hadoop fsck – /

6. Eseguire un'utilità di bilanciamento del cluster

hadoop balancer

7. Crea una nuova directory chiamata "hadoop" sotto il

/ directory utente / formazione in HDFS. Dal momento che lo sei

attualmente connesso con l'ID utente "training",

/ user / training è la tua directory home in HDFS.

hadoop fs -mkdir /user/training/hadoop

8. Aggiungi un file di testo di esempio dalla directory locale

chiamato "dati" nella nuova directory creata in HDFS

durante il passaggio precedente.

hadoop fs -put data/sample.txt /user/training/hadoop

9. Elencare il contenuto di questa nuova directory in HDFS.

hadoop fs -ls /user/training/hadoop

10. Aggiungi l'intera directory locale chiamata "retail" al

/ directory utente / formazione in HDFS.

hadoop fs -put data/retail /user/training/hadoop

11. Poiché / user / training è la tua directory home in HDFS,

qualsiasi comando che non ha un percorso assoluto è

interpretato come relativo a quella directory. Il prossimo

comando quindi elenca la tua home directory, e

dovrebbe mostrare gli oggetti che hai appena aggiunto lì.

hadoop fs -ls

12. Scopri quanto spazio occupa questa directory in HDFS.

hadoop fs -du -s -h hadoop/retail

13. Eliminare un file "clienti" dalla directory "vendita al dettaglio".

hadoop fs -rm hadoop/retail/customers

14. Assicurarsi che questo file non sia più in HDFS.

hadoop fs -ls hadoop/retail/customers

15. Elimina tutti i file dalla directory "retail" utilizzando un carattere jolly.

hadoop fs -rm hadoop/retail/*

16. Per svuotare il cestino

hadoop fs -expunge

17. Infine, rimuovere l'intera directory di vendita e tutto

dei suoi contenuti in HDFS.

hadoop fs -rm -r hadoop/retail

18. Elenca nuovamente la directory hadoop

hadoop fs -ls hadoop

19. Aggiungi il file purchasing.txt dalla directory locale

chiamato "/ home / training /" alla directory hadoop che hai creato in HDFS

hadoop fs -copyFromLocal /home/training/purchases.txt hadoop/

20. Per visualizzare i contenuti del tuo file di testo purchase.txt

che è presente nella tua directory hadoop.

hadoop fs -cat hadoop/purchases.txt

21. Aggiungi il file purchasing.txt dalla directory "hadoop" che è presente nella directory HDFS

alla directory "data" che è presente nella tua directory locale

hadoop fs -copyToLocal hadoop/purchases.txt /home/training/data

22. cp è usato per copiare file tra le directory presenti in HDFS

hadoop fs -cp /user/training/*.txt /user/training/hadoop

23. Il comando '-get' può essere usato alternativamente al comando '-copyToLocal'

hadoop fs -get hadoop/sample.txt /home/training/

24. Mostra l'ultimo kilobyte del file "orders.txt" allo stdout.

hadoop fs -tail hadoop/purchases.txt

25. Le autorizzazioni file predefinite sono 666 in HDFS

Utilizzare il comando '-chmod' per modificare i permessi di un file

hadoop fs -ls hadoop/purchases.txt
sudo -u hdfs hadoop fs -chmod 600 hadoop/purchases.txt

26. I nomi predefiniti del proprietario e del gruppo sono addestramento, addestramento

Usa '-chown' per cambiare il nome del proprietario e il nome del gruppo simultaneamente

hadoop fs -ls hadoop/purchases.txt
sudo -u hdfs hadoop fs -chown root:root hadoop/purchases.txt

27. Il nome predefinito del gruppo è la formazione

Utilizzare il comando '-chgrp' per cambiare il nome del gruppo

hadoop fs -ls hadoop/purchases.txt
sudo -u hdfs hadoop fs -chgrp training hadoop/purchases.txt

28. Spostare una directory da una posizione all'altra

hadoop fs -mv hadoop apache_hadoop

29. Il fattore di replica predefinito in un file è 3.

Utilizzare il comando '-setrep' per modificare il fattore di replicazione di un file

hadoop fs -setrep -w 2 apache_hadoop/sample.txt

30. Copia una directory da un nodo nel cluster a un altro

Usa il comando '-distcp' per copiare,

-overwrite l'opzione per sovrascrivere in un file esistente

-aggiornamento del comando per sincronizzare entrambe le directory

hadoop fs -distcp hdfs://namenodeA/apache_hadoop hdfs://namenodeB/hadoop

31. Comando per fare in modo che il nodo del nome lasci la modalità sicura

hadoop fs -expunge
sudo -u hdfs hdfs dfsadmin -safemode leave

32. Elenca tutti i comandi della shell del file system hadoop

hadoop fs

33. Ottieni valori quota hdf e il numero corrente di nomi e byte in uso.

hadoop fs -count -q [-h] [-v] <directory>...<directory>

34. Ultimo ma non meno importante, chiedi sempre aiuto!

hadoop fs -help

Comandi Hadoop v2

appendToFile: aggiungi singolo src o più srcs dal file system locale al file system di destinazione. Legge anche l'input da stdin e aggiunge al file system di destinazione. Mantieni il come -

 hdfs dfs -appendToFile [localfile1 localfile2 ..] [/HDFS/FILE/PATH..]

cat: copia i percorsi di origine su stdout.

 hdfs dfs -cat URI [URI …]

chgrp: cambia l'associazione di gruppo dei file. Con -R, rende la modifica in modo ricorsivo tramite la struttura della directory. L'utente deve essere il proprietario del file o il superutente.

 hdfs dfs -chgrp [-R] GROUP URI [URI …]

chmod: modifica le autorizzazioni dei file. Con -R, rende la modifica in modo ricorsivo tramite la struttura della directory. L'utente deve essere il proprietario del file o il superutente

 hdfs dfs -chmod [-R] <MODE[,MODE]... | OCTALMODE> URI [URI …]

chown: cambia il proprietario dei file. Con -R, rende la modifica in modo ricorsivo tramite la struttura della directory. L'utente deve essere il superutente.

 hdfs dfs -chown [-R] [OWNER][:[GROUP]] URI [URI ]

copyFromLocal: funziona in modo simile al comando put, tranne per il fatto che l'origine è limitata a un riferimento al file locale.

 hdfs dfs -copyFromLocal <localsrc> URI

copyToLocal: funziona in modo simile al comando get, tranne per il fatto che la destinazione è limitata a un riferimento al file locale.

 hdfs dfs -copyToLocal [-ignorecrc] [-crc] URI <localdst>

conteggio: conta il numero di directory, file e byte sotto i percorsi che corrispondono al modello di file specificato.

 hdfs dfs -count [-q] [-h] <paths>

cp: copia uno o più file da un'origine specificata a una destinazione specificata. Se si specificano più origini, la destinazione specificata deve essere una directory.

 hdfs dfs -cp URI [URI …] <dest>

du: visualizza la dimensione del file specificato o le dimensioni dei file e delle directory contenuti nella directory specificata. Se si specifica l'opzione -s, viene visualizzato un riepilogo aggregato delle dimensioni dei file anziché delle dimensioni dei singoli file. Se si specifica l'opzione -h, formatta le dimensioni del file in un modo "leggibile".

 hdfs dfs -du [-s] [-h] URI [URI …]

dus: visualizza un riepilogo delle dimensioni del file; equivalente a hdfs dfs -du -s.

 hdfs dfs -dus <args>

expunge: svuota la spazzatura. Quando elimini un file, non viene rimosso immediatamente da HDFS, ma viene rinominato in un file nella directory / trash. Finché il file rimane lì, è possibile ripristinarlo se si cambia idea, anche se è possibile ripristinare solo l'ultima copia del file eliminato.

 hdfs dfs –expunge

get: copia i file nel file system locale. I file che non superano un controllo di ridondanza ciclico (CRC) possono ancora essere copiati se si specifica l'opzione -ignorecrc. Il CRC è una tecnica comune per rilevare errori di trasmissione dei dati. I file di checksum CRC hanno l'estensione .crc e sono utilizzati per verificare l'integrità dei dati di un altro file. Questi file vengono copiati se si specifica l'opzione -crc.

 hdfs dfs -get [-ignorecrc] [-crc] <src> <localdst>

getmerge: concatena i file in src e scrive il risultato nel file di destinazione locale specificato. Per aggiungere un carattere di fine riga alla fine di ogni file, specificare l'opzione addnl.

 hdfs dfs -getmerge <src> <localdst> [addnl]

ls: restituisce le statistiche per i file o le directory specificati.

 hdfs dfs -ls <args>

lsr: funge da versione ricorsiva di ls; simile al comando Unix ls -R.

 hdfs dfs -lsr <args>

mkdir: crea directory su uno o più percorsi specificati. Il suo comportamento è simile al comando mkdir -p di Unix, che crea tutte le directory che portano alla directory specificata se non esistono già.

 hdfs dfs -mkdir <paths>

moveFromLocal: funziona in modo simile al comando put, tranne per il fatto che la sorgente viene cancellata dopo essere stata copiata.

 hdfs dfs -moveFromLocal <localsrc> <dest>

mv: sposta uno o più file da un'origine specificata a una destinazione specificata. Se si specificano più origini, la destinazione specificata deve essere una directory. Lo spostamento di file tra file system non è consentito.

 hdfs dfs -mv URI [URI …] <dest>

put: copia i file dal file system locale al file system di destinazione. Questo comando può anche leggere l'input da stdin e scrivere nel file system di destinazione.

 hdfs dfs -put <localsrc> ... <dest>

rm: elimina uno o più file specificati. Questo comando non cancella directory o file vuoti. Per ignorare il cestino (se è abilitato) ed eliminare immediatamente i file specificati, specificare l'opzione -skipTrash.

 hdfs dfs -rm [-skipTrash] URI [URI …]

rm r: funge da versione ricorsiva di -rm.

 hdfs dfs -rm -r [-skipTrash] URI [URI …]

setrep: modifica il fattore di replicazione per un file o una directory specificati. Con -R, rende la modifica in modo ricorsivo tramite la struttura della directory.

 hdfs dfs -setrep <rep> [-R] <path>

stat: visualizza le informazioni sul percorso specificato.

 hdfs dfs -stat URI [URI …]

tail: visualizza l'ultimo kilobyte di un file specificato su stdout. La sintassi supporta l'opzione Unix -f, che consente di monitorare il file specificato. Quando nuove righe vengono aggiunte al file da un altro processo, tail aggiorna il display.

 hdfs dfs -tail [-f] URI

test: restituisce gli attributi del file o della directory specificati. Specifica -e per determinare se il file o la directory esiste; -z per determinare se il file o la directory è vuota; e -d per determinare se l'URI è una directory.

 hdfs dfs -test -[ezd] URI

testo: emette un file sorgente specificato in formato testo. I formati di file di input validi sono zip e TextRecordInputStream.

 hdfs dfs -text <src>

touchz: crea un nuovo file vuoto di dimensione 0 nel percorso specificato.

 hdfs dfs -touchz <path>


Modified text is an extract of the original Stack Overflow Documentation
Autorizzato sotto CC BY-SA 3.0
Non affiliato con Stack Overflow