Comenzi utile Hadoop Shell



Acest blog descrie toate comenzile utile Hadoop Shell. Împreună cu Hadoop Shell Commands, are și capturi de ecran pentru a simplifica învățarea. Citește mai departe!

HDFS înseamnă „ H adoop D repartizat F cu S ystem ’. HDFS este un sub-proiect al proiectului Apache Hadoop. Acest proiect Apache Software Foundation este conceput pentru a oferi un sistem de fișiere tolerant la erori, conceput pentru a rula pe hardware de bază. HDFS este accesat printr-un set de comenzi shell care vor fi discutate în acest post.





O scurtă notă înainte de a începe: Toate comenzile Hadoop Shell sunt invocate de scriptul bin / hadoop.

Comenzi utilizator:

  • Rulați sistemul de fișiere DFS:

Utilizare: hadoop fsck - /



Run-DFS-file-system (1)

aruncați dublu la int java
  • C heck versiunea Hadoop :

Utilizare: versiunea Hadoop



Comenzi FS Shell:

Comanda Hadoop fs rulează un client de utilizator de sistem de fișiere generic care interacționează cu sistemul de fișiere MapR (MapR-FS).

  • Vizualizați listele de fișiere:

Utilizare: hadoop fs -ls hdfs: /

  • Verificați starea memoriei:

Utilizare: hadoop fs -df hdfs: /

  • Numărul de directoare, fișiere și octeți în calea specificată și modelul de fișier:

Utilizare: hadoop fs -cont hdfs: /

  • Mutați fișierul dintr-o locație în alta:

Utilizare: -mv

  • Copiați fișierul de la sursă la destinație :

Utilizare: -cp

  • Sterge fisierul:

Utilizare: -rm

  • Puneți fișierul din sistemul de fișiere local în sistemul de fișiere distribuite Hadoop:

Utilizare: -put ...

  • Copiați fișierul din Local în HDFS:

Utilizare: -copyFromLocal ...

  • Vizualizați fișierul în sistemul de fișiere distribuite Hadoop :

Utilizare: -cat

Comenzi de administrare:

  • Formatați scopul :

Utilizare: hadoop scop -format

  • Început scopuri secundare:

Utilizare: hadoop secondrynamenode

  • Aleargă intenționat :

Utilizare: scop hadoop

  • Alerga nod de date :

Utilizare: datanode hadoop

  • Echilibrarea clusterelor :

Utilizare: echilibru hadoop

  • Rulați nodul de urmărire a lucrărilor MapReduce:

Utilizare: tracker hadoop job

  • Rulați nodul de urmărire a activității MapReduce:

Utilizare: hadoop tasktracker

Ai o întrebare pentru noi? Vă rugăm să le menționați în secțiunea de comentarii și vă vom răspunde.

Postări asemănatoare:

cum se folosește python anaconda

Operatori în Apache Pig