Suche…


Einführung

Wenn wir einen Hive-Metastore für unseren HDFS-Cluster haben, kann Sqoop die Daten in Hive importieren, indem eine CREATE TABLE-Anweisung generiert und ausgeführt wird, um das Layout der Daten in Hive zu definieren. Das Importieren von Daten in Hive ist so einfach wie das Hinzufügen der Option --hive-import in die Sqoop-Befehlszeile.

Bemerkungen

Der Import von Daten direkt aus RDBMS in HIVE kann viel Zeit sparen. Wir können auch eine Freiform-Abfrage (eine Verknüpfung oder eine einfache Abfrage) ausführen und diese in einer Tabelle unserer Wahl direkt in Hive einfügen.

--hive-import teilt Sqoop mit, dass das endgültige Ziel Hive und nicht HDFS ist.

--hive-table-Option hilft beim Importieren der Daten in die von uns gewählte Tabelle in der Struktur, andernfalls wird sie als die aus RDBMS importierte Quelltabelle benannt.

Hive-Import mit Zieltabellenname in Hive

$ sqoop import --connect jdbc:mysql://10.0.0.100/hadooptest 
--username hadoopuser -P
--table table_name --hive-import --hive-table hive_table_name


Modified text is an extract of the original Stack Overflow Documentation
Lizenziert unter CC BY-SA 3.0
Nicht angeschlossen an Stack Overflow