Ricerca…


introduzione

Se disponiamo di un meta-store Hive associato al nostro cluster HDFS, Sqoop può importare i dati in Hive generando ed eseguendo un'istruzione CREATE TABLE per definire il layout dei dati in Hive. L'importazione di dati in Hive è semplice come aggiungere l'opzione --hive-import alla riga di comando Sqoop.

Osservazioni

L'importazione di dati direttamente da RDBMS a HIVE può risolvere un sacco di tempo. Inoltre possiamo eseguire una query a mano libera (un join o qualche semplice query) e popolarla in una tabella di nostra scelta direttamente in Hive.

--hive-import dice a Sqoop che la destinazione finale è Hive e non HDFS.

L'opzione --hive-table aiuta a importare i dati nella tabella in hive scelti da noi, altrimenti verrà chiamato come tabella di origine importata da RDBMS.

Importazione dell'alveare con il nome della tabella di destinazione nell'alveare

$ sqoop import --connect jdbc:mysql://10.0.0.100/hadooptest 
--username hadoopuser -P
--table table_name --hive-import --hive-table hive_table_name


Modified text is an extract of the original Stack Overflow Documentation
Autorizzato sotto CC BY-SA 3.0
Non affiliato con Stack Overflow