Recherche…


Introduction

Si nous avons un méta-magasin Hive associé à notre cluster HDFS, Sqoop peut importer les données dans Hive en générant et en exécutant une instruction CREATE TABLE pour définir la disposition des données dans Hive. Importer des données dans Hive est aussi simple que d'ajouter l'option --hive-import à votre ligne de commande Sqoop.

Remarques

L'importation de données directement du SGBDR vers HIVE peut permettre de résoudre de nombreux problèmes. Nous pouvons également exécuter une requête de forme libre (une jointure ou une requête simple) et la remplir directement dans une table de notre choix dans Hive.

--hive-import dit à Sqoop que la destination finale est Hive et non HDFS.

L'option --hive-table aide à importer les données dans la table de hive choisie par nous, sinon elle sera nommée en tant que table source importée à partir du SGBDR.

Import de ruche avec le nom de la table de destination dans la ruche

$ sqoop import --connect jdbc:mysql://10.0.0.100/hadooptest 
--username hadoopuser -P
--table table_name --hive-import --hive-table hive_table_name


Modified text is an extract of the original Stack Overflow Documentation
Sous licence CC BY-SA 3.0
Non affilié à Stack Overflow