hadoop
Hadoop लोड डेटा
खोज…
डेटा को हडॉप एचडीएफ में लोड करें
चरण 1: एचडीएफएस में एक डायरेक्टरी बनाएं, एक फाइल और लिस्ट कॉन्ट्रैक्ट्स को अपलोड करें
वाक्य रचना लिखकर सीखते हैं। आप अपने टर्मिनल में निम्न उदाहरण कमांड को कॉपी और पेस्ट कर पाएंगे:
हडूप fs -मिक्दिर:
पथ को URI के तर्क के रूप में लेता है और एक निर्देशिका या एकाधिक निर्देशिका बनाता है।
उपयोग:
# hadoop fs -mkdir <paths>
उदाहरण:
hadoop fs -mkdir /user/hadoop
hadoop fs -mkdir /user/hadoop/dir1 /user/hadoop/dir2 /user/hadoop/dir3
हडूप एफएस -पुट:
स्थानीय फ़ाइल सिस्टम से Hadoop वितरित फ़ाइल सिस्टम में एकल src फ़ाइल या एकाधिक src फ़ाइलों की प्रतिलिपि बनाता है।
उपयोग:
# hadoop fs -put <local-src> ... <HDFS_dest_path>
उदाहरण:
hadoop fs -put popularNames.txt /user/hadoop/dir1/popularNames.txt
हडुप fs -copyFromLocal:
स्थानीय फ़ाइल सिस्टम से Hadoop वितरित फ़ाइल सिस्टम में एकल src फ़ाइल या एकाधिक src फ़ाइलों की प्रतिलिपि बनाता है।
उपयोग:
# hadoop fs -copyFromLocal <local-src> ... <HDFS_dest_path>
उदाहरण:
hadoop fs -copyFromLocal popularNames.txt /user/hadoop/dir1/popularNames.txt
हडूप एफएस -मोवफ्रॉमलोक:
कमांड डालने के समान, सिवाय इसके कि प्रतिलिपि बनाने के बाद स्रोत लोकलस्कैट हटा दिया जाता है।
उपयोग:
# hadoop fs -moveFromLocal <local-src> ... <HDFS_dest_path>
उदाहरण:
hadoop fs -moveFromLocal popularNames.txt /user/hadoop/dir1/popularNames.txt
SQOOP डेटा स्थानांतरण उपकरण:
हम Sqoop (RDBMS से HDFS के लिए डेटा ट्रांसफर के लिए एक कमांड लाइन टूल) और इसके विपरीत रिलेशनल डेटाबेस से सीधे HDFS में डेटा लोड कर सकते हैं।
उपयोग:
$ sqoop import --connect CONNECTION_STRING --username USER_NAME --table TABLE_NAME
उदाहरण:
$ sqoop import --connect jdbc:mysql://localhost/db --username foo --table TEST