खोज…


डेटा को हडॉप एचडीएफ में लोड करें

चरण 1: एचडीएफएस में एक डायरेक्टरी बनाएं, एक फाइल और लिस्ट कॉन्ट्रैक्ट्स को अपलोड करें

वाक्य रचना लिखकर सीखते हैं। आप अपने टर्मिनल में निम्न उदाहरण कमांड को कॉपी और पेस्ट कर पाएंगे:

हडूप fs -मिक्दिर:

पथ को URI के तर्क के रूप में लेता है और एक निर्देशिका या एकाधिक निर्देशिका बनाता है।

उपयोग:

    # hadoop fs -mkdir <paths>

उदाहरण:

    hadoop fs -mkdir /user/hadoop
    hadoop fs -mkdir /user/hadoop/dir1 /user/hadoop/dir2 /user/hadoop/dir3

हडूप एफएस -पुट:

स्थानीय फ़ाइल सिस्टम से Hadoop वितरित फ़ाइल सिस्टम में एकल src फ़ाइल या एकाधिक src फ़ाइलों की प्रतिलिपि बनाता है।

उपयोग:

    # hadoop fs -put <local-src> ... <HDFS_dest_path>

उदाहरण:

    hadoop fs -put popularNames.txt /user/hadoop/dir1/popularNames.txt

हडुप fs -copyFromLocal:

स्थानीय फ़ाइल सिस्टम से Hadoop वितरित फ़ाइल सिस्टम में एकल src फ़ाइल या एकाधिक src फ़ाइलों की प्रतिलिपि बनाता है।

उपयोग:

    # hadoop fs -copyFromLocal <local-src> ... <HDFS_dest_path>

उदाहरण:

    hadoop fs -copyFromLocal popularNames.txt /user/hadoop/dir1/popularNames.txt

हडूप एफएस -मोवफ्रॉमलोक:

कमांड डालने के समान, सिवाय इसके कि प्रतिलिपि बनाने के बाद स्रोत लोकलस्कैट हटा दिया जाता है।

उपयोग:

    # hadoop fs -moveFromLocal <local-src> ... <HDFS_dest_path>

उदाहरण:

    hadoop fs -moveFromLocal popularNames.txt /user/hadoop/dir1/popularNames.txt

SQOOP डेटा स्थानांतरण उपकरण:

हम Sqoop (RDBMS से HDFS के लिए डेटा ट्रांसफर के लिए एक कमांड लाइन टूल) और इसके विपरीत रिलेशनल डेटाबेस से सीधे HDFS में डेटा लोड कर सकते हैं।

उपयोग:

$ sqoop import --connect CONNECTION_STRING --username USER_NAME --table TABLE_NAME

उदाहरण:

$ sqoop import --connect jdbc:mysql://localhost/db --username foo --table TEST


Modified text is an extract of the original Stack Overflow Documentation
के तहत लाइसेंस प्राप्त है CC BY-SA 3.0
से संबद्ध नहीं है Stack Overflow