サーチ…


前書き

次に、データポンプのインポート/エクスポートを作成する手順を示します。

Datapumpジョブを監視する

データポンプジョブは、

1.データ辞書ビュー:

   select * from dba_datapump_jobs; 
   SELECT * FROM DBA_DATAPUMP_SESSIONS; 
   select username,opname,target_desc,sofar,totalwork,message from V$SESSION_LONGOPS where username = 'bkpadmin';

2.データポンプの状態:

  • インポート/エクスポート・ログまたはデータ・ディクショナリ名からジョブ名をメモし、
  • 実行するattachコマンド:
  • インポート/エクスポートプロンプトでのステータスの入力
impdp <bkpadmin>/<bkp123> attach=<SYS_IMPORT_SCHEMA_01>
Import> status

Ctrl / Cを押して、インポート/エクスポートプロンプトから抜け出す

ステップ3/6:ディレクトリを作成する

create or replace directory DATAPUMP_REMOTE_DIR as '/oracle/scripts/expimp';

手順7:エクスポートコマンド

コマンド:

expdp <bkpadmin>/<bkp123>  parfile=<exp.par>

*ご使用の環境に応じて<>内のデータを適切な値に置き換えてください。要件に応じてパラメータを追加/変更できます。上記の例では、残りのすべてのパラメータが以下に示すようにパラメータファイルに追加されています。*

  • エクスポートタイプ: ユーザーエクスポート
  • スキーマ全体をエクスポートする
  • パラメータファイルの詳細[exp.par]:
schemas=<schema>
directory= DATAPUMP_REMOTE_DIR
dumpfile=<dbname>_<schema>.dmp
logfile=exp_<dbname>_<schema>.log

  • エクスポートの種類: 大きなスキーマのユーザーエクスポート
  • 大規模なデータセットのスキーマ全体をエクスポートする:ここでエクスポートダンプファイルは分解され、圧縮されます。ここでは並列処理が使用されています(注:並列処理を追加すると、サーバー上のCPU負荷が増加します)
  • パラメータファイルの詳細[exp.par]:
schemas=<schema>
directory= DATAPUMP_REMOTE_DIR
dumpfile=<dbname>_<schema>_%U.dmp
logfile=exp_<dbname>_<schema>.log 
compression = all
parallel=5

  • エクスポートタイプ: テーブルエクスポート [テーブルのエクスポートセット]
  • パラメータファイルの詳細[exp.par]:
tables= tname1, tname2, tname3
directory= DATAPUMP_REMOTE_DIR
dumpfile=<dbname>_<schema>.dmp
logfile=exp_<dbname>_<schema>.log

手順9:インポートコマンド

前提条件:

  • ユーザーのインポートの前に、インポートされたスキーマまたは表をドロップすることをお勧めします。

コマンド:

impdp <bkpadmin>/<bkp123>  parfile=<imp.par>

*ご使用の環境に応じて<>内のデータを適切な値に置き換えてください。要件に応じてパラメータを追加/変更できます。上記の例では、残りのすべてのパラメータが以下に示すようにパラメータファイルに追加されています。*

  • インポートの種類: ユーザーのインポート
  • スキーマ全体をインポートする
  • パラメータファイルの詳細[say imp.par]:
schemas=<schema>
directory= DATAPUMP_REMOTE_DIR
dumpfile=<dbname>_<schema>.dmp
logfile=imp_<dbname>_<schema>.log

  • インポートの種類: 大きなスキーマのユーザーインポート
  • 大規模なデータセットのスキーマ全体をインポートする:並列処理がここで使用されます(注:並列処理を追加すると、サーバーのCPU負荷が増加します)
  • パラメータファイルの詳細[say imp.par]:
schemas=<schema>
directory= DATAPUMP_REMOTE_DIR
dumpfile=<dbname>_<schema>_%U.dmp
logfile=imp_<dbname>_<schema>.log 
parallel=5

  • インポートの種類: テーブルのインポート [ テーブルのインポート ]
  • パラメータファイルの詳細[say imp.par]:
tables= tname1, tname2, tname3
directory= DATAPUMP_REMOTE_DIR
dumpfile=<dbname>_<schema>.dmp
logfile=exp_<dbname>_<schema>.log
TABLE_EXISTS_ACTION= <APPEND /SKIP /TRUNCATE /REPLACE>

1.データポンプステップ

ソースサーバー[データのエクスポート] ターゲットサーバ[データのインポート]
1.エクスポートダンプファイルを格納するデータポンプフォルダを作成します 4.インポートダンプファイルを格納するデータポンプフォルダを作成します
2.エクスポートを実行するデータベース・スキーマにログインします。 5.インポートを実行するデータベース・スキーマにログインします。
3.手順1を指すディレクトリを作成します。 6.手順4を指すディレクトリを作成します。
7.エクスポートステートメントを実行します。
8.ダンプファイルをターゲットサーバにコピー/ SCPします。
9. Import文を実行する
10.データをチェックし、無効なオブジェクトをコンパイルし、関連する補助金を提供する

異なるスキーマと表スペース間で表をコピーする

 expdp <bkpadmin>/<bkp123> directory=DATAPUMP_REMOTE_DIR dumpfile=<customer.dmp>


 impdp <bkpadmin>/<bkp123> directory=DATAPUMP_REMOTE_DIR dumpfile=<customer.dmp> remap_schema=<source schema>:<target schema> remap_tablespace=<source tablespace>:<target tablespace>


Modified text is an extract of the original Stack Overflow Documentation
ライセンスを受けた CC BY-SA 3.0
所属していない Stack Overflow