UI でクラウドストレージソースからバッチデータを取り込むようにデータフローを設定する
このチュートリアルでは、クラウドストレージソースからAdobe Experience Platformにバッチデータを取り込むようにデータフローを設定する手順を説明します。
はじめに
このチュートリアルは、 Experience Platform の次のコンポーネントを実際に利用および理解しているユーザーを対象としています。
-
Experience Data Model (XDM) システム:Experience Platform が顧客体験データの整理に使用する標準化されたフレームワーク。
- スキーマ構成の基本:スキーマ構成の主要な原則やベストプラクティスなど、XDM スキーマの基本的な構成要素について学びます。
- スキーマエディターのチュートリアル:スキーマエディター UI を使用してカスタムスキーマを作成する方法を説明します。
-
Real-Time Customer Profile:複数のソースからの集計データに基づいて、統合されたリアルタイムの顧客プロファイルを提供します。
サポートされているファイル形式
バッチデータ用のクラウドストレージソースでは、次のファイル形式の取り込みがサポートされています。
- 区切り文字区切り値 (DSV):DSV 形式のデータ・ファイルの区切り文字として、任意の 1 文字の値を使用できます。
- JavaScript Object Notation (JSON):JSON 形式のデータファイルは、XDM に準拠している必要があります。
- Apache Parquet:Parquet 形式のデータファイルは、XDM に準拠している必要があります。
- 圧縮ファイル:JSON と区切り文字付きのファイルは、次のように圧縮できます。
bzip2
,gzip
,deflate
,zipDeflate
,tarGzip
、およびtar
.
データの追加
クラウドストレージアカウントを作成した後、 データを追加 の手順が表示され、クラウドストレージのファイル階層を参照し、Platform に取り込むフォルダーまたは特定のファイルを選択するためのインターフェイスが提供されます。
- インターフェイスの左側には、クラウドストレージファイル階層を表示するディレクトリブラウザーが表示されます。
- インターフェイスの右側では、互換性のあるフォルダーまたはファイルから最大 100 行のデータをプレビューできます。
ルートフォルダーを選択して、フォルダー階層にアクセスします。 ここから、1 つのフォルダーを選択して、フォルダー内のすべてのファイルを再帰的に取り込むことができます。 フォルダー全体を取り込む場合は、そのフォルダー内のすべてのファイルが同じデータ形式とスキーマを共有していることを確認する必要があります。
フォルダーを選択すると、右側のインターフェイスが更新され、選択したフォルダー内の最初のファイルのコンテンツと構造のプレビューが表示されます。
この手順の間、先に進む前に、データに対して複数の設定をおこなうことができます。 まず、「 」を選択します。 データフォーマット 次に、表示されるドロップダウンパネルで、ファイルに適したデータ形式を選択します。
次の表に、サポートされているファイルタイプに適したデータ形式を示します。
列の区切り文字を選択
データフォーマットを設定した後、区切りファイルを取り込む際に列区切り文字を設定できます。 を選択します。 区切り 」オプションを選択し、ドロップダウンメニューから区切り文字を選択します。 メニューには、区切り文字に最も頻繁に使用されるオプション ( コンマ (,
)、タブ (\t
) とパイプ (|
) をクリックします。
カスタム区切り文字を使用する場合は、 カスタム をクリックし、ポップアップ入力バーに任意の 1 文字の区切り文字を入力します。
圧縮ファイルの取り込み
圧縮タイプを指定して、圧縮 JSON または区切り形式のファイルを取り込むこともできます。
内 データを選択 手順:取り込む圧縮ファイルを選択し、適切なファイルタイプと、XDM に準拠しているかどうかを選択します。 次に、 圧縮タイプ 次に、ソースデータに適した圧縮ファイルのタイプを選択します。
特定のファイルを Platform に取り込むには、フォルダーを選択し、取り込むファイルを選択します。 この手順では、ファイル名の横にあるプレビューアイコンを使用して、特定のフォルダー内にある他のファイルのファイルコンテンツをプレビューすることもできます。
終了したら、「次へ」を選択します。
データフローの詳細を入力
データフロー詳細ページでは、既存のデータセットと新しいデータセットのどちらを使用するかを選択できます。このプロセスの間に、データをプロファイルに取り込むように設定し、次のような設定を有効にすることもできます。 エラー診断, 部分取り込み、および アラート.
既存のデータセットを使用する
データを既存のデータセットに取り込むには、既存のデータセット を選択します。「詳細検索」オプションを使用するか、ドロップダウンメニューで既存のデータセットのリストをスクロールすると、既存のデータセットを取得できます。データセットを選択したら、データフローの名前と説明を入力します。
新しいデータセットの使用
データを新しいデータセットに取り込むには、「新しいデータセット」を選択して、出力データセット名とオプションの説明を入力します。次に、「詳細検索」オプションを使用するか、ドロップダウンメニューで既存のスキーマのリストをスクロールして、マッピングするスキーマを選択します。スキーマを選択したら、データフローの名前と説明を指定します。
プロファイルとエラー診断を有効にする
次に、 プロファイルデータセット を切り替えて、プロファイルのデータセットを有効にします。 これにより、エンティティの属性と動作の全体像を把握できます。プロファイルが有効なすべてのデータセットのデータは、プロファイルに含まれ、変更はデータフローを保存する際に適用されます。
エラー診断は、データフローで発生するエラーレコードに対して、詳細なエラーメッセージ生成を有効にします。部分取り込みでは、手動で定義した特定のしきい値に到達するまで、エラーを含むデータを取り込むことができます。詳しくは、バッチ取り込みの概要を参照してください。
アラートの有効化
アラートを有効にすると、データフローのステータスに関する通知を受け取ることができます。リストからアラートを選択して、データフローのステータスに関する通知を受け取るよう登録します。アラートについて詳しくは、UI を使用したソースアラートの購読についてのガイドを参照してください。
データフローへの詳細の入力を終えたら「次へ 」を選択します。
XDM スキーマへのデータフィールドのマッピング
マッピング手順が表示され、ソーススキーマのソースフィールドを、ターゲットスキーマの適切なターゲット XDM フィールドにマッピングするためのインターフェイスが提供されます。
Platform は、選択したターゲットスキーマまたはデータセットに基づいて、自動マッピングされたフィールドに対するインテリジェントなレコメンデーションを提供します。 マッピングルールは、ユースケースに合わせて手動で調整できます。必要に応じて、フィールドを直接マッピングするか、データ準備機能を使用してソースデータを変換して計算値を導き出すかを選択できます。マッパーインターフェイスと計算フィールドを使用した包括的な手順については、 データ準備 UI ガイド.
ソースデータが正常にマッピングされたら、「 」を選択します。 次へ.
取り込み実行のスケジュール設定
この スケジュール 手順が表示され、設定済みのマッピングを使用して選択したソースデータを自動的に取り込むように取り込むように、取り込みスケジュールを設定できます。 デフォルトでは、スケジュールはに設定されています。 Once
. 取り込み頻度を調整するには、「 」を選択します 頻度 次に、ドロップダウンメニューからオプションを選択します。
取り込み頻度を Minute
, Hour
, Day
または Week
を設定した場合は、取り込みのたびに設定時間枠を設定する間隔を設定する必要があります。 例えば、取り込み頻度を Day
間隔は 15
は、データフローが 15 日ごとにデータを取り込むようにスケジュールされていることを意味します。
この手順の間に、 バックフィル およびは、データの増分取り込みの列を定義します。 バックフィルは、履歴データを取り込むために使用されます。一方、増分取り込み用に定義する列では、新しいデータを既存のデータと区別することができます。
スケジュール設定について詳しくは、次の表を参照してください。
Once
, Minute
, Hour
, Day
、および Week
.取り込みスケジュールの設定が完了したら、「 次へ.
データフローのレビュー
レビュー 手順が表示され、新しいデータフローを作成する前に確認できます。詳細は、次のカテゴリに分類されます。
- 接続:ソースのタイプ、選択したソースファイルの関連パスおよびそのソースファイル内の列の数を表示します。
- データセットの割り当てとフィールドのマッピング:ソースデータがどのデータセットに取り込まれるかを、そのデータセットが準拠するスキーマを含めて表示します。
- スケジュール:取り込みスケジュールのアクティブな期間、頻度、間隔を表示します。
データフローをレビューしたら、「 」をクリックします。 完了 とは、データフローが作成されるまでしばらく時間をかけます。
次の手順
このチュートリアルに従うことで、データフローを作成して、外部クラウドストレージからデータを取り込み、データセットの監視に関するインサイトを得ることができました。 データフローの作成について詳しくは、以下のビデオを見て、学習を補完できます。 さらに、受信データをダウンストリームで使用できるようになりました Platform 次のようなサービス: Real-Time Customer Profile および Data Science Workspace. 詳しくは、次のドキュメントを参照してください。
付録
次の節では、ソースコネクタの操作に関する追加情報を示します。
データフローの監視
データフローを作成したら、データフローを介して取り込まれているデータを監視して、取り込み率、成功、エラーに関する情報を表示できます。 データフローの監視方法の詳細については、次のチュートリアルを参照してください: UI でのアカウントとデータフローの監視.
データフローの更新
データフローのスケジュール設定、マッピング、一般情報を更新するには、次のチュートリアルを参照してください: UI でのソースデータフローの更新
データフローの削除
不要になったデータフローや誤って作成されたデータフローは、データフロー ワークスペース内にある 削除 機能で削除できます。データフローの削除方法の詳細については、 UI でのデータフローの削除.