Show Menu
ARGOMENTI×

Configurare un flusso di dati per un connettore batch di archiviazione cloud nell'interfaccia utente

Un flusso di dati è un'attività pianificata che recupera e trasferisce dati da un'origine a un Platform set di dati. Questa esercitazione fornisce i passaggi per configurare un nuovo flusso di dati utilizzando l'account di archiviazione cloud.

Introduzione

Questa esercitazione richiede una buona conoscenza dei seguenti componenti di Adobe Experience Platform:
  • Experience Data Model (XDM) Sistema : Il framework standard con cui Experience Platform organizzare i dati relativi all'esperienza del cliente.
    • Nozioni di base sulla composizione dello schema: Scoprite i componenti di base degli schemi XDM, inclusi i principi chiave e le procedure ottimali nella composizione dello schema.
    • Esercitazione sull'Editor di schema: Scoprite come creare schemi personalizzati utilizzando l'interfaccia utente dell'Editor di schema.
  • Profilo cliente in tempo reale : Fornisce un profilo di consumo unificato e in tempo reale basato su dati aggregati provenienti da più origini.
Inoltre, questa esercitazione richiede l'utilizzo di un account di archiviazione cloud prestabilito. Un elenco di esercitazioni per la creazione di diversi account di archiviazione cloud nell'interfaccia utente è disponibile nella panoramica dei connettori sorgente.

Formati di file supportati

Experience Platform supporta i seguenti formati di file da acquisire da archivi esterni:
  • Valori separati da delimitatore (DSV): Il supporto per i file di dati in formato DSV è attualmente limitato ai valori separati da virgola. Il valore delle intestazioni dei campi all'interno dei file formattati DSV deve essere costituito solo da caratteri alfanumerici e caratteri di sottolineatura. In futuro verrà fornito il supporto per i file DSV generali.
  • JavaScript Object Notation (JSON): I file di dati in formato JSON devono essere conformi allo standard XDM.
  • Apache Parquet: I file di dati in formato parquet devono essere conformi allo standard XDM.

Seleziona dati

Dopo aver creato l'account di archiviazione cloud, viene visualizzato il Select data passaggio che fornisce un'interfaccia interattiva per esplorare la gerarchia di archiviazione cloud.
  • La metà sinistra dell'interfaccia è un browser di directory che visualizza i file e le directory del server.
  • La metà destra dell'interfaccia consente di visualizzare in anteprima fino a 100 righe di dati da un file compatibile.
Selezionando una cartella elencata potete scorrere la gerarchia delle cartelle in cartelle più profonde. Dopo aver selezionato un file o una cartella compatibile, viene visualizzato il Select data format menu a discesa, in cui è possibile scegliere un formato per visualizzare i dati nella finestra di anteprima.
Una volta completata la finestra di anteprima, potete selezionare Next di caricare tutti i file nella cartella selezionata. Per caricare un file specifico, selezionatelo dall’elenco prima di selezionarlo Next .

Inviare file Parquet o JSON

I formati di file supportati per un account di archiviazione cloud includono anche JSON e Parquet. I file JSON e Parquet devono essere conformi allo standard XDM. Per caricare i file JSON o Parquet, selezionate il formato di file appropriato dal browser directory e applicate il formato di dati compatibile dall'interfaccia giusta. Selezionare Next per continuare.
A differenza dei tipi di file delimitati, i file in formato JSON e Parquet non sono disponibili per l’anteprima.

Mappatura dei campi dati su uno schema XDM

Viene visualizzato il Mapping passaggio che fornisce un'interfaccia interattiva per mappare i dati di origine a un Platform dataset. I file sorgente formattati in JSON o Parquet devono essere conformi a XDM e non devono essere configurati manualmente. I file CSV, al contrario, richiedono la configurazione esplicita della mappatura, ma consentono di scegliere quali campi di dati di origine mappare.
Scegliere un set di dati in entrata in cui assimilare i dati. È possibile utilizzare un set di dati esistente o crearne uno nuovo.
Utilizzare un dataset esistente
Per assimilare i dati in un dataset esistente, selezionare Existing dataset , quindi l'icona del dataset.
Viene visualizzata Select dataset la finestra di dialogo. Trovare il set di dati che si desidera utilizzare, selezionarlo, quindi fare clic Continue .
Utilizza un nuovo set di dati
Per assimilare i dati in un nuovo dataset, selezionare New dataset e immettere un nome e una descrizione per il dataset nei campi forniti. Per aggiungere uno schema, è possibile immettere un nome di schema esistente nella Select schema finestra di dialogo. In alternativa, è possibile selezionare l'opzione Schema advanced search per cercare uno schema appropriato.
Viene visualizzata Select schema la finestra di dialogo. Selezionare lo schema da applicare al nuovo dataset, quindi selezionare Done .
In base alle esigenze, è possibile scegliere di mappare direttamente i campi oppure utilizzare le funzioni di mappatura per trasformare i dati di origine in modo da derivare i valori calcolati o calcolati. Per ulteriori informazioni sulla mappatura dei dati e sulle funzioni di mappatura, consulta l’esercitazione sulla mappatura dei dati CSV ai campi dello schema XDM.
Una volta mappati i dati di origine, selezionare Next .

Pianificare le esecuzioni dell'assimilazione

Viene visualizzato il Scheduling passaggio che consente di configurare una pianificazione di assimilazione per l'acquisizione automatica dei dati di origine selezionati tramite le mappature configurate. Nella tabella seguente sono riportati i diversi campi configurabili per la pianificazione:
Campo
Descrizione
Frequenza
Le frequenze selezionabili includono Once , Minute , Hour , Day e Week .
Intervallo
Un numero intero che imposta l'intervallo per la frequenza selezionata.
Ora di inizio
Una marca temporale UTC che indica quando è impostata la prima assimilazione.
Backfill
Un valore booleano che determina i dati inizialmente acquisiti. Se Backfill è abilitata, tutti i file correnti nel percorso specificato verranno acquisiti durante la prima assimilazione pianificata. Se Backfill è disattivato, verranno assimilati solo i file caricati tra la prima esecuzione dell'assimilazione e l' Start time assimilazione. I file caricati prima di Start time non verranno acquisiti.
I flussi di dati sono progettati per l'acquisizione automatica dei dati su base programmata. Per iniziare, selezionate la frequenza di assimilazione. Quindi, impostare l'intervallo per specificare il periodo tra due esecuzioni di flusso. Il valore dell'intervallo deve essere un numero intero diverso da zero e deve essere impostato su maggiore o uguale a 15.
Per impostare l’ora di inizio dell’assimilazione, regolate la data e l’ora visualizzate nella casella Ora di inizio. In alternativa, potete selezionare l'icona del calendario per modificare il valore dell'ora di inizio. L'ora di inizio deve essere maggiore o uguale all'ora corrente in UTC.
Specificare i valori per la pianificazione e selezionare Next .

Impostazione di un flusso di dati per l’assimilazione una tantum

Per impostare l’inserimento una tantum, selezionate la freccia a discesa di frequenza e selezionate Once . È possibile continuare a apportare modifiche a un set di flussi di dati per l’inserimento di una frequenza una tantum, purché l’ora di inizio rimanga in futuro. Una volta trascorso l’ora di inizio, il valore di frequenza una tantum non può più essere modificato.
Interval e non Backfill sono visibili durante un'assimilazione una tantum.
Dopo aver fornito i valori appropriati alla pianificazione, selezionare Next .

Fornire i dettagli del flusso di dati

Viene visualizzato il Dataflow detail passaggio che consente di assegnare un nome e una breve descrizione al nuovo flusso di dati.
Durante questo processo, potete anche abilitare Partial ingestion e Error diagnostics . L'abilitazione Partial ingestion consente di acquisire i dati contenenti errori, fino a una certa soglia che è possibile impostare. L'attivazione Error diagnostics fornirà dettagli su eventuali dati errati che vengono inseriti separatamente in batch. Per ulteriori informazioni, consultate la panoramica sull’assimilazione parziale dei batch.
Immettete i valori per il flusso di dati e selezionate Next .

Controllare il flusso di dati

Viene visualizzato il Review passaggio che consente di rivedere il nuovo flusso di dati prima della creazione. I dettagli sono raggruppati nelle seguenti categorie:
  • Connection : Mostra il tipo di origine, il percorso pertinente del file di origine scelto e la quantità di colonne all'interno del file di origine.
  • Assign dataset & map fields : Mostra il set di dati in cui vengono acquisiti i dati di origine, incluso lo schema a cui il set di dati aderisce.
  • Scheduling : Mostra il periodo, la frequenza e l’intervallo attivi della pianificazione di assimilazione.
Dopo aver rivisto il flusso di dati, fai clic su Finish e consenti la creazione del flusso di dati.

Monitorare il flusso di dati

Una volta creato il flusso di dati, è possibile monitorare i dati che vengono acquisiti attraverso di esso per visualizzare informazioni su velocità di assimilazione, successo ed errori. Per ulteriori informazioni su come monitorare il flusso di dati, consulta l’esercitazione sul monitoraggio di account e flussi di dati nell’interfaccia utente .

Eliminare il flusso di dati

È possibile eliminare i flussi di dati che non sono più necessari o che sono stati creati in modo non corretto utilizzando la Delete funzione disponibile nell' Dataflows area di lavoro. Per ulteriori informazioni sull’eliminazione dei flussi di dati, consultate l’esercitazione sull’ eliminazione dei flussi di dati nell’interfaccia utente.

Passaggi successivi

Seguendo questa esercitazione, hai creato con successo un flusso di dati per l'inserimento di dati da un archivio cloud esterno e hai acquisito informazioni sul monitoraggio dei set di dati. Per saperne di più sulla creazione di flussi di dati, puoi completare l’apprendimento guardando il video sottostante. Inoltre, i dati in entrata possono ora essere utilizzati dai Platform servizi a valle come Real-time Customer Profile e Data Science Workspace. Per ulteriori informazioni, consulta i documenti seguenti:
L’ Platform interfaccia utente mostrata nel video seguente è obsoleta. Per informazioni sulle ultime funzionalità e videate dell’interfaccia, consulta la documentazione precedente.

Appendice

Le sezioni seguenti forniscono informazioni aggiuntive sull'utilizzo dei connettori di origine.

Disattivazione di un flusso di dati

Quando un flusso di dati viene creato, diventa immediatamente attivo e i dati vengono acquisiti in base alla pianificazione specificata. Puoi disattivare un flusso di dati attivo in qualsiasi momento seguendo le istruzioni riportate di seguito.
Nell’area di Sources lavoro, fate clic sulla Browse scheda. Quindi, fare clic sul nome dell'account associato al flusso di dati attivo che si desidera disattivare.
Viene Source activity visualizzata la pagina. Selezionate il flusso di dati attivo dall’elenco per aprire la relativa Properties colonna sul lato destro dello schermo, che contiene un pulsante di Enabled attivazione/disattivazione. Fate clic sull’interruttore per disattivare il flusso di dati. La stessa opzione può essere utilizzata per riattivare un flusso di dati dopo che è stato disabilitato.

Attivare i dati in entrata per la Profile popolazione

I dati in entrata provenienti dal connettore di origine possono essere utilizzati per arricchire e compilare Real-time Customer Profile i dati. Per ulteriori informazioni sulla compilazione Real-time Customer Profile dei dati, consulta l’esercitazione sulla popolazione di profili.