Show Menu
ARGOMENTI×

Importare una ricetta in pacchetti (interfaccia utente)

Questa esercitazione fornisce informazioni su come configurare e importare una ricetta in pacchetti utilizzando l'esempio di vendita al dettaglio fornito. Al termine di questa esercitazione, potrai creare, formare e valutare un modello in Adobe Experience Platform Data Science Workspace.

Prerequisiti

Questa esercitazione richiede una ricetta in pacchetti sotto forma di URL immagine Docker. Per ulteriori informazioni, consulta l’esercitazione su come creare pacchetti di file sorgente in una ricetta .

Flusso di lavoro interfaccia

L'importazione di una ricetta compressa in Data Science Workspace richiede configurazioni di ricette specifiche, compilate in un unico file JSON (JavaScript Object Notation). Questa raccolta di configurazioni di ricette viene definita file di configurazione. Una ricetta confezionata con una particolare serie di configurazioni viene definita come un'istanza di ricetta. Una ricetta può essere utilizzata per creare molte istanze di ricette in Data Science Workspace.
Il flusso di lavoro per l’importazione di una ricetta di pacchetto comprende i seguenti passaggi:
Flussi di lavoro obsoleti:

Configurare una ricetta

Ogni istanza di ricetta in Data Science Workspace è accompagnata da una serie di configurazioni che adattano l'istanza di ricetta a un particolare caso d'uso. I file di configurazione definiscono i comportamenti predefiniti di formazione e valutazione di un modello creato utilizzando questa istanza di ricetta.
I file di configurazione sono specifici per ricetta e caso.
Di seguito è riportato un esempio di file di configurazione che mostra i comportamenti di formazione e valutazione predefiniti per la ricetta Vendite al dettaglio.
[
    {
        "name": "train",
        "parameters": [
            {
                "key": "learning_rate",
                "value": "0.1"  
            },
            {
                "key": "n_estimators",
                "value": "100"
            },
            {
                "key": "max_depth",
                "value": "3"
            },
            {
                "key": "ACP_DSW_INPUT_FEATURES",
                "value": "date,store,storeType,storeSize,temperature,regionalFuelPrice,markdown,cpi,unemployment,isHoliday"
            },
            {
                "key": "ACP_DSW_TARGET_FEATURES",
                "value": "weeklySales"
            },
            {
                "key": "ACP_DSW_FEATURE_UPDATE_SUPPORT",
                "value": false
            },
            {
                "key": "tenantId",
                "value": "_{TENANT_ID}"
            },
            {
                "key": "ACP_DSW_TRAINING_XDM_SCHEMA",
                "value": "{SEE BELOW FOR DETAILS}"
            },
            {
                "key": "evaluation.labelColumn",
                "value": "weeklySalesAhead"
            },
            {
                "key": "evaluation.metrics",
                "value": "MAPE,MAE,RMSE,MASE"
            }
        ]
    },
    {
        "name": "score",
        "parameters": [
            {
                "key": "tenantId",
                "value": "_{TENANT_ID}"
            },
            {
                "key":"ACP_DSW_SCORING_RESULTS_XDM_SCHEMA",
                "value":"{SEE BELOW FOR DETAILS}"
            }
        ]
    }
]

Chiave parametro
Tipo
Descrizione
learning_rate
Numero
Scalare per la moltiplicazione della sfumatura.
n_estimators
Numero
Numero di alberi nella foresta per il classificatore casuale della foresta.
max_depth
Numero
Profondità massima di un albero in Classificatore Foresta casuale.
ACP_DSW_INPUT_FEATURES
Stringa
Elenco degli attributi dello schema di input separati da virgola.
ACP_DSW_TARGET_FEATURES
Stringa
Elenco degli attributi dello schema di output separati da virgola.
ACP_DSW_FEATURE_UPDATE_SUPPORT
Booleano
Determina se le funzioni di input e output sono modificabili
tenantId
Stringa
Questo ID garantisce che le risorse create siano inserite correttamente nell’organizzazione IMS. Segui i passaggi qui per trovare l'ID tenant.
ACP_DSW_TRAINING_XDM_SCHEMA
Stringa
Lo schema di input utilizzato per la formazione di un modello. Lasciate vuoto questo campo durante l’importazione nell’interfaccia utente, sostituitelo con ID schema formazione durante l’importazione tramite API.
evaluation.labelColumn
Stringa
Etichetta colonna per le visualizzazioni di valutazione.
evaluation.metrics
Stringa
Elenco separato da virgole delle metriche di valutazione da utilizzare per la valutazione di un modello.
ACP_DSW_SCORING_RESULTS_XDM_SCHEMA
Stringa
Lo schema di output utilizzato per il punteggio di un modello. Lasciate questo vuoto durante l'importazione nell'interfaccia utente, sostituitelo con l'ID schema punteggio durante l'importazione tramite API.
Con questa esercitazione puoi lasciare i file di configurazione predefiniti per la ricetta Vendite al dettaglio nella Guida di riferimento dell'area di lavoro di analisi dei dati come sono.

Ricetta basata sul Docker di importazione - Python

Per iniziare, naviga e seleziona Workflows in alto a sinistra nell’interfaccia utente della piattaforma. Quindi, selezionate Importa ricetta e fate clic su Launch .
Viene visualizzata la pagina Configura per il flusso di lavoro di definizione di importazione. Immettete un nome e una descrizione per la ricetta, quindi selezionate Next nell’angolo in alto a destra.
Nei file di origine del pacchetto in un'esercitazione sulla ricetta , al termine della creazione della ricetta Vendite al dettaglio tramite i file di origine Python è stato fornito un URL Docker.
Una volta che vi trovate nella pagina Seleziona sorgente , incollate l’URL Docker corrispondente alla ricetta del pacchetto creata utilizzando i file sorgente Python nel Source URL campo. Quindi, importate il file di configurazione fornito trascinandolo e rilasciandolo oppure utilizzate il Browser del file system. Il file di configurazione fornito si trova in experience-platform-dsw-reference/recipes/python/retail/retail.config.json . Selezionate Python nel menu a discesa Runtime e Classification nel menu Tipo . Una volta compilato, fate clic Next nell’angolo superiore destro per passare a Gestisci schemi .
*Tipo *supporta Classification ​e Regression . Se il modello non rientra in uno di questi tipi, selezionare Custom .
Successivamente, selezionare gli schemi di input e output di Vendite al dettaglio nella sezione Gestisci schemi , creati utilizzando lo script di avvio fornito nella creazione dello schema di vendita al dettaglio e dell'esercitazione sui dataset .
Nella sezione Gestione funzioni fare clic sull'identificazione del tenant nel visualizzatore schema per espandere lo schema di input Vendite al dettaglio. Selezionate le funzioni di input e output evidenziando la feature desiderata e selezionando​ Input Feature ​o​ Target Feature ​nella finestra a destra​ Field Properties . Per questa esercitazione, impostare​ weeklySales ​come​ Target Feature ​e tutto il resto come​ Input Feature . Fate clic​ Next** per rivedere la nuova ricetta configurata.
Esaminate la ricetta, aggiungete, modificate o rimuovete le configurazioni in base alle vostre esigenze. Fate clic Finish per creare la ricetta.
Procedete con i passaggi Passaggi successivi successivi per scoprire come creare un modello in Data Science Workspace utilizzando la ricetta di vendita al dettaglio appena creata.

Ricetta basata sul Docker di importazione - R

Per iniziare, naviga e seleziona Workflows in alto a sinistra nell’interfaccia utente della piattaforma. Quindi, selezionate Importa ricetta e fate clic su Launch .
Viene visualizzata la pagina Configura per il flusso di lavoro di definizione di importazione. Immettete un nome e una descrizione per la ricetta, quindi selezionate Next nell’angolo in alto a destra.
Nei file di origine del pacchetto in un'esercitazione sulla ricetta , al termine della creazione della ricetta Vendite al dettaglio tramite i file sorgente R è stato fornito un URL Docker.
Una volta che vi trovate nella pagina Seleziona origine , incollate l'URL Docker corrispondente alla ricetta del pacchetto creata utilizzando i file sorgente R nel Source URL campo. Quindi, importate il file di configurazione fornito trascinandolo e rilasciandolo oppure utilizzate il Browser del file system. Il file di configurazione fornito si trova in experience-platform-dsw-reference/recipes/R/Retail\ -\ GradientBoosting/retail.config.json . Selezionate R nel menu a discesa Runtime e Classification nel menu a discesa Tipo . Una volta compilato, fate clic Next nell’angolo superiore destro per passare a Gestisci schemi .
*Tipo *supporta Classification ​e Regression . Se il modello non rientra in uno di questi tipi, selezionare Custom .
Successivamente, selezionare gli schemi di input e output di Vendite al dettaglio nella sezione Gestisci schemi , creati utilizzando lo script di avvio fornito nella creazione dello schema di vendita al dettaglio e dell'esercitazione sui dataset .
Nella sezione Gestione funzioni fare clic sull'identificazione del tenant nel visualizzatore schema per espandere lo schema di input Vendite al dettaglio. Selezionate le funzioni di input e output evidenziando la feature desiderata e selezionando​ Input Feature ​o​ Target Feature ​nella finestra a destra​ Field Properties . Per questa esercitazione, impostare​ weeklySales ​come​ Target Feature ​e tutto il resto come​ Input Feature . Fate clic​ Next** per rivedere la nuova ricetta configurata.
Esaminate la ricetta, aggiungete, modificate o rimuovete le configurazioni in base alle vostre esigenze. Fate clic su Fine per creare la ricetta.
Procedete con i passaggi Passaggi successivi successivi per scoprire come creare un modello in Data Science Workspace utilizzando la ricetta di vendita al dettaglio appena creata.

Ricetta basata sul Docker di importazione - PySpark

Per iniziare, naviga e seleziona Workflows in alto a sinistra nell’interfaccia utente della piattaforma. Quindi, selezionate Importa ricetta e fate clic su Launch .
Viene visualizzata la pagina Configura per il flusso di lavoro di definizione di importazione. Immettete un nome e una descrizione per la ricetta, quindi selezionate Next nell’angolo in alto a destra per proseguire.
Nei file di origine del pacchetto in un'esercitazione sulla ricetta , al termine della creazione della ricetta Vendite al dettaglio tramite i file sorgente PySpark è stato fornito un URL Docker.
Una volta che vi trovate nella pagina Seleziona origine , incollate l'URL Docker corrispondente alla ricetta del pacchetto creata utilizzando i file sorgente PySpark nel Source URL campo. Quindi, importate il file di configurazione fornito trascinandolo e rilasciandolo oppure utilizzate il Browser del file system. Il file di configurazione fornito si trova in experience-platform-dsw-reference/recipes/pyspark/retail/pipeline.json . Selezionate PySpark nel menu a discesa Runtime . Una volta selezionato il runtime PySpark, l'artifact predefinito viene compilato automaticamente in Docker . Quindi, selezionate Classification nel menu Tipo . Una volta compilato, fate clic Next nell’angolo superiore destro per passare a Gestisci schemi .
*Tipo *supporta Classification ​e Regression . Se il modello non rientra in uno di questi tipi, selezionare Custom .
Successivamente, selezionare gli schemi di input e output di Vendite al dettaglio nella sezione Gestisci schemi , creati utilizzando lo script di avvio fornito nella creazione dello schema di vendita al dettaglio e dell'esercitazione sui dataset .
Nella sezione Gestione funzioni fare clic sull'identificazione del tenant nel visualizzatore schema per espandere lo schema di input Vendite al dettaglio. Selezionate le funzioni di input e output evidenziando la feature desiderata e selezionando​ Input Feature ​o​ Target Feature ​nella finestra a destra​ Field Properties . Per questa esercitazione, impostare​ weeklySales ​come​ Target Feature ​e tutto il resto come​ Input Feature . Fate clic​ Next** per rivedere la nuova ricetta configurata.
Esaminate la ricetta, aggiungete, modificate o rimuovete le configurazioni in base alle vostre esigenze. Fate clic Finish per creare la ricetta.
Procedete con i passaggi Passaggi successivi successivi per scoprire come creare un modello in Data Science Workspace utilizzando la ricetta di vendita al dettaglio appena creata.

Ricetta basata sul Docker di importazione - Scala

Per iniziare, naviga e seleziona Workflows in alto a sinistra nell’interfaccia utente della piattaforma. Quindi, selezionate Importa ricetta e fate clic su Launch .
Viene visualizzata la pagina Configura per il flusso di lavoro di definizione di importazione. Immettete un nome e una descrizione per la ricetta, quindi selezionate Next nell’angolo in alto a destra per proseguire.
Nei file di origine del pacchetto in un'esercitazione sulla ricetta , al termine della creazione della ricetta Vendite al dettaglio tramite file sorgente Scala (Spark) è stato fornito un URL Docker.
Una volta che vi trovate nella pagina Seleziona sorgente , incollate l’URL Docker corrispondente alla ricetta del pacchetto creata utilizzando i file sorgente Scala nel campo URL sorgente. Quindi, importate il file di configurazione fornito trascinandolo e rilasciandolo oppure utilizzate il ​Browser​ del file system. Il file di configurazione fornito si trova in experience-platform-dsw-reference/recipes/scala/retail/pipelineservice.json . Selezionate​ Spark ​nel menu a discesa Runtime . Una volta selezionato il runtime Spark, l'artifact predefinito viene compilato automaticamente in​ Docker . Quindi, selezionate​ Regression ​dall'elenco a discesa Tipo . Una volta compilato, fate clic​ Next** nell’angolo superiore destro per passare a Gestisci schemi .
*Tipo *supporta Classification ​e Regression . Se il modello non rientra in uno di questi tipi, selezionare Custom .
Successivamente, selezionare gli schemi di input e output di Vendite al dettaglio nella sezione Gestisci schemi , creati utilizzando lo script di avvio fornito nella creazione dello schema di vendita al dettaglio e dell'esercitazione sui dataset .
Nella sezione Gestione funzioni fare clic sull'identificazione del tenant nel visualizzatore schema per espandere lo schema di input Vendite al dettaglio. Selezionate le funzioni di input e output evidenziando la feature desiderata e selezionando​ Input Feature ​o​ Target Feature ​nella finestra a destra​ Field Properties . Per questa esercitazione, impostare​ weeklySales ​come​ Target Feature ​e tutto il resto come​ Input Feature . Fate clic​ Next** per rivedere la nuova ricetta configurata.
Esaminate la ricetta, aggiungete, modificate o rimuovete le configurazioni in base alle vostre esigenze. Fate clic Finish per creare la ricetta.
Procedete con i passaggi Passaggi successivi successivi per scoprire come creare un modello in Data Science Workspace utilizzando la ricetta di vendita al dettaglio appena creata.

Passaggi successivi

Questa esercitazione ha fornito informazioni sulla configurazione e l'importazione di una ricetta in Data Science Workspace. Ora puoi creare, formare e valutare un modello utilizzando la ricetta appena creata.

Flussi di lavoro obsoleti

L'importazione di ricette binarie non è più supportata in PySpark 3 (Spark 2.4) e Scala (Spark 2.4).

Importa ricetta binaria basata su - PySpark

Nei file sorgente Package in un'esercitazione Recipe , è stato creato un file binario EGG utilizzando i file sorgente PySpark per le vendite al dettaglio.
  1. In Adobe Experience Platform , trova il pannello di navigazione a sinistra e fai clic su Flussi di lavoro . Nell'interfaccia Flussi di lavoro, avvia un nuovo processo di importazione della ricetta dal file di origine.
  2. Immettete un nome appropriato per la ricetta Vendite al dettaglio. Ad esempio, "Ricetta vendita al dettaglio PySpark". Facoltativamente, potete includere una descrizione della ricetta e un URL della documentazione. Al termine, fate clic su Avanti .
  3. Importare la ricetta Vendite al dettaglio PySpark creata nei file di origine del pacchetto in un'esercitazione sulla ricetta trascinando e rilasciando oppure utilizzare il browser del file system. La ricetta confezionata deve essere situata in experience-platform-dsw-reference/recipes/pyspark/dist . Allo stesso modo, potete importare il file di configurazione fornito trascinando e rilasciando oppure utilizzare il browser del file system. Il file di configurazione fornito si trova in experience-platform-dsw-reference/recipes/pyspark/pipeline.json . Fate clic su Avanti quando entrambi i file sono stati forniti.
  4. A questo punto si possono verificare errori. Si tratta di un comportamento normale che deve essere previsto. Selezionare gli schemi di input e output di Vendite al dettaglio nella sezione Gestisci schemi , creati utilizzando lo script di avvio fornito nell'esercitazione Creazione dello schema di vendita al dettaglio e del dataset . Nella sezione Gestione ​funzioni fare clic sull'identificazione del tenant nel visualizzatore schema per espandere lo schema di input Vendite al dettaglio. Selezionate le funzioni di input e output evidenziando la funzione desiderata, quindi selezionate Feature di input o Feature di destinazione nella finestra Proprietà ​campo di destra. Per questa esercitazione, impostate settimanalmenteSales come funzione ​Target e tutto il resto come funzione ​Input. Fate clic su Avanti per rivedere la nuova ricetta configurata.
  5. Esaminate la ricetta, aggiungete, modificate o rimuovete le configurazioni in base alle vostre esigenze. Fate clic su Fine per creare la ricetta.
Procedete con i passaggi Passaggi successivi successivi per scoprire come creare un modello in Data Science Workspace utilizzando la ricetta di vendita al dettaglio appena creata.

Importa ricetta binaria basata su - Scala Spark

Nei file sorgente Package in un'esercitazione Recipe , è stato creato un file binario JAR utilizzando i file sorgente Scala delle vendite al dettaglio.
  1. In Adobe Experience Platform , trova il pannello di navigazione a sinistra e fai clic su Flussi di lavoro . Nell'interfaccia Flussi di lavoro, avvia un nuovo processo di importazione della ricetta dal file di origine.
  2. Immettete un nome appropriato per la ricetta Vendite al dettaglio. Ad esempio, "Ricetta di vendita al dettaglio Scala Spark". Facoltativamente, potete includere una descrizione della ricetta e un URL della documentazione. Al termine, fate clic su Avanti .
  3. Importare la ricetta Vendite al dettaglio Scala Spark creata nei file sorgente Package in un'esercitazione Recipe trascinando o rilasciando il file system o utilizzando il browser del file system. La ricetta confezionata con dipendenze si trova in experience-platform-dsw-reference/recipes/scala/target . Allo stesso modo, potete importare il file di configurazione fornito trascinando e rilasciando oppure utilizzare il browser del file system. Il file di configurazione fornito si trova in experience-platform-dsw-reference/recipes/scala/src/main/resources/pipelineservice.json . Fate clic su Avanti quando entrambi i file sono stati forniti.
  4. A questo punto si possono verificare errori. Si tratta di un comportamento normale che deve essere previsto. Selezionare gli schemi di input e output di Vendite al dettaglio nella sezione Gestisci schemi , creati utilizzando lo script di avvio fornito nell'esercitazione Creazione dello schema di vendita al dettaglio e del dataset . Nella sezione Gestione ​funzioni fare clic sull'identificazione del tenant nel visualizzatore schema per espandere lo schema di input Vendite al dettaglio. Selezionate le funzioni di input e output evidenziando la funzione desiderata, quindi selezionate Feature di input o Feature di destinazione nella finestra Proprietà ​campo di destra. Per questa esercitazione, impostate settimanalmenteSales come funzione ​Target e tutto il resto come funzione ​Input. Fate clic su Avanti per rivedere la nuova ricetta configurata.
  5. Esaminate la ricetta, aggiungete, modificate o rimuovete le configurazioni in base alle vostre esigenze. Fate clic su Fine per creare la ricetta.
Procedete con i passaggi Passaggi successivi successivi per scoprire come creare un modello in Data Science Workspace utilizzando la ricetta di vendita al dettaglio appena creata.