Show Menu
ARGOMENTI×

Creare pacchetti di file sorgente in una ricetta

Questa esercitazione fornisce istruzioni su come creare pacchetti di file sorgente di esempio per le vendite al dettaglio in un file di archivio, che può essere utilizzato per creare una ricetta in Adobe Experience Platform Data Science Workspace seguendo il flusso di lavoro di importazione delle ricette nell'interfaccia utente o utilizzando l'API.
Concetti da comprendere:
  • Ricette : Una ricetta è il termine utilizzato da Adobe per specificare un modello ed è un contenitore di primo livello che rappresenta uno specifico sistema di machine learning, un algoritmo di intelligenza artificiale o un insieme di algoritmi, una logica di elaborazione e una configurazione necessarie per creare ed eseguire un modello qualificato e quindi per risolvere problemi aziendali specifici.
  • File sorgente: Singoli file nel progetto che contengono la logica per una ricetta.

Creazione di ricette

La creazione di ricette inizia con la creazione di pacchetti di file sorgente per creare un file di archivio. I file di origine definiscono la logica di machine learning e gli algoritmi utilizzati per risolvere un problema specifico a portata di mano e sono scritti in Python, R, PySpark o Scala. I file di archivio generati hanno la forma di un'immagine Docker. Una volta creato, il file di archivio del pacchetto viene importato in Data Science Workspace per creare una ricetta nell'interfaccia utente o utilizzando l'API .

Authoring di modelli basato su docker

Un'immagine Docker consente a uno sviluppatore di creare un pacchetto con tutte le parti necessarie, come librerie e altre dipendenze, e inviarlo come un unico pacchetto.
L'immagine Docker predefinita viene inviata al Registro di sistema del contenitore di Azure utilizzando le credenziali fornite durante il flusso di lavoro di creazione della ricetta.
Per ottenere le credenziali del Registro di sistema del contenitore di Azure, accedi ad platform.adobe.com Adobe Experience Platform. Nella colonna di navigazione a sinistra, andate a Workflows . Selezionate Import Recipe seguito da Launch . Per riferimento, vedere la schermata sottostante.
Viene visualizzata la pagina Configura . Fornite un Nome ricetta appropriato, ad esempio "Ricetta vendite al dettaglio", e facoltativamente fornite una descrizione o un URL della documentazione. Al termine, fate clic​ Next**.
Selezionate il runtime appropriato, quindi scegliete un Classification per Tipo . Le credenziali del Registro di sistema del contenitore di Azure vengono generate una volta completate.
*Tipo *è la classe di problema di apprendimento automatico per cui la ricetta è progettata ed è utilizzata dopo la formazione per aiutare a personalizzare la valutazione dell'esecuzione della formazione.
  • Per le ricette Python selezionate il Python runtime.
  • Per le ricette R, selezionate il R runtime.
  • Per le ricette PySpark, selezionate il PySpark runtime. Un tipo di artefatto compila automaticamente.
  • Per le ricette Scala, selezionate il Spark runtime. Un tipo di artefatto compila automaticamente.
Prendete nota dei valori per Docker Host , Nome utente e Password . Vengono utilizzati per creare e inviare l'immagine Docker nei flussi di lavoro descritti di seguito.
L’URL di origine viene fornito dopo aver completato i passaggi descritti di seguito. Il file di configurazione è spiegato nelle esercitazioni successive riportate nei passaggi successivi .

Creare pacchetti di file sorgente

Per iniziare, ottieni il codice di esempio trovato nell’archivio di riferimento experience-platform-dsw-reference di Experience Platform Data Science Workspace.

Creare un'immagine Python Docker

Se non lo avete fatto, clonate il repository github nel sistema locale con il seguente comando:
git clone https://github.com/adobe/experience-platform-dsw-reference.git

Navigate to the directory experience-platform-dsw-reference/recipes/python/retail . Qui troverete gli script login.sh e build.sh utilizzati per accedere a Docker e per creare l'immagine di python Docker. Se disponete delle credenziali Authoring di modelli basato su docker Docker, immettete i seguenti comandi nell'ordine:
# for logging in to Docker
./login.sh
 
# for building Docker image
./build.sh

Durante l'esecuzione dello script di login, è necessario fornire l'host Docker, il nome utente e la password. Durante la creazione, è necessario fornire l'host Docker e un tag di versione per la build.
Una volta completato lo script di compilazione, nell'output della console viene fornito un URL del file sorgente Docker. Per questo esempio specifico, avrà un aspetto simile a:
# URL format: 
{DOCKER_HOST}/ml-retailsales-python:{VERSION_TAG}

Copiate questo URL e passate ai passaggi successivi .

Genera immagine Docker R

Se non lo avete fatto, clonate il repository github nel sistema locale con il seguente comando:
git clone https://github.com/adobe/experience-platform-dsw-reference.git

Andate alla directory experience-platform-dsw-reference/recipes/R/Retail - GradientBoosting all'interno del repository clonato. Qui troverete i file login.sh e build.sh che si utilizzerà per accedere al Docker e per creare l'immagine del Docker R. Se disponete delle credenziali Authoring di modelli basato su docker Docker, immettete i seguenti comandi nell'ordine:
# for logging in to Docker
./login.sh
 
# for build Docker image
./build.sh

Durante l'esecuzione dello script di login, è necessario fornire l'host Docker, il nome utente e la password. Durante la creazione, è necessario fornire l'host Docker e un tag di versione per la build.
Una volta completato lo script di compilazione, nell'output della console viene fornito un URL del file sorgente Docker. Per questo esempio specifico, avrà un aspetto simile a:
# URL format: 
{DOCKER_HOST}/ml-retail-r:{VERSION_TAG}

Copiate questo URL e passate ai passaggi successivi .

Genera immagine PySpark Docker

Per iniziare, clonate il repository github sul sistema locale con il seguente comando:
git clone https://github.com/adobe/experience-platform-dsw-reference.git

Navigate to the directory experience-platform-dsw-reference/recipes/pyspark/retail . Gli script login.sh e build.sh sono situati qui e utilizzati per accedere a Docker e per creare l'immagine Docker. Se disponete delle credenziali Authoring di modelli basato su docker Docker, immettete i seguenti comandi nell'ordine:
# for logging in to Docker
./login.sh
 
# for building Docker image
./build.sh

Durante l'esecuzione dello script di login, è necessario fornire l'host Docker, il nome utente e la password. Durante la creazione, è necessario fornire l'host Docker e un tag di versione per la build.
Una volta completato lo script di compilazione, nell'output della console viene fornito un URL del file sorgente Docker. Per questo esempio specifico, avrà un aspetto simile a:
# URL format: 
{DOCKER_HOST}/ml-retailsales-pyspark:{VERSION_TAG}

Copiate questo URL e passate ai passaggi successivi .

Genera immagine Docker scala

Per iniziare, clonate il repository github sul sistema locale con il seguente comando nel terminale:
git clone https://github.com/adobe/experience-platform-dsw-reference.git

Quindi, passare alla directory experience-platform-dsw-reference/recipes/scala/retail in cui è possibile trovare gli script login.sh e build.sh . Questi script vengono utilizzati per accedere al Docker e generare l'immagine Docker. Se disponete delle credenziali Authoring di modelli basato su docker Docker, immettete i seguenti comandi per il terminale in ordine:
# for logging in to Docker
./login.sh
 
# for building Docker image
./build.sh

Durante l'esecuzione dello script di login, è necessario fornire l'host Docker, il nome utente e la password. Durante la creazione, è necessario fornire l'host Docker e un tag di versione per la build.
Una volta completato lo script di compilazione, nell'output della console viene fornito un URL del file sorgente Docker. Per questo esempio specifico, avrà un aspetto simile a:
# URL format: 
{DOCKER_HOST}/ml-retailsales-spark:{VERSION_TAG}

Copiate questo URL e passate ai passaggi successivi .

Passaggi successivi

Questa esercitazione ha passato i file di origine del pacchetto in una Ricetta, il passaggio preliminare per l'importazione di una Ricetta in Data Science Workspace. È ora necessario disporre di un'immagine Docker nel Registro di sistema del contenitore di Azure insieme all'URL immagine corrispondente. È ora possibile iniziare l'esercitazione sull'importazione di una ricetta in un pacchetto in Data Science Workspace. Per iniziare, seleziona uno dei collegamenti di esercitazione seguenti:

Creazione di file binari (obsoleto)

I binari non sono supportati nelle nuove ricette PySpark e Scala e sono impostati per essere rimossi in una release futura. Segui i flussi di lavoro Authoring di modelli basato su docker Docker quando lavori con PySpark e Scala. I seguenti flussi di lavoro sono applicabili solo alle ricette Spark 2.3.

Creare file binari PySpark (obsoleto)

Se non lo avete fatto, clonate il repository github nel sistema locale con il seguente comando:
git clone https://github.com/adobe/experience-platform-dsw-reference.git

Accedete all'archivio clonato nel sistema locale ed eseguite i seguenti comandi per creare il .egg file richiesto per l'importazione di una ricetta PySpark:
cd recipes/pyspark
./build.sh

Il .egg file viene generato nella dist cartella.
Ora puoi passare ai passaggi successivi .

Creare file binari Scala (obsoleto)

Se non lo avete ancora fatto, eseguite il comando seguente per duplicare il repository di Github nel sistema locale:
git clone https://github.com/adobe/experience-platform-dsw-reference.git

Per creare l' .jar artefatto utilizzato per importare una ricetta Scala, andate al repository clonato e seguite la procedura seguente:
cd recipes/scala/
./build.sh

L' .jar artifact generato con dipendenze si trova nella /target directory.
Ora puoi passare ai passaggi successivi .