Show Menu
ARGOMENTI×

Esercitazioni del Data Science Workspace

Adobe Experience Platform Data Science Workspace utilizza l'apprendimento automatico e l'intelligenza artificiale per creare approfondimenti dai dati. Integrato in Adobe Experience Platform, Data Science Workspace consente di fare previsioni utilizzando i contenuti e le risorse dati nelle soluzioni Adobe. I Data Scienziati di tutti i livelli di abilità hanno sofisticati strumenti facili da usare che supportano lo sviluppo rapido, la formazione e l'ottimizzazione delle ricette di machine learning - tutti i vantaggi della tecnologia AI, senza la complessità.
Per saperne di più, iniziare leggendo la panoramica di Data Science Workspace.

Sensei Machine Learning API

L' Sensei Machine Learning API fornisce agli esperti di dati un meccanismo per organizzare e gestire i servizi di machine learning, dall'installazione degli algoritmi alla sperimentazione e all'implementazione dei servizi.
Sono disponibili le seguenti guide per gli sviluppatori API:
  • Motori - Scopri come cercare il Docker Registro di sistema, creare un motore, creare un motore di pipeline delle funzionalità, recuperare le informazioni per un motore, aggiornare un motore ed eliminare un motore.
  • MLInances (ricette) - Informazioni su come creare un'istanza MLI, recuperare le informazioni per un'istanza MLI, aggiornare un'istanza MLIned eliminare un'istanza MLI.
  • Esperimenti - Scopri come creare un esperimento, recuperare un esperimento o un esperimento esegue informazioni, aggiornare un esperimento ed eliminare un esperimento.
  • Modelli - Informazioni su come registrare il proprio modello, recuperare le informazioni per un modello, aggiornare un modello, eliminare un modello, creare una nuova transcodifica per un modello e recuperare i dettagli di un modello transcodificato.
  • MLServices - Informazioni su come creare un servizio MLS, recuperare le informazioni per un servizio MLService, aggiornare un servizio MLService ed eliminare un servizio MLService.
  • Approfondimenti - Scopri come recuperare le informazioni per un Insight, aggiungere un nuovo Model Insight e recuperare un elenco di metriche predefinite per gli algoritmi.
Per saperne di più e ottenere i valori richiesti per eseguire le operazioni CRUD con l'API di apprendimento di Sensei Machine, visita la guida Sensei Machine Learning Guida per gli sviluppatori di API introduttiva.

How to use JupyterLab Notebooks

JupyterLab è un'interfaccia utente basata sul Web per Project Jupyter ed è strettamente integrata in Adobe Experience Platform. Fornisce un ambiente di sviluppo interattivo che consente agli esperti di dati di lavorare con Jupyter notebooks, codice e dati. Questo documento fornisce una panoramica delle funzioni JupyterLab e delle istruzioni per eseguire azioni comuni.
Questa guida è utile per:
  • Accesso e comprensione dell' JupyterLab interfaccia.
  • Comprendere le celle di codice e i kernel disponibili all'interno JupyterLab.
  • Informazioni sulla configurazione di GPU e del server di memoria in Python/R.
Per saperne di più, visita la guida utente di JupyterLab.

Accesso ai dati nei notebook JupyterLab

Attualmente JupyterLab in Data Science Workspace supporta i notebook per Python, R, PySpark e Scala. Ogni kernel supportato fornisce funzionalità integrate che consentono di leggere i dati della piattaforma da un dataset all'interno di un blocco appunti. Tuttavia, il supporto per l'impaginazione dei dati è limitato ai notebook Python e R. Questa guida è incentrata su come utilizzare i notebook JupyterLab per accedere ai dati.
Questa guida è utile per:
  • Lettura, scrittura e query dei dati della piattaforma utilizzando i notebook Python, R, PySpark o Scala.
  • Comprendere le limitazioni di lettura di ciascun tipo di notebook.
Per saperne di più, visita la guida per lo sviluppatore di accesso ai dati JupyterLab

Creare pacchetti di file sorgente per la creazione di Docker ricette

Un’ Docker immagine consente di creare un pacchetto con tutte le parti necessarie. Questo include librerie e altre dipendenze in un unico pacchetto. L'immagine creata viene inviata Docker al Azure Container Registry visitatore utilizzando le credenziali fornite durante il flusso di lavoro per la creazione delle ricette.
Questa esercitazione aiuterà:
  • Scaricate i prerequisiti richiesti per la creazione delle ricette.
  • Comprendere l'authoring basato Docker su modelli.
  • Create un’ Docker immagine per Python, R, PySpark o Scala (Spark).
  • Ottenete un URL del file Docker sorgente.
Per saperne di più, seguite i file sorgente del pacchetto in un'esercitazione sulle ricette.

Importare una ricetta

Questa esercitazione richiede l'URL di un file Docker sorgente. Se non disponete di un URL del file sorgente, visitate i file sorgente del pacchetto in un'esercitazione Docker sulla ricetta.
Le esercitazioni sulle ricette di importazione forniscono informazioni approfondite su come configurare e importare una ricetta in un pacchetto. Al termine di questa esercitazione, puoi creare, formare e valutare un modello in Adobe Experience Platform Data Science Workspace.
Questa esercitazione aiuterà:
  • Create un set di configurazioni per una ricetta.
  • Importare una ricetta Docker basata su Python, R, PySpark o Scala (Spark).
Per saperne di più, seguite l'esercitazione per l'importazione di un' interfaccia utente per ricette inclusa nel pacchetto o l'esercitazione sulle API.

Treno e valutazione di un modello

In Adobe Experience Platform Data Science Workspace, un modello di machine learning viene creato incorporando una Ricetta esistente appropriata all'intento del modello. Il modello viene quindi addestrato e valutato per ottimizzare l'efficienza operativa e l'efficacia, affinando i relativi Hyperparameters associati. Le ricette sono riutilizzabili, il che significa che più modelli possono essere creati e personalizzati a scopi specifici con un'unica ricetta.
Questa esercitazione aiuterà:
  • Creare un nuovo modello.
  • Crea un'esecuzione di formazione per il modello.
  • Valutare le esecuzioni della formazione Modello.
Per iniziare, segui la formazione e valuta un'esercitazione sulle API modello o l'esercitazione sull' interfaccia utente.

Ottimizzare un modello utilizzando il framework Model Insights

Model Insights Framework fornisce agli esperti di dati strumenti in Adobe Experience Platform Data Science Workspace per effettuare scelte rapide e informate per modelli ottimali di machine learning basati su esperimenti. Il quadro migliorerà la velocità e l'efficacia del flusso di lavoro di apprendimento automatico e migliorerà la facilità d'uso per gli esperti in materia di dati. A tal fine, viene fornito un modello predefinito per ciascun tipo di algoritmo di machine learning per facilitare l'ottimizzazione del modello. Il risultato finale consente agli esperti di data mining e ai cittadini di prendere decisioni migliori in merito all'ottimizzazione dei modelli per i clienti finali.
Questa esercitazione aiuterà:
  • Configurare il codice di ricetta.
  • Definire metriche personalizzate.
  • Utilizza metriche di valutazione e grafici di visualizzazione predefiniti.
Per iniziare, seguite l'esercitazione sull' ottimizzazione di un modello .

Punteggio di un modello

Il punteggio in Adobe Experience Platform Data Science Workspace può essere ottenuto inserendo i dati in un modello già preparato. I risultati del punteggio vengono quindi memorizzati e visualizzati in un set di dati di output specificato come nuovo batch.
Questa esercitazione aiuterà:
  • Crea una nuova esecuzione del punteggio.
  • Visualizza i risultati del punteggio.
Per iniziare, segui la valutazione di un'esercitazione sulle API modello o l'esercitazione sull' interfaccia utente.

Pubblicare un modello come servizio

Adobe Experience Platform Data Science Workspace consente di pubblicare il modello come servizio, consentendo agli utenti all'interno dell'organizzazione IMS di valutare i dati senza la necessità di creare modelli personalizzati. Questo può essere fatto utilizzando l'interfaccia Platform utente o l' Sensei Machine Learning API.
Questa esercitazione aiuterà:
  • Pubblicate un modello come servizio.
  • Punteggio dei dati tramite un servizio tramite Platform il Service Gallery.
Per iniziare, segui l’esercitazione di pubblicazione di un modello come servizio API o l’esercitazione Pubblicare un modello come servizio (interfaccia utente) sull’interfaccia utente.

Pianificazione formazione e punteggio per un modello

Adobe Experience Platform Data Science Workspace consente di impostare l’esecuzione programmata di punteggi e formazioni su un servizio di machine learning. Automatizzare il processo di formazione e valutazione può contribuire a mantenere e migliorare l'efficienza del servizio nel tempo, tenendo al passo con i pattern all'interno dei dati.
Questa esercitazione aiuterà:
  • Configurare il punteggio pianificato
  • Configurare la formazione pianificata
Per iniziare, segui l’ esercitazione per l’interfaccia utente del modello.

Creazione di una pipeline di feature

Attualmente, le pipeline delle funzioni sono disponibili solo tramite API.
Adobe Experience Platform consente di creare e creare tubazioni di feature personalizzate per eseguire la progettazione di feature su scala attraverso Sensei Machine Learning Framework Runtime.
Questa guida è utile per:
  • Implementare le classi di pipeline delle funzioni.
  • Create un motore di pipeline delle funzionalità utilizzando l'API.
Per ulteriori informazioni, vedere l'esercitazione per creare una pipeline di feature.

Creare un' Real-Time Machine Learning applicazione (alfa)

Una combinazione di un calcolo senza soluzione di continuità sia sull'Hub che Edge riduce drasticamente la latenza tradizionalmente impegnata nel fornire esperienze iper-personalizzate rilevanti e reattive. Di conseguenza, Real-time Machine Learning fornisce le inferenze con una latenza incredibilmente bassa per il processo decisionale sincrono. Alcuni esempi includono il rendering di contenuti personalizzati per le pagine Web, la visualizzazione di un'offerta e gli sconti per ridurre il churn pur aumentando le conversioni in uno store Web.
Questa guida è utile per:
  • Comprendere l' Real-time Machine Learning architettura.
  • Comprendere il Real-time Machine Learning flusso di lavoro.
  • Comprendere le funzionalità correnti per Real-time Machine Learning.
  • Fornire i passaggi successivi per la creazione di nuovi modelli personalizzati Real-time Machine Learning model.
Per ulteriori informazioni, consultare la panoramica sull'apprendimento automatico in tempo reale.