Regroupement des fichiers sources dans une recette

Ce tutoriel explique comment regrouper les fichiers source d’exemples de ventes au détail fournis dans un fichier d’archive, qui peut être utilisé pour créer une recette dans Adobe Experience Platform. Data Science Workspace en suivant le workflow d’importation des recettes dans l’interface utilisateur ou à l’aide de l’API.

Concepts à comprendre :

  • Recettes  : une recette est le terme utilisé par Adobe pour désigner une spécification de modèle. Il s’agit d’un conteneur de niveau supérieur qui représente un machine learning spécifique, un algorithme d’intelligence artificielle ou un ensemble d’algorithmes, une logique de traitement et la configuration nécessaires pour créer et exécuter un modèle formé et ainsi aider à résoudre des problèmes d’entreprise spécifiques.
  • Fichiers source  : fichiers individuels de votre projet contenant la logique pour une recette.

Conditions préalables

Création de recettes

La création de recettes commence par le regroupement des fichiers afin de créer un fichier d’archives. Les fichiers source définissent la logique d’apprentissage automatique et les algorithmes utilisés pour résoudre un problème spécifique à résoudre ; ils sont écrits dans l’un ou l’autre des deux Python, R, PySpark ou Scala. Les fichiers d’archive créés prennent la forme d’une image Docker. Une fois créé, le fichier d’archive empaqueté est importé dans . Data Science Workspace pour créer une recette dans l’interface utilisateur ou utilisation de l’API.

Création de modèles basés sur Docker docker-based-model-authoring

Une image Docker permet au développeur d’empaqueter une application avec tous les éléments dont elle a besoin, comme les bibliothèques et autres dépendances, et de l’expédier sous forme d’un package unique.

L’image Docker créée est envoyée au Azure Container Registry à l’aide des informations d’identification fournies lors du processus de création de recette.

Pour obtenir vos informations d’identification Azure Container Registry, connectez-vous à Adobe Experience Platform. Dans la colonne de navigation de gauche, accédez aux Workflows. Sélectionner Importer la recette suivie de la sélection Launch. Voir la capture d’écran ci-dessous pour référence.

Le Configurer s’ouvre. Indiquez un nom de recette approprié, par exemple « Recette des ventes au détail », et éventuellement une description ou une URL de documentation. Une fois terminé, cliquez sur Suivant.

Sélectionnez les Exécution, puis choisissez une Classification pour Type. Vos informations d’identification Azure Container Registry sont générées une fois l’opération terminée.

NOTE
Type est la classe de problème d’apprentissage automatique pour laquelle la recette est conçue et est utilisée après l’entraînement pour aider à personnaliser l’évaluation de l’opération de formation.
TIP
  • Pour Python les recettes sélectionnent les Python runtime.
  • Pour les recettes R, sélectionnez la variable R runtime.
  • Pour les recettes PySpark, sélectionnez le PySpark runtime. Un type d’artefact est automatiquement renseigné.
  • Pour les recettes Scala, sélectionnez le Spark runtime. Un type d’artefact est automatiquement renseigné.

Notez les valeurs de l’hôte Docker, du nom d’utilisateur et du mot de passe. Ils sont utilisés pour créer et envoyer vos Docker dans les workflows décrits ci-dessous.

NOTE
L’URL source est fournie après avoir suivi les étapes décrites ci-dessous. Le fichier de configuration est expliqué dans les tutoriels suivants qui se trouvent dans étapes suivantes.

Regroupement des fichiers sources

Commencez par obtenir l’exemple de code de base trouvé dans le référentiel Référence de l’espace de travail de science des données d’Experience Platform.

Build Python Image Docker python-docker

Si vous ne l’avez pas fait, clonez la variable GitHub sur votre système local avec la commande suivante :

git clone https://github.com/adobe/experience-platform-dsw-reference.git

Accédez au répertoire experience-platform-dsw-reference/recipes/python/retail. Vous trouverez ici les scripts login.sh et build.sh utilisé pour se connecter à Docker et pour créer le Python Docker image. Si vos informations d’identification Docker sont prêtes, saisissez les commandes suivantes dans l’ordre :

# for logging in to Docker
./login.sh

# for building Docker image
./build.sh

Notez que lors de l’exécution du script de connexion, vous devez fournir l’hôte Docker, le nom d’utilisateur et le mot de passe. Lors de la création, vous devez fournir l’hôte Docker et une balise de version pour la génération.

Une fois le script de génération terminé, vous recevez une URL de fichier source Docker dans la sortie de la console. Pour cet exemple spécifique, il se présente comme suit :

# URL format:
{DOCKER_HOST}/ml-retailsales-python:{VERSION_TAG}

Copiez cette URL et passez aux étapes suivantes.

Build R Docker image r-docker

Si vous ne l’avez pas fait, clonez la variable GitHub sur votre système local avec la commande suivante :

git clone https://github.com/adobe/experience-platform-dsw-reference.git

Accédez au répertoire experience-platform-dsw-reference/recipes/R/Retail - GradientBoosting dans votre référentiel cloné. Vous trouverez ici les fichiers login.sh et build.sh que vous utiliserez pour vous connecter à Docker et pour créer l’image R Docker. Si vos informations d’identification Docker sont prêtes, saisissez les commandes suivantes dans l’ordre :

# for logging in to Docker
./login.sh

# for build Docker image
./build.sh

Notez que lors de l’exécution du script de connexion, vous devez fournir l’hôte Docker, le nom d’utilisateur et le mot de passe. Lors de la création, vous devez fournir l’hôte Docker et une balise de version pour la génération.

Une fois le script de génération terminé, vous recevez une URL de fichier source Docker dans la sortie de la console. Pour cet exemple spécifique, il se présente comme suit :

# URL format:
{DOCKER_HOST}/ml-retail-r:{VERSION_TAG}

Copiez cette URL et passez aux étapes suivantes.

Création d’une image PySpark Docker pyspark-docker

Commencez par cloner l’objet GitHub sur votre système local avec la commande suivante :

git clone https://github.com/adobe/experience-platform-dsw-reference.git

Accédez au répertoire experience-platform-dsw-reference/recipes/pyspark/retail. Les scripts login.sh et build.sh se trouvent ici et sont utilisés pour se connecter à Docker et pour créer l’image Docker. Si vos informations d’identification Docker sont prêtes, saisissez les commandes suivantes dans l’ordre :

# for logging in to Docker
./login.sh

# for building Docker image
./build.sh

Notez que lors de l’exécution du script de connexion, vous devez fournir l’hôte Docker, le nom d’utilisateur et le mot de passe. Lors de la création, vous devez fournir l’hôte Docker et une balise de version pour la génération.

Une fois le script de génération terminé, vous recevez une URL de fichier source Docker dans la sortie de la console. Pour cet exemple spécifique, il se présente comme suit :

# URL format:
{DOCKER_HOST}/ml-retailsales-pyspark:{VERSION_TAG}

Copiez cette URL et passez aux étapes suivantes.

Création d’une image Scala Docker scala-docker

Commencez par cloner l’objet GitHub sur votre système local avec la commande suivante en terminal :

git clone https://github.com/adobe/experience-platform-dsw-reference.git

Accédez ensuite au répertoire . experience-platform-dsw-reference/recipes/scala où vous pouvez trouver les scripts login.sh et build.sh. Ces scripts sont utilisés pour se connecter à Docker et créer l’image Docker. Si vous avez votre Informations d’identification Docker prêt, saisissez les commandes suivantes au terminal dans l’ordre :

# for logging in to Docker
./login.sh

# for building Docker image
./build.sh
TIP
Si vous recevez une erreur d’autorisation lors de la tentative de connexion à Docker à l’aide de la variable login.sh script, essayer d’utiliser la commande bash login.sh.

Lors de l’exécution du script de connexion, vous devez fournir l’hôte Docker, le nom d’utilisateur et le mot de passe. Lors de la création, vous devez fournir l’hôte Docker et une balise de version pour la génération.

Une fois le script de génération terminé, vous recevez une URL de fichier source Docker dans la sortie de la console. Pour cet exemple spécifique, il se présente comme suit :

# URL format:
{DOCKER_HOST}/ml-retailsales-spark:{VERSION_TAG}

Copiez cette URL et passez aux étapes suivantes.

Étapes suivantes next-steps

Ce tutoriel a passé en revue le regroupement de fichiers source dans une recette, l’étape prérequise pour importer une recette dans Data Science Workspace. Vous devez maintenant disposer d’une image Docker dans Azure Container Registry avec l’URL d’image correspondante. Vous êtes maintenant prêt à commencer le tutoriel sur l’importation d’une recette empaquetée dans Data Science Workspace. Sélectionnez l’un des liens du tutoriel ci-dessous pour commencer:

recommendation-more-help
cc79fe26-64da-411e-a6b9-5b650f53e4e9