Show Menu
SUJETS×

Importer une recette emballée (interface utilisateur)

Ce didacticiel explique comment configurer et importer une recette assemblée à l'aide de l'exemple Ventes au détail fourni. D’ici la fin de ce didacticiel, vous serez prêt à créer, former et évaluer un modèle dans Adobe Experience Platform Data Science Workspace.

Conditions préalables

Ce didacticiel nécessite une recette empaquetée sous la forme d'une URL d'image Docker. Pour plus d'informations, consultez le didacticiel sur la façon de compresser les fichiers source dans une recette .

Processus de l’interface utilisateur

L'importation d'une recette empaquetée dans Data Science Workspace requiert des configurations de recette spécifiques, compilées dans un seul fichier JSON (JavaScript Object Notation), cette compilation de configurations de recette est appelée fichier de configuration. Une recette assemblée avec un ensemble particulier de configurations est appelée instance de recette. Une recette peut être utilisée pour créer de nombreuses instances de recette dans Data Science Workspace.
Le processus d'importation d'une recette de package comprend les étapes suivantes :

Configurer une recette

Chaque instance de recette dans Data Science Workspace est accompagnée d’un ensemble de configurations qui adaptent l’instance de recette à un cas d’utilisation particulier. Les fichiers de configuration définissent les comportements de formation et de notation par défaut d'un modèle créé à l'aide de cette instance de recette.
Les fichiers de configuration sont spécifiques à la recette et à la casse.
Vous trouverez ci-dessous un exemple de fichier de configuration présentant les comportements de formation et de notation par défaut pour la recette Ventes au détail.
[
    {
        "name": "train",
        "parameters": [
            {
                "key": "learning_rate",
                "value": "0.1"  
            },
            {
                "key": "n_estimators",
                "value": "100"
            },
            {
                "key": "max_depth",
                "value": "3"
            },
            {
                "key": "ACP_DSW_INPUT_FEATURES",
                "value": "date,store,storeType,storeSize,temperature,regionalFuelPrice,markdown,cpi,unemployment,isHoliday"
            },
            {
                "key": "ACP_DSW_TARGET_FEATURES",
                "value": "weeklySales"
            },
            {
                "key": "ACP_DSW_FEATURE_UPDATE_SUPPORT",
                "value": false
            },
            {
                "key": "tenantId",
                "value": "_{TENANT_ID}"
            },
            {
                "key": "ACP_DSW_TRAINING_XDM_SCHEMA",
                "value": "{SEE BELOW FOR DETAILS}"
            },
            {
                "key": "evaluation.labelColumn",
                "value": "weeklySalesAhead"
            },
            {
                "key": "evaluation.metrics",
                "value": "MAPE,MAE,RMSE,MASE"
            }
        ]
    },
    {
        "name": "score",
        "parameters": [
            {
                "key": "tenantId",
                "value": "_{TENANT_ID}"
            },
            {
                "key":"ACP_DSW_SCORING_RESULTS_XDM_SCHEMA",
                "value":"{SEE BELOW FOR DETAILS}"
            }
        ]
    }
]

Clé de paramètre
Type
Description
learning_rate
Nombre
Échelle pour la multiplication des dégradés.
n_estimators
Nombre
Nombre d'arbres dans la forêt pour le classificateur de forêt aléatoire.
max_depth
Nombre
Profondeur maximale d’un arbre dans le classificateur de forêt aléatoire.
ACP_DSW_INPUT_FEATURES
Chaîne
Liste d’attributs de schéma d’entrée séparés par des virgules.
ACP_DSW_TARGET_FEATURES
Chaîne
Liste des attributs de schéma de sortie séparés par des virgules.
ACP_DSW_FEATURE_UPDATE_SUPPORT
Booléen
Détermine si les fonctions d’entrée et de sortie peuvent être modifiées.
tenantId
Chaîne
Cet identifiant permet de s’assurer que les ressources que vous créez sont correctement espacées de noms et qu’elles sont contenues dans votre organisation IMS. Suivez les étapes ci-dessous pour trouver votre ID de client.
ACP_DSW_TRAINING_XDM_SCHEMA
Chaîne
schéma d'entrée utilisé pour la formation d'un modèle. Laissez ce champ vide lors de l’importation dans l’interface utilisateur, remplacez-le par l’ID de schéma de formation lors de l’importation à l’aide de l’API.
evaluation.labelColumn
Chaîne
Libellé de colonne pour les visualisations d’évaluation.
evaluation.metrics
Chaîne
liste séparée par des virgules des mesures d'évaluation à utiliser pour évaluer un modèle.
ACP_DSW_SCORING_RESULTS_XDM_SCHEMA
Chaîne
schéma de sortie utilisé pour marquer un modèle. Laissez ce champ vide lors de l’importation dans l’interface utilisateur, remplacez-le par un ID de schéma d’évaluation lors de l’importation à l’aide de l’API.
Pour les besoins de ce didacticiel, vous pouvez laisser les fichiers de configuration par défaut de la recette Ventes au détail dans Data Science Workspace Reference comme ils sont.

Importer une recette basée sur un Docker - Python

Début en naviguant et en sélectionnant des Workflows situés dans le coin supérieur gauche de l’interface utilisateur de la plate-forme. Ensuite, sélectionnez Importer la recette et cliquez sur Lancer .
La page Configurer pour le flux de travail Importer une recette s'affiche. Entrez un nom et une description pour la recette, puis sélectionnez Suivant dans le coin supérieur droit.
Dans les fichiers source du package dans un didacticiel Recette , une URL Docker a été fournie à la fin de la création de la recette Ventes au détail à l'aide de fichiers source Python.
Une fois que vous êtes sur la page Sélectionner la source , collez l'URL du Docker correspondant à la recette empaquetée créée à l'aide de fichiers source Python dans le champ URL ​source. Importez ensuite le fichier de configuration fourni en le faisant glisser et en le déposant, ou utilisez le navigateur du système de fichiers. Le fichier de configuration fourni se trouve sur experience-platform-dsw-reference/recipes/python/retail/retail.config.json . Sélectionnez Python dans la liste déroulante Runtime et Classification dans la liste déroulante Type. Une fois que tout a été renseigné, cliquez sur Suivant dans le coin supérieur droit pour accéder à Gérer les schémas .
*Type *prend en charge la classification ​et la régression . Si votre modèle ne tombe pas sous l'un de ces types, sélectionnez Personnalisé .
Ensuite, sélectionnez les schémas d'entrée et de sortie des ventes au détail sous la section Gérer les Schémas , ils ont été créés à l'aide du script d'amorçage fourni dans le didacticiel Création du schéma de vente au détail et du jeu de données .
Sous la section Gestion des fonctionnalités , cliquez sur votre identification de client dans le lecteur de schéma pour développer le schéma d’entrée Ventes au détail. Sélectionnez les fonctions d’entrée et de sortie en mettant en surbrillance la fonction souhaitée et en sélectionnant Fonction d’ entrée ou Fonction de Cible dans la fenêtre Propriétés du champ de droite. Pour les besoins de ce didacticiel, définissez weeklySales comme fonction de Cible et tout le reste comme fonction de saisie. Cliquez sur Suivant pour examiner votre nouvelle recette configurée.
Consultez la recette, ajoutez, modifiez ou supprimez des configurations si nécessaire. Cliquez sur Terminer pour créer la recette.
Passez aux étapes Étapes suivantes suivantes pour découvrir comment créer un modèle dans Data Science Workspace à l’aide de la nouvelle recette Ventes au détail.

Importer une recette basée sur un Docker - R

Début en naviguant et en sélectionnant des Workflows situés dans le coin supérieur gauche de l’interface utilisateur de la plate-forme. Ensuite, sélectionnez Importer la recette et cliquez sur Lancer .
La page Configurer pour le flux de travail Importer une recette s'affiche. Entrez un nom et une description pour la recette, puis sélectionnez Suivant dans le coin supérieur droit.
Dans le didacticiel Recette des fichiers source du package, une URL du Docker a été fournie à la fin de la création de la recette Ventes au détail à l'aide de fichiers source R.
Une fois que vous êtes sur la page Sélectionner la source , collez l'URL du Docker correspondant à la recette assemblée générée à l'aide des fichiers source R dans le champ URL ​source. Importez ensuite le fichier de configuration fourni en le faisant glisser et en le déposant, ou utilisez le navigateur du système de fichiers. Le fichier de configuration fourni se trouve sur experience-platform-dsw-reference/recipes/R/Retail\ -\ GradientBoosting/retail.config.json . Sélectionnez R dans la liste déroulante Exécution et Classification dans la liste déroulante Type. Une fois que tout a été renseigné, cliquez sur Suivant dans le coin supérieur droit pour accéder à Gérer les schémas .
*Type *prend en charge la classification ​et la régression . Si votre modèle ne tombe pas sous l'un de ces types, sélectionnez Personnalisé .
Ensuite, sélectionnez les schémas d'entrée et de sortie des ventes au détail sous la section Gérer les Schémas , ils ont été créés à l'aide du script d'amorçage fourni dans le didacticiel Création du schéma de vente au détail et du jeu de données .
Sous la section Gestion des fonctionnalités , cliquez sur votre identification de client dans le lecteur de schéma pour développer le schéma d’entrée Ventes au détail. Sélectionnez les fonctions d’entrée et de sortie en mettant en surbrillance la fonction souhaitée et en sélectionnant Fonction d’ entrée ou Fonction de Cible dans la fenêtre Propriétés du champ de droite. Pour les besoins de ce didacticiel, définissez weeklySales comme fonction de Cible et tout le reste comme fonction de saisie. Cliquez sur Suivant pour passer en revue votre nouvelle recette configurée.
Consultez la recette, ajoutez, modifiez ou supprimez des configurations si nécessaire. Cliquez sur Terminer pour créer la recette.
Passez aux étapes Étapes suivantes suivantes pour découvrir comment créer un modèle dans Data Science Workspace à l’aide de la nouvelle recette Ventes au détail.

Importer une recette basée sur un Docker - PySpark

Début en naviguant et en sélectionnant des Workflows situés dans le coin supérieur gauche de l’interface utilisateur de la plate-forme. Ensuite, sélectionnez Importer la recette et cliquez sur Lancer .
La page Configurer pour le flux de travail Importer une recette s'affiche. Entrez un nom et une description pour la recette, puis sélectionnez Suivant dans le coin supérieur droit pour continuer.
Dans le didacticiel Recette des fichiers source du package, une URL de Docker a été fournie à la fin de la création de la recette Ventes au détail à l’aide des fichiers source PySpark.
Une fois que vous êtes sur la page Sélectionner la source , collez l'URL du Docker correspondant à la recette assemblée générée à l'aide des fichiers source PySpark dans le champ URL ​source. Importez ensuite le fichier de configuration fourni en le faisant glisser et en le déposant, ou utilisez le navigateur du système de fichiers. Le fichier de configuration fourni se trouve sur experience-platform-dsw-reference/recipes/pyspark/retail/pipeline.json . Sélectionnez PySpark dans la liste déroulante Runtime . Une fois l'exécution de PySpark sélectionnée, l'artefact par défaut est automatiquement renseigné sur Docker . Ensuite, sélectionnez Classification dans la liste déroulante Type . Une fois que tout a été renseigné, cliquez sur Suivant dans le coin supérieur droit pour accéder à Gérer les schémas .
*Type *prend en charge la classification ​et la régression . Si votre modèle ne tombe pas sous l'un de ces types, sélectionnez Personnalisé .
Ensuite, sélectionnez les schémas d'entrée et de sortie des ventes au détail sous la section Gérer les Schémas , ils ont été créés à l'aide du script d'amorçage fourni dans le didacticiel Création du schéma de vente au détail et du jeu de données .
Sous la section Gestion des fonctionnalités , cliquez sur votre identification de client dans le lecteur de schéma pour développer le schéma d’entrée Ventes au détail. Sélectionnez les fonctions d’entrée et de sortie en mettant en surbrillance la fonction souhaitée et en sélectionnant Fonction d’ entrée ou Fonction de Cible dans la fenêtre Propriétés du champ de droite. Pour les besoins de ce didacticiel, définissez weeklySales comme fonction de Cible et tout le reste comme fonction de saisie. Cliquez sur Suivant pour examiner votre nouvelle recette configurée.
Consultez la recette, ajoutez, modifiez ou supprimez des configurations si nécessaire. Cliquez sur Terminer pour créer la recette.
Passez aux étapes Étapes suivantes suivantes pour découvrir comment créer un modèle dans Data Science Workspace à l’aide de la nouvelle recette Ventes au détail.

Recette basée sur un Docker d'importation - Scala

Début en naviguant et en sélectionnant des Workflows situés dans le coin supérieur gauche de l’interface utilisateur de la plate-forme. Ensuite, sélectionnez Importer la recette et cliquez sur Lancer .
La page Configurer pour le flux de travail Importer une recette s'affiche. Entrez un nom et une description pour la recette, puis sélectionnez Suivant dans le coin supérieur droit pour continuer.
Dans les fichiers source du package dans un didacticiel Recette , une URL Docker a été fournie à la fin de la création de la recette Ventes au détail à l’aide des fichiers source Scala (Spark).
Une fois que vous êtes sur la page Sélectionner la source , collez l'URL du Docker correspondant à la recette assemblée générée à l'aide des fichiers source Scala dans le champ URL source. Importez ensuite le fichier de configuration fourni en le faisant glisser et en le déposant, ou utilisez le ​navigateur​ du système de fichiers. Le fichier de configuration fourni se trouve sur experience-platform-dsw-reference/recipes/scala/retail/pipelineservice.json . Sélectionnez​ Spark ​dans la liste déroulante Runtime . Une fois l'exécution Spark sélectionnée, l'artefact par défaut est automatiquement renseigné sur​ Docker . Ensuite, sélectionnez​ Régression ​dans la liste déroulante Type . Une fois que tout a été renseigné, cliquez sur​ Suivant** dans le coin supérieur droit pour accéder à Gérer les schémas .
*Type *prend en charge la classification ​et la régression . Si votre modèle ne tombe pas sous l'un de ces types, sélectionnez Personnalisé .
Ensuite, sélectionnez les schémas d'entrée et de sortie des ventes au détail sous la section Gérer les Schémas , ils ont été créés à l'aide du script d'amorçage fourni dans le didacticiel Création du schéma de vente au détail et du jeu de données .
Sous la section Gestion des fonctionnalités , cliquez sur votre identification de client dans le lecteur de schéma pour développer le schéma d’entrée Ventes au détail. Sélectionnez les fonctions d’entrée et de sortie en mettant en surbrillance la fonction souhaitée et en sélectionnant Fonction d’ entrée ou Fonction de Cible dans la fenêtre Propriétés du champ de droite. Pour les besoins de ce didacticiel, définissez weeklySales comme fonction de Cible et tout le reste comme fonction de saisie. Cliquez sur Suivant pour examiner votre nouvelle recette configurée.
Consultez la recette, ajoutez, modifiez ou supprimez des configurations si nécessaire. Cliquez sur Terminer pour créer la recette.
Passez aux étapes Étapes suivantes suivantes pour découvrir comment créer un modèle dans Data Science Workspace à l’aide de la nouvelle recette Ventes au détail.

Étapes suivantes

Ce didacticiel fournit des informations sur la configuration et l'importation d'une recette dans Data Science Workspace. Vous pouvez désormais créer, former et évaluer un modèle à l'aide de la recette nouvellement créée.