Show Menu
THEMEN×

Verpacktes Rezept importieren (UI)

Dieses Lernprogramm bietet einen Einblick in die Konfiguration und den Import eines gepackten Rezepts mithilfe des im Lieferumfang enthaltenen Verkaufsbeispiels. Am Ende dieses Lernprogramms sind Sie bereit, ein Modell in Adobe Experience Platform Data Science Workspace zu erstellen, auszubilden und zu bewerten.

Voraussetzungen

Dieses Lernprogramm erfordert ein gepacktes Rezept in Form einer Docker-Bild-URL. Weitere Informationen finden Sie im Lernprogramm zum Verpacken von Quelldateien in einem Rezept .

Arbeitsablauf der Benutzeroberfläche

Für das Importieren eines gepackten Rezepts in Data Science Workspace sind spezifische Rezeptkonfigurationen erforderlich, die in einer einzigen JSON-Datei (JavaScript Object Notation) kompiliert sind. Diese Zusammenstellung von Rezeptkonfigurationen wird als Konfigurationsdatei bezeichnet. Ein gepacktes Rezept mit einem bestimmten Satz von Konfigurationen wird als Rezept-Instanz bezeichnet. Ein Rezept kann verwendet werden, um viele Rezeptinstanzen im Data Science Workspace zu erstellen.
Der Arbeitsablauf zum Importieren eines Paketrezepts besteht aus den folgenden Schritten:
Veraltete Workflows:

Konfigurieren eines Rezepts

Jede Skriptinstanz in Data Science Workspace wird mit einer Reihe von Konfigurationen begleitet, die die Rezepturinstanz an einen bestimmten Anwendungsfall anpassen. Konfigurationsdateien definieren die standardmäßigen Schulungs- und Bewertungsmethoden eines mit dieser Skriptinstanz erstellten Modells.
Konfigurationsdateien sind Rezept- und Fallspezifisch.
Im Folgenden finden Sie eine Beispielkonfigurationsdatei mit standardmäßigen Trainings- und Bewertungsverhaltensweisen für das Rezept Einzelhandel.
[
    {
        "name": "train",
        "parameters": [
            {
                "key": "learning_rate",
                "value": "0.1"  
            },
            {
                "key": "n_estimators",
                "value": "100"
            },
            {
                "key": "max_depth",
                "value": "3"
            },
            {
                "key": "ACP_DSW_INPUT_FEATURES",
                "value": "date,store,storeType,storeSize,temperature,regionalFuelPrice,markdown,cpi,unemployment,isHoliday"
            },
            {
                "key": "ACP_DSW_TARGET_FEATURES",
                "value": "weeklySales"
            },
            {
                "key": "ACP_DSW_FEATURE_UPDATE_SUPPORT",
                "value": false
            },
            {
                "key": "tenantId",
                "value": "_{TENANT_ID}"
            },
            {
                "key": "ACP_DSW_TRAINING_XDM_SCHEMA",
                "value": "{SEE BELOW FOR DETAILS}"
            },
            {
                "key": "evaluation.labelColumn",
                "value": "weeklySalesAhead"
            },
            {
                "key": "evaluation.metrics",
                "value": "MAPE,MAE,RMSE,MASE"
            }
        ]
    },
    {
        "name": "score",
        "parameters": [
            {
                "key": "tenantId",
                "value": "_{TENANT_ID}"
            },
            {
                "key":"ACP_DSW_SCORING_RESULTS_XDM_SCHEMA",
                "value":"{SEE BELOW FOR DETAILS}"
            }
        ]
    }
]

Parameterschlüssel
Typ
Beschreibung
learning_rate
Zahl
Skalar für Verlaufsmultiplikation.
n_estimators
Zahl
Anzahl der Bäume im Wald für Random Forest Classifier.
max_depth
Zahl
Maximale Tiefe eines Baums in der Random Forest Classifier.
ACP_DSW_INPUT_FEATURES
Zeichenfolge
Liste von kommagetrennten Eingabe-Schema-Attributen.
ACP_DSW_TARGET_FEATURES
Zeichenfolge
Liste von kommagetrennten Schema-Attributen.
ACP_DSW_FEATURE_UPDATE_SUPPORT
Boolesch
Bestimmt, ob Eingabe- und Ausgabefunktionen geändert werden können
tenantId
Zeichenfolge
Diese ID stellt sicher, dass die von Ihnen erstellten Ressourcen korrekt benannt und in Ihrer IMS-Organisation enthalten sind. Gehen Sie wie folgt vor , um Ihre Mandanten-ID zu finden.
ACP_DSW_TRAINING_XDM_SCHEMA
Zeichenfolge
Das für die Modellschulung verwendete Input-Schema. Lassen Sie diese Angabe beim Importieren in die Benutzeroberfläche leer. Ersetzen Sie sie beim Importieren mit der API durch die Schulung SchemaID.
evaluation.labelColumn
Zeichenfolge
Spaltenbeschriftung für Evaluierungsvisualisierungen.
evaluation.metrics
Zeichenfolge
Kommagetrennte Liste von Bewertungsmetriken, die für die Bewertung eines Modells verwendet werden.
ACP_DSW_SCORING_RESULTS_XDM_SCHEMA
Zeichenfolge
Das für das Scoring eines Schemas verwendete Ausgabemodell. Lassen Sie diese Angabe beim Importieren in die Benutzeroberfläche leer. Ersetzen Sie sie beim Importieren mit der API durch eine Bewertungsschema-ID.
Für diese Übung können Sie die Standardkonfigurationsdateien für das Rezept "Einzelhandel"im Data Science Workspace-Referenzhandbuch wie gewünscht belassen.

Dockerbasiertes Rezept importieren - Python

Beginn durch Navigieren und Auswählen Workflows oben links in der Plattform-Benutzeroberfläche. Wählen Sie als Nächstes Rezept importieren und klicken Sie auf Launch .
Die Seite " Konfigurieren "für den Arbeitsablauf für Skriptdateien wird angezeigt. Geben Sie einen Namen und eine Beschreibung für das Rezept ein und wählen Sie dann Next in der oberen rechten Ecke aus.
In den Quelldateien für das Verpacken in einem Rezept -Lernprogramm wurde am Ende der Erstellung des Retail Sales-Rezepts mit Python-Quelldateien eine Docker-URL bereitgestellt.
Sobald Sie sich auf der Seite "Quelle auswählen"befinden, fügen Sie die Docker-URL entsprechend dem mit Python-Quelldateien erstellten gepackten Rezept in das​ Source URL ​Feld ein. Importieren Sie anschließend die bereitgestellte Konfigurationsdatei per Drag & Drop oder verwenden Sie den Dateisystem- ​Browser​ . Die angegebene Konfigurationsdatei finden Sie unter experience-platform-dsw-reference/recipes/python/retail/retail.config.json . Wählen Sie​ Python ​in der Dropdownliste Laufzeit und​ Classification ​in der Dropdown-Liste Typ aus. Klicken Sie nach dem Ausfüllen auf​ Next** die Schaltfläche oben rechts, um mit "Schema verwalten"fortzufahren .
*Typ *unterstützt Classification ​und Regression . Wenn Ihr Modell nicht unter einen dieser Typen fällt, wählen Sie Custom .
Wählen Sie anschließend die Schema für die Eingabe und Ausgabe im Einzelhandel unter "Schema verwalten "aus. Sie wurden mithilfe des bereitgestellten Bootstrap-Skripts im Lernprogramm zum Erstellen des Schemas und des Datensatzes für den Einzelhandel erstellt .
Klicken Sie im Abschnitt Funktionsverwaltung auf Ihre Pachtnummer im Schema-Viewer, um das Schema für die Eingabe des Einzelhandelsverkaufs zu erweitern. Wählen Sie die Ein- und Ausgabefunktionen aus, indem Sie die gewünschte Funktion markieren und entweder Input Feature oder Target Feature im rechten Field Properties Fenster auswählen. Für die Zwecke dieses Tutorials, weeklySales als die Target Feature und alles andere als Input Feature . Klicken Sie auf Next , um Ihr neues konfiguriertes Rezept zu überprüfen.
Überprüfen Sie das Rezept, fügen Sie Konfigurationen hinzu, ändern oder entfernen Sie sie nach Bedarf. Klicken Sie auf Finish , um das Rezept zu erstellen.
Fahren Sie mit den nächsten Schritten fort, um herauszufinden, wie ein Modell in Data Science Workspace mit dem neu erstellten Rezept Einzelhandelsverkäufe erstellt wird.

Dockerbasiertes Rezept importieren - R

Beginn durch Navigieren und Auswählen Workflows oben links in der Plattform-Benutzeroberfläche. Wählen Sie als Nächstes Rezept importieren und klicken Sie auf Launch .
Die Seite " Konfigurieren "für den Arbeitsablauf für Skriptdateien wird angezeigt. Geben Sie einen Namen und eine Beschreibung für das Rezept ein und wählen Sie dann Next in der oberen rechten Ecke aus.
In den Quelldateien für das Verpacken in einem Rezept -Lernprogramm wurde am Ende der Erstellung des Retail Sales-Rezepts mit R-Quelldateien eine Docker-URL bereitgestellt.
Sobald Sie sich auf der Seite "Quelle auswählen"befinden, fügen Sie die Docker-URL entsprechend dem mit R-Quelldateien erstellten gepackten Rezept in das​ Source URL ​Feld ein. Importieren Sie anschließend die bereitgestellte Konfigurationsdatei per Drag & Drop oder verwenden Sie den Dateisystem- ​Browser​ . Die angegebene Konfigurationsdatei finden Sie unter experience-platform-dsw-reference/recipes/R/Retail\ -\ GradientBoosting/retail.config.json . Wählen Sie​ R ​in der Dropdownliste Laufzeit und​ Classification ​in der Dropdown-Liste Typ aus. Klicken Sie nach dem Ausfüllen auf​ Next** die Schaltfläche oben rechts, um mit "Schema verwalten"fortzufahren .
*Typ *unterstützt Classification ​und Regression . Wenn Ihr Modell nicht unter einen dieser Typen fällt, wählen Sie Custom .
Wählen Sie anschließend die Schema für die Eingabe und Ausgabe im Einzelhandel unter "Schema verwalten "aus. Sie wurden mithilfe des bereitgestellten Bootstrap-Skripts im Lernprogramm zum Erstellen des Schemas und des Datensatzes für den Einzelhandel erstellt .
Klicken Sie im Abschnitt Funktionsverwaltung auf Ihre Pachtnummer im Schema-Viewer, um das Schema für die Eingabe des Einzelhandelsverkaufs zu erweitern. Wählen Sie die Ein- und Ausgabefunktionen aus, indem Sie die gewünschte Funktion markieren und entweder Input Feature oder Target Feature im rechten Field Properties Fenster auswählen. Für die Zwecke dieses Tutorials, weeklySales als die Target Feature und alles andere als Input Feature . Klicken Sie auf Next , um Ihr neues konfiguriertes Rezept zu überprüfen.
Überprüfen Sie das Rezept, fügen Sie Konfigurationen hinzu, ändern oder entfernen Sie sie nach Bedarf. Klicken Sie auf Fertig stellen , um das Rezept zu erstellen.
Fahren Sie mit den nächsten Schritten fort, um herauszufinden, wie ein Modell in Data Science Workspace mit dem neu erstellten Rezept Einzelhandelsverkäufe erstellt wird.

Docker-basiertes Rezept importieren - PySpark

Beginn durch Navigieren und Auswählen Workflows oben links in der Plattform-Benutzeroberfläche. Wählen Sie als Nächstes Rezept importieren und klicken Sie auf Launch .
Die Seite " Konfigurieren "für den Arbeitsablauf für Skriptdateien wird angezeigt. Geben Sie einen Namen und eine Beschreibung für das Rezept ein und wählen Sie dann Next in der oberen rechten Ecke aus, um fortzufahren.
In der Paketquellendatei in einem Rezept -Tutorial wurde am Ende der Erstellung des Retail Sales-Rezeptes mit PySpark-Quelldateien eine Docker-URL bereitgestellt.
Sobald Sie sich auf der Seite "Quelle auswählen"befinden, fügen Sie die Docker-URL entsprechend dem mit PySpark-Quelldateien erstellten gepackten Rezept in das​ Source URL ​Feld ein. Importieren Sie anschließend die bereitgestellte Konfigurationsdatei per Drag & Drop oder verwenden Sie den Dateisystem- ​Browser​ . Die angegebene Konfigurationsdatei finden Sie unter experience-platform-dsw-reference/recipes/pyspark/retail/pipeline.json . Wählen Sie​ PySpark ​im Dropdownmenü Laufzeit die Option. Nach Auswahl der PySpark-Laufzeit wird das standardmäßige Artefakt automatisch ausgefüllt​ Docker . Wählen Sie dann​ Classification ​in der Dropdown-Liste Typ aus. Klicken Sie nach dem Ausfüllen auf​ Next** die Schaltfläche oben rechts, um mit "Schema verwalten"fortzufahren .
*Typ *unterstützt Classification ​und Regression . Wenn Ihr Modell nicht unter einen dieser Typen fällt, wählen Sie Custom .
Wählen Sie anschließend die Schema für die Eingabe und Ausgabe im Einzelhandel unter "Schema verwalten "aus. Sie wurden mithilfe des bereitgestellten Bootstrap-Skripts im Lernprogramm zum Erstellen des Schemas und des Datensatzes für den Einzelhandel erstellt .
Klicken Sie im Abschnitt Funktionsverwaltung auf Ihre Pachtnummer im Schema-Viewer, um das Schema für die Eingabe des Einzelhandelsverkaufs zu erweitern. Wählen Sie die Ein- und Ausgabefunktionen aus, indem Sie die gewünschte Funktion markieren und entweder Input Feature oder Target Feature im rechten Field Properties Fenster auswählen. Für die Zwecke dieses Tutorials, weeklySales als die Target Feature und alles andere als Input Feature . Klicken Sie auf Next , um Ihr neues konfiguriertes Rezept zu überprüfen.
Überprüfen Sie das Rezept, fügen Sie Konfigurationen hinzu, ändern oder entfernen Sie sie nach Bedarf. Klicken Sie auf Finish , um das Rezept zu erstellen.
Fahren Sie mit den nächsten Schritten fort, um herauszufinden, wie ein Modell in Data Science Workspace mit dem neu erstellten Rezept Einzelhandelsverkäufe erstellt wird.

Docker-basiertes Rezept importieren - Scala

Beginn durch Navigieren und Auswählen Workflows oben links in der Plattform-Benutzeroberfläche. Wählen Sie als Nächstes Rezept importieren und klicken Sie auf Launch .
Die Seite " Konfigurieren "für den Arbeitsablauf für Skriptdateien wird angezeigt. Geben Sie einen Namen und eine Beschreibung für das Rezept ein und wählen Sie dann Next in der oberen rechten Ecke aus, um fortzufahren.
In der Paketquellendatei in einem Rezept -Tutorial wurde am Ende der Erstellung des Retail Sales-Rezeptes mit Scala-Quelldateien (Spark) eine Docker-URL bereitgestellt.
Sobald Sie sich auf der Seite "Quelle auswählen"befinden, fügen Sie die Docker-URL entsprechend dem mit Scala-Quelldateien erstellten gepackten Rezept in das Feld Quell-URL ein. Importieren Sie anschließend die bereitgestellte Konfigurationsdatei per Drag & Drop oder verwenden Sie den Dateisystem- ​Browser​ . Die angegebene Konfigurationsdatei finden Sie unter experience-platform-dsw-reference/recipes/scala/retail/pipelineservice.json . Wählen Sie​ Spark ​im Dropdownmenü Laufzeit die Option. Nach Auswahl der Spark-Laufzeit wird das standardmäßige Artefakt automatisch ausgefüllt​ Docker . Wählen Sie dann​ Regression ​aus der Dropdownliste Typ . Klicken Sie nach dem Ausfüllen auf​ Next** die Schaltfläche oben rechts, um mit "Schema verwalten"fortzufahren .
*Typ *unterstützt Classification ​und Regression . Wenn Ihr Modell nicht unter einen dieser Typen fällt, wählen Sie Custom .
Wählen Sie anschließend die Schema für die Eingabe und Ausgabe im Einzelhandel unter "Schema verwalten "aus. Sie wurden mithilfe des bereitgestellten Bootstrap-Skripts im Lernprogramm zum Erstellen des Schemas und des Datensatzes für den Einzelhandel erstellt .
Klicken Sie im Abschnitt Funktionsverwaltung auf Ihre Pachtnummer im Schema-Viewer, um das Schema für die Eingabe des Einzelhandelsverkaufs zu erweitern. Wählen Sie die Ein- und Ausgabefunktionen aus, indem Sie die gewünschte Funktion markieren und entweder Input Feature oder Target Feature im rechten Field Properties Fenster auswählen. Für die Zwecke dieses Tutorials, weeklySales als die Target Feature und alles andere als Input Feature . Klicken Sie auf Next , um Ihr neues konfiguriertes Rezept zu überprüfen.
Überprüfen Sie das Rezept, fügen Sie Konfigurationen hinzu, ändern oder entfernen Sie sie nach Bedarf. Klicken Sie auf Finish , um das Rezept zu erstellen.
Fahren Sie mit den nächsten Schritten fort, um herauszufinden, wie ein Modell in Data Science Workspace mit dem neu erstellten Rezept Einzelhandelsverkäufe erstellt wird.

Nächste Schritte

Dieses Lernprogramm bietet einen Einblick in die Konfiguration und den Import eines Skripts in Data Science Workspace. Sie können ein Modell jetzt mit dem neu erstellten Rezept erstellen, ausbilden und auswerten.

Veraltete Workflows

Das Importieren binärer Rezepte wird in PySpark 3 (Spark 2.4) und Scala (Spark 2.4) nicht mehr unterstützt.

Binärbasiertes Rezept importieren - PySpark

In den Quelldateien Package in ein Rezept -Lernprogramm wurde eine EGG -Binärdatei mithilfe der Quelldateien Retail Sales PySpark erstellt.
  1. Suchen Sie in Adobe Experience Platform das linke Navigationsfenster und klicken Sie auf Workflows . Starten Sie auf der Workflows-Oberfläche einen neuen Import-Vorgang für die Quelldatei .
  2. Geben Sie einen entsprechenden Namen für das Rezept Einzelhandelsverkäufe ein. Beispiel: "Retail Sales recipe PySpark". Fügen Sie optional eine Beschreibung des Rezepts und eine Dokumentations-URL ein. Klicken Sie auf Weiter , wenn Sie fertig sind.
  3. Importieren Sie das PySpark Retail Sales-Rezept, das in den Quelldateien des Pakets erstellt wurde, in ein Rezept -Tutorial, indem Sie per Drag & Drop oder mithilfe des Dateisystem- Browsers . Das verpackte Rezept sollte sich in experience-platform-dsw-reference/recipes/pyspark/dist . Importieren Sie die bereitgestellte Konfigurationsdatei auch per Drag & Drop oder verwenden Sie den Dateisystem- Browser . Die angegebene Konfigurationsdatei finden Sie unter experience-platform-dsw-reference/recipes/pyspark/pipeline.json . Klicken Sie auf Weiter , wenn beide Dateien bereitgestellt wurden.
  4. An dieser Stelle können Fehler auftreten. Dies ist ein normales Verhalten und ist zu erwarten. Wählen Sie die Schemas für die Eingabe und Ausgabe im Einzelhandel unter Verwalten von Schemas aus. Sie wurden mithilfe des Bootstrap-Skripts im Lernprogramm zum Erstellen des Schemas und des Datensatzes Schema und Dataset für den Einzelhandel erstellen für den Einzelhandel erstellt. Klicken Sie im Abschnitt Funktionsverwaltung auf Ihre Pachtnummer im Schema-Viewer, um das Schema für die Eingabe des Einzelhandelsverkaufs zu erweitern. Wählen Sie die Ein- und Ausgabefunktionen aus, indem Sie die gewünschte Funktion markieren und im rechten Fenster " Feldeigenschaften"entweder " Eingabefunktion "oder " Zielgruppe-Funktion "auswählen . Legen Sie für diese Übung weeklySales als Zielgruppe-Funktion und alles andere als Input-Funktion fest. Klicken Sie auf Weiter , um Ihr neues konfiguriertes Rezept zu überprüfen.
  5. Überprüfen Sie das Rezept, fügen Sie Konfigurationen hinzu, ändern oder entfernen Sie sie nach Bedarf. Klicken Sie auf Fertig stellen , um das Rezept zu erstellen.
Fahren Sie mit den nächsten Schritten fort, um herauszufinden, wie ein Modell in Data Science Workspace mit dem neu erstellten Rezept Einzelhandelsverkäufe erstellt wird.

Binärbasiertes Rezept importieren - Scala Spark

In den Quelldateien Package in ein Rezept -Lernprogramm wurde eine JAR -Binärdatei mithilfe der Quelldateien Retail Sales Scala Spark erstellt.
  1. Suchen Sie in Adobe Experience Platform das linke Navigationsfenster und klicken Sie auf Workflows . Starten Sie auf der Workflows-Oberfläche einen neuen Import-Vorgang für die Quelldatei .
  2. Geben Sie einen entsprechenden Namen für das Rezept Einzelhandelsverkäufe ein. Beispiel: "Retail Sales recipe Scala Spark". Fügen Sie optional eine Beschreibung des Rezepts und eine Dokumentations-URL ein. Klicken Sie auf Weiter , wenn Sie fertig sind.
  3. Importieren Sie das Scala Spark Retail Sales-Rezept, das in den Quelldateien des Pakets erstellt wurde, in ein Rezept -Tutorial, indem Sie per Drag & Drop oder mithilfe des Dateisystem- Browsers . Das gepackte Rezept mit Abhängigkeiten befindet sich in experience-platform-dsw-reference/recipes/scala/target . Importieren Sie die bereitgestellte Konfigurationsdatei auch per Drag & Drop oder verwenden Sie den Dateisystem- Browser . Die angegebene Konfigurationsdatei finden Sie unter experience-platform-dsw-reference/recipes/scala/src/main/resources/pipelineservice.json . Klicken Sie auf Weiter , wenn beide Dateien bereitgestellt wurden.
  4. An dieser Stelle können Fehler auftreten. Dies ist ein normales Verhalten und ist zu erwarten. Wählen Sie die Schemas für die Eingabe und Ausgabe im Einzelhandel unter Verwalten von Schemas aus. Sie wurden mithilfe des Bootstrap-Skripts im Lernprogramm zum Erstellen des Schemas und des Datensatzes Schema und Dataset für den Einzelhandel erstellen für den Einzelhandel erstellt. Klicken Sie im Abschnitt Funktionsverwaltung auf Ihre Pachtnummer im Schema-Viewer, um das Schema für die Eingabe des Einzelhandelsverkaufs zu erweitern. Wählen Sie die Ein- und Ausgabefunktionen aus, indem Sie die gewünschte Funktion markieren und im rechten Fenster " Feldeigenschaften"entweder " Eingabefunktion "oder " Zielgruppe-Funktion "auswählen . Legen Sie für diese Übung weeklySales als Zielgruppe-Funktion und alles andere als Input-Funktion fest. Klicken Sie auf Weiter , um Ihr neues konfiguriertes Rezept zu überprüfen.
  5. Überprüfen Sie das Rezept, fügen Sie Konfigurationen hinzu, ändern oder entfernen Sie sie nach Bedarf. Klicken Sie auf Fertig stellen , um das Rezept zu erstellen.
Fahren Sie mit den nächsten Schritten fort, um herauszufinden, wie ein Modell in Data Science Workspace mit dem neu erstellten Rezept Einzelhandelsverkäufe erstellt wird.