Show Menu
TEMAS×

Data Science Workspace tutoriales

Adobe Experience Platform Data Science Workspace utiliza el aprendizaje automático y la inteligencia artificial para crear perspectivas a partir de sus datos. Integrado en Adobe Experience Platform, Data Science Workspace le ayuda a realizar predicciones mediante el uso de contenido y recursos de datos en las soluciones de Adobe. Los científicos de datos de todos los niveles tienen herramientas sofisticadas y fáciles de usar que respaldan el rápido desarrollo, capacitación y ajuste de recetas de aprendizaje automático -todos los beneficios de la tecnología de IA, sin la complejidad.
Para obtener más información, lea la información general de Data Science Workspace.

Sensei Machine Learning API

La Sensei Machine Learning API proporciona un mecanismo para que los científicos de datos organicen y gestionen los servicios de aprendizaje automático, desde la incorporación de algoritmos hasta la experimentación y la implementación de servicios.
Están disponibles las siguientes guías para desarrolladores de API:
  • Motores : Aprenda a buscar en su Docker registro, crear un motor, crear una canalización de funciones Motor, recuperar la información de un motor, actualizar un motor y eliminar un motor.
  • Instancias MLI (fórmulas) : Aprenda a crear una instancia MLI, recuperar la información de una instancia MLI, actualizar una instancia MLI y eliminar una instancia MLI.
  • Experimentos : Aprenda a crear un experimento, recuperar un experimento o experimento ejecuta información, actualizar un experimento y eliminar un experimento.
  • Modelos : Aprenda a registrar su propio modelo, recuperar la información de un modelo, actualizar un modelo, eliminar un modelo, crear una nueva transcodificación para un modelo y recuperar los detalles de un modelo transcodificado.
  • MLServices : Aprenda a crear un MLService, recuperar la información de un MLService, actualizar un MLService y eliminar un MLService.
  • Perspectivas : Descubra cómo recuperar la información de una perspectiva, agregue una nueva perspectiva de modelo y recupere una lista de las métricas predeterminadas para los algoritmos.
Para obtener más información y obtener los valores necesarios para realizar operaciones de CRUD con la API de aprendizaje automático de Sensei, visite la guía de introducción .

How to use JupyterLab Notebooks

JupyterLab es una interfaz de usuario basada en web para Project Jupyter y está estrechamente integrada en Adobe Experience Platform. Proporciona un entorno de desarrollo interactivo para que los científicos de datos trabajen con datos, códigos Jupyter notebooksy datos. Este documento proporciona información general sobre JupyterLab y sus características, así como instrucciones para realizar acciones comunes.
Esta guía le ayudará a:
  • Obtenga acceso y comprenda la JupyterLab interfaz.
  • Comprender las celdas de código y los núcleos disponibles dentro de JupyterLab.
  • Comprender la configuración de la GPU y del servidor de memoria en Python/R.
Para obtener más información, visite la guía del usuario de JupyterLab.

Acceso a datos en equipos portátiles JupyterLab

Actualmente, JupyterLab en Área de trabajo de ciencia de datos admite portátiles para Python, R, PySpark y Scala. Cada núcleo soportado proporciona funcionalidades integradas que le permiten leer datos de la Plataforma desde un conjunto de datos dentro de un bloc de notas. Sin embargo, la compatibilidad con la paginación de datos está limitada a los blocs de notas Python y R. Esta guía se centra en cómo utilizar los portátiles JupyterLab para acceder a sus datos.
Esta guía le ayudará a:
  • Leer, escribir y consulta de datos de la plataforma mediante portátiles Python, R, PySpark o Scala.
  • Comprenda las limitaciones de lectura de cada tipo de bloc de notas.
Para obtener más información, visite la guía para desarrolladores de acceso a datos de JupyterLab

Empaquetar archivos de origen para la creación de Docker fórmulas

Una Docker imagen permite empaquetar una aplicación con todas las partes que necesita. Esto incluye bibliotecas y otras dependencias en un solo paquete. La imagen compilada Docker se inserta en el Azure Container Registry mediante las credenciales proporcionadas durante el flujo de trabajo de creación de fórmulas.
Este tutorial le ayudará a:
  • Descargue los requisitos previos necesarios para la creación de fórmulas.
  • Comprender la creación de modelos Docker basados en.
  • Cree una Docker imagen para Python, R, PySpark o Scala (Spark).
  • Obtenga una URL de archivo Docker de origen.
Para obtener más información, siga los archivos de origen del paquete en un tutorial de fórmula.

Importar una fórmula

Este tutorial requiere que tenga una URL de archivo Docker de origen. Visite los archivos de origen del paquete en un tutorial de fórmula si no tiene una URL de archivo Docker de origen.
Los tutoriales de las fórmulas de importación proporcionan información sobre cómo configurar e importar una fórmula empaquetada. Al final de este tutorial, puede crear, entrenar y evaluar un modelo en Adobe Experience Platform Data Science Workspace.
Este tutorial le ayudará a:
  • Cree un conjunto de configuraciones para una fórmula.
  • Importe una Docker fórmula basada en Python, R, PySpark o Scala (Spark).
Para obtener más información, siga el tutorial de importación de una interfaz de usuario de fórmula empaquetada o el tutorial de API.

Formación y evaluación de un modelo

En Adobe Experience Platform Data Science Workspace, se crea un modelo de aprendizaje automático mediante la incorporación de una fórmula existente que es adecuada para la intención del modelo. A continuación, se capacita y evalúa al Modelo para optimizar su eficacia y eficiencia operativa mediante el ajuste de sus hiperparámetros asociados. Las fórmulas son reutilizables, lo que significa que se pueden crear y adaptar varios modelos a fines específicos con una sola fórmula.
Este tutorial le ayudará a:
  • Crear un nuevo modelo.
  • Cree una ejecución de formación para el modelo.
  • Evalúe las ejecuciones de formación del modelo.
Para empezar, siga la formación y evaluación de un tutorial de API de modelo o el tutorial de IU.

Optimizar un modelo mediante el marco de perspectivas de modelo

Model Insights Framework proporciona al científico de datos herramientas en Adobe Experience Platform Data Science Workspace para tomar decisiones rápidas e informadas para modelos óptimos de aprendizaje automático basados en experimentos. El marco mejorará la velocidad y la eficacia del flujo de trabajo del aprendizaje automático, así como la facilidad de uso de los científicos de datos. Esto se lleva a cabo proporcionando una plantilla predeterminada para cada tipo de algoritmo de aprendizaje automático para facilitar el ajuste del modelo. El resultado final permite a los científicos de datos y a los científicos de datos ciudadanos tomar mejores decisiones de optimización de modelos para sus clientes finales.
Este tutorial le ayudará a:
  • Configure el código de fórmula.
  • Definir métricas personalizadas.
  • Utilice métricas de evaluación y gráficos de visualización creados previamente.
Para empezar, siga el tutorial sobre la optimización de un modelo .

Puntuación de un modelo

La puntuación en Adobe Experience Platform Data Science Workspace se puede lograr mediante la alimentación de datos de entrada en un modelo capacitado existente. Los resultados de puntuación se almacenan y se pueden ver en un conjunto de datos de salida especificado como un nuevo lote.
Este tutorial le ayudará a:
  • Crear una nueva carrera de puntuación.
  • Vista los resultados de puntuación.
Para empezar, siga el tutorial de una API de modelo o el tutorial de la interfaz de usuario.

Publicación de un modelo como servicio

Adobe Experience Platform Data Science Workspace le permite publicar el modelo como un servicio, lo que permite a los usuarios de la organización de IMS puntuar datos sin necesidad de crear sus propios modelos. Esto se puede hacer mediante la interfaz de usuario Platform o la Sensei Machine Learning API.
Este tutorial le ayudará a:
  • Publicar un modelo como servicio.
  • Puntuación de datos mediante un servicio mediante la Galería Platform de servicios.
Para empezar, siga el tutorial de publicación de un modelo como API de servicio o el tutorial de interfaz de usuario.

Programar la formación y la puntuación de un modelo

Adobe Experience Platform Data Science Workspace le permite configurar las ejecuciones de puntuación y formación programadas en un servicio de aprendizaje automático. La automatización del proceso de calificación y capacitación puede ayudar a mantener y mejorar la eficacia de un servicio a través del tiempo, al mantenerse al día con los patrones dentro de los datos.
Este tutorial le ayudará a:
  • Configurar puntuación programada
  • Configurar la formación programada
Para empezar, siga la programación de un tutorial de la IU de modelo.

Creación de una canalización de funciones

Actualmente, las tuberías de funciones solo están disponibles mediante API.
Adobe Experience Platform le permite crear y crear tuberías de funciones personalizadas para realizar ingeniería de funciones a escala a través del Sensei Machine Learning Framework Runtime.
Esta guía le ayudará a:
  • Implemente clases de canalización de funciones.
  • Cree un motor de canalización de funciones mediante la API.
Para obtener más información, visite el tutorial para crear una canalización de funciones.

Generar una Real-Time Machine Learning aplicación (alfa)

Una combinación de computación optimizada tanto en el concentrador como en el concentrador reduce Edge drásticamente la latencia que tradicionalmente se dedica a generar experiencias hiperpersonalizadas que son relevantes y responden. Por lo tanto, Real-time Machine Learning proporciona inferencias con una latencia increíblemente baja para la toma de decisiones sincrónica. Algunos ejemplos son el procesamiento de contenido personalizado de una página web, la aparición de una oferta y los descuentos para reducir la producción y aumentar las conversiones en una tienda web.
Esta guía le ayudará a:
  • Entiendan la Real-time Machine Learning arquitectura.
  • Comprender el Real-time Machine Learning flujo de trabajo.
  • Comprender la funcionalidad actual de Real-time Machine Learning.
  • Proporcione los siguientes pasos para crear los suyos propios Real-time Machine Learning model.
Para obtener más información, visite la información general de aprendizaje automático en tiempo real.