Show Menu
화제×

소스 파일을 레서피로 패키지

이 자습서에서는 제공된 소매 판매 샘플 소스 파일을 보관 파일로 패키지하는 방법에 대한 지침을 제공합니다. 이 지침은 레서피 가져오기 작업 과정을 UI나 API를 사용하여 Adobe Experience Platform 데이터 과학 작업 공간에서 레서피를 만드는 데 사용할 수 있습니다.
이해할 개념:
  • 레서피 : 레시피는 Adobe의 모델 사양 용어로, 특정 기계 학습, 인공 지능 알고리즘 또는 숙련된 모델을 만들고 실행하는 데 필요한 알고리즘, 처리 논리, 구성 등을 나타내는 최상위 컨테이너로, 특정 비즈니스 문제를 해결하는 데 도움이 됩니다.
  • 소스 파일 : 레서피 논리를 포함하는 프로젝트의 개별 파일

레서피 제작

레서피 생성은 소스 파일을 패키징하여 아카이브 파일을 작성하는 것부터 시작합니다. 소스 파일은 특정 문제를 해결하는 데 사용되는 기계 학습 논리와 알고리즘을 정의하며 Python, R, PySpark 또는 Scala로 작성됩니다. 작성된 아카이브 파일은 Docker 이미지 형식을 취합니다. 일단 빌드되면 패키지된 아카이브 파일을 데이터 과학 작업 공간 으로 가져와 UI에서 레서피 또는 API를 사용합니다 .

Docker 기반의 모델 저작

개발자는 Docker 이미지를 사용하여 라이브러리 및 기타 종속성 등 필요한 모든 부분으로 애플리케이션을 패키지하여 하나의 패키지로 전달할 수 있습니다.
레서피 만들기 작업 과정 중에 제공된 자격 증명을 사용하여 빌드된 Docker 이미지가 Azure 컨테이너 레지스트리로 푸시됩니다.
Azure 컨테이너 레지스트리 자격 증명을 얻으려면 platform.adobe.com Adobe Experience Platform에 로그인합니다. 왼쪽 탐색 열에서 탐색합니다 Workflows . 다음 Import Recipe 을 선택하고 선택합니다 Launch . 자세한 내용은 아래 스크린샷을 참조하십시오.
구성 페이지가 열립니다. 적절한 레서피 이름 (예: "소매 영업 레서피")을 제공하고 선택적으로 설명 또는 설명서 URL을 제공합니다. 완료되면 을 클릭합니다 Next .
적절한 런타임 ​을 선택한 다음 유형 Classification 선택합니다 . Azure 컨테이너 레지스트리 자격 증명이 완료되면 생성됩니다.
*유형은​*레서피가 설계된 기계 학습 문제의 클래스로, 교육 실행 평가를 위한 교육 후에 사용됩니다.
  • Python 레시피의 경우 런타임을 Python 선택합니다.
  • R 레서피의 경우 런타임을 R 선택합니다.
  • PySpark 레서피의 경우 런타임을 PySpark 선택합니다. 객체 유형이 자동으로 채워집니다.
  • Scala 레시피의 경우 런타임을 Spark 선택합니다. 객체 유형이 자동으로 채워집니다.
Docker 호스트, 사용자 이름 ​및 암호 ​값을 확인합니다 . 이러한 이미지는 아래 나와 있는 워크플로우에서 Docker 이미지를 만들고 푸시하는 데 사용됩니다.
소스 URL은 아래 설명된 단계를 완료한 후 제공됩니다. 구성 파일은 다음 단계에 있는 다음 자습서에서 설명합니다 .

소스 파일 패키지

먼저 experience-platform-dsw-reference 경험 플랫폼 데이터 과학 작업 공간 참조 보관소에 있는 샘플 코드 베이스를 입수합니다.

Python Docker 이미지 제작

이렇게 하지 않은 경우 다음 명령을 사용하여 github 저장소를 로컬 시스템에 복제합니다.
git clone https://github.com/adobe/experience-platform-dsw-reference.git

Navigate to the directory experience-platform-dsw-reference/recipes/python/retail . 여기에서 스크립트 login.sh 를 찾아 Docker에 build.sh 로그인하고 Python Docker 이미지를 만드는 데 사용됩니다. Docker 자격 증명을 사용할 준비가 되었으면 다음 명령을 순서대로 입력합니다.
# for logging in to Docker
./login.sh
 
# for building Docker image
./build.sh

로그인 스크립트를 실행할 때는 Docker 호스트, 사용자 이름 및 암호를 제공해야 합니다. 빌드할 때 빌드에 대한 Docker 호스트 및 버전 태그를 제공해야 합니다.
빌드 스크립트가 완료되면 콘솔 출력에서 Docker 소스 파일 URL이 제공됩니다. 이 특정 예에서는 다음과 같이 표시됩니다.
# URL format: 
{DOCKER_HOST}/ml-retailsales-python:{VERSION_TAG}

이 URL을 복사하고 다음 단계로 이동합니다 .

R Docker 이미지 제작

이렇게 하지 않은 경우 다음 명령을 사용하여 github 저장소를 로컬 시스템에 복제합니다.
git clone https://github.com/adobe/experience-platform-dsw-reference.git

복제된 저장소 experience-platform-dsw-reference/recipes/R/Retail - GradientBoosting 내의 디렉토리로 이동합니다. 여기에서 Docker에 로그인하고 R Docker 이미지를 만드는 데 사용할 파일 login.sh 과 파일 build.sh 을 찾을 수 있습니다. Docker 자격 증명을 사용할 준비가 되었으면 다음 명령을 순서대로 입력합니다.
# for logging in to Docker
./login.sh
 
# for build Docker image
./build.sh

로그인 스크립트를 실행할 때는 Docker 호스트, 사용자 이름 및 암호를 제공해야 합니다. 빌드할 때 빌드에 대한 Docker 호스트 및 버전 태그를 제공해야 합니다.
빌드 스크립트가 완료되면 콘솔 출력에서 Docker 소스 파일 URL이 제공됩니다. 이 특정 예에서는 다음과 같이 표시됩니다.
# URL format: 
{DOCKER_HOST}/ml-retail-r:{VERSION_TAG}

이 URL을 복사하고 다음 단계로 이동합니다 .

PySpark Docker 이미지 제작

다음 명령을 사용하여 github 저장소를 로컬 시스템에 복제하여 시작합니다.
git clone https://github.com/adobe/experience-platform-dsw-reference.git

Navigate to the directory experience-platform-dsw-reference/recipes/pyspark/retail . 스크립트 login.sh build.sh 는 여기에 있으며 Docker에 로그인하고 Docker 이미지를 만드는 데 사용됩니다. Docker 자격 증명을 사용할 준비가 되었으면 다음 명령을 순서대로 입력합니다.
# for logging in to Docker
./login.sh
 
# for building Docker image
./build.sh

로그인 스크립트를 실행할 때는 Docker 호스트, 사용자 이름 및 암호를 제공해야 합니다. 빌드할 때 빌드에 대한 Docker 호스트 및 버전 태그를 제공해야 합니다.
빌드 스크립트가 완료되면 콘솔 출력에서 Docker 소스 파일 URL이 제공됩니다. 이 특정 예에서는 다음과 같이 표시됩니다.
# URL format: 
{DOCKER_HOST}/ml-retailsales-pyspark:{VERSION_TAG}

이 URL을 복사하고 다음 단계로 이동합니다 .

Scala Docker 이미지 만들기

터미널에서 다음 명령을 사용하여 github 저장소를 로컬 시스템에 복제하여 시작합니다.
git clone https://github.com/adobe/experience-platform-dsw-reference.git

그런 다음 스크립트와 스크립트를 experience-platform-dsw-reference/recipes/scala/retail 찾을 수 있는 디렉토리로 login.sh 이동합니다 build.sh . 이러한 스크립트는 Docker에 로그인하고 Docker 이미지를 만드는 데 사용됩니다. Docker 자격 증명을 준비했다면 터미널에 다음 명령을 입력합니다.
# for logging in to Docker
./login.sh
 
# for building Docker image
./build.sh

로그인 스크립트를 실행할 때 Docker 호스트, 사용자 이름 및 암호를 제공해야 합니다. 빌드할 때 빌드에 대한 Docker 호스트 및 버전 태그를 제공해야 합니다.
빌드 스크립트가 완료되면 콘솔 출력에서 Docker 소스 파일 URL이 제공됩니다. 이 특정 예에서는 다음과 같이 표시됩니다.
# URL format: 
{DOCKER_HOST}/ml-retailsales-spark:{VERSION_TAG}

이 URL을 복사하고 다음 단계로 이동합니다 .

다음 단계

이 자습서에서는 소스 파일을 Recipe로 가져오기 위한 사전 요구 단계인 Recipe로 패키징했습니다. 이제 Azure 컨테이너 레지스트리에서 해당 이미지 URL과 함께 Docker 이미지가 있어야 합니다. 이제 패키지된 레시피를 데이터 과학 작업 영역으로 가져오는 방법에 대한 자습서를 시작할 준비가 되었습니다. 시작하려면 아래 자습서 링크 중 하나를 선택하십시오.

이진 파일 빌드(더 이상 사용되지 않음)

바이너리는 새로운 PySpark 및 Scala 레시피에서 지원되지 않으며 향후 릴리스에서 제거될 예정입니다. PySpark 및 Scala에서 작업할 때 Docker 워크플로우를 따르십시오. 다음 워크플로우는 Spark 2.3 레시피에만 적용됩니다.

PySpark 이진 파일 작성(더 이상 사용되지 않음)

이렇게 하지 않은 경우 다음 명령을 사용하여 github 저장소를 로컬 시스템에 복제합니다.
git clone https://github.com/adobe/experience-platform-dsw-reference.git

로컬 시스템의 복제된 저장소로 이동하여 다음 명령을 실행하여 PySpark 레서피 가져오기에 필요한 .egg 파일을 작성합니다.
cd recipes/pyspark
./build.sh

.egg 파일은 dist 폴더에 생성됩니다.

Scala 이진 파일 빌드(더 이상 사용되지 않음)

아직 수행하지 않은 경우 다음 명령을 실행하여 Github 저장소를 로컬 시스템으로 복제합니다.
git clone https://github.com/adobe/experience-platform-dsw-reference.git

Scala 레시피를 가져오는 데 사용되는 .jar 객체를 작성하려면 복제된 저장소로 이동하고 아래 단계를 따르십시오.
cd recipes/scala/
./build.sh

종속성이 있는 생성된 .jar 아티팩트가 /target 디렉토리에 있습니다.