使用Adobe Experience Platform创作模型 Platform SDK

本教程提供了有关转换的信息 data_access_sdk_python 到新巨蟒 platform_sdk 在Python和R.本教程提供了有关以下操作的信息:

生成身份验证 build-authentication

调用时需要身份验证 Adobe Experience Platform,由API密钥、组织ID、用户令牌和服务令牌组成。

Python

如果您使用的是Jupyter Notebook,请使用以下代码构建 client_context

client_context = PLATFORM_SDK_CLIENT_CONTEXT

如果您未使用Jupyter Notebook或需要更改组织,请使用以下代码示例:

from platform_sdk.client_context import ClientContext
client_context = ClientContext(api_key={API_KEY},
              org_id={ORG_ID},
              user_token={USER_TOKEN},
              service_token={SERVICE_TOKEN})

R

如果您使用的是Jupyter Notebook,请使用以下代码构建 client_context

library(reticulate)
use_python("/usr/local/bin/ipython")
psdk <- import("platform_sdk")

py_run_file("../.ipython/profile_default/startup/platform_sdk_context.py")
client_context <- py$PLATFORM_SDK_CLIENT_CONTEXT

如果您未使用Jupyter Notebook或需要更改组织,请使用以下代码示例:

library(reticulate)
use_python("/usr/local/bin/ipython")
psdk <- import("platform_sdk")
client_context <- psdk$client_context$ClientContext(api_key={API_KEY},
              org_id={ORG_ID},
              user_token={USER_TOKEN},
              service_token={SERVICE_TOKEN})

数据基本读取 basic-reading-of-data

使用新的 Platform SDK中,最大读取大小为32 GB,最大读取时间为10分钟。

如果读取时间过长,可以尝试使用以下筛选选项之一:

NOTE
组织是在 client_context.

Python

要在Python中读取数据,请使用以下代码示例:

from platform_sdk.dataset_reader import DatasetReader
dataset_reader = DatasetReader(client_context, "{DATASET_ID}")
df = dataset_reader.limit(100).read()
df.head()

R

要在R中读取数据,请使用下面的代码示例:

DatasetReader <- psdk$dataset_reader$DatasetReader
dataset_reader <- DatasetReader(client_context, "{DATASET_ID}")
df <- dataset_reader$read()
df

按偏移和限制筛选 filter-by-offset-and-limit

由于不再支持按批次ID进行筛选,因此为了限定数据读取的范围,您需要使用 offsetlimit.

Python

df = dataset_reader.limit(100).offset(1).read()
df.head

R

df <- dataset_reader$limit(100L)$offset(1L)$read()
df

按日期筛选 filter-by-date

日期筛选的粒度现在由时间戳定义,而不是按天设置。

Python

df = dataset_reader.where(\
    dataset_reader['timestamp'].gt('2019-04-10 15:00:00').\
    And(dataset_reader['timestamp'].lt('2019-04-10 17:00:00'))\
).read()
df.head()

R

df2 <- dataset_reader$where(
    dataset_reader['timestamp']$gt('2018-12-10 15:00:00')$
    And(dataset_reader['timestamp']$lt('2019-04-10 17:00:00'))
)$read()
df2

新 Platform SDK支持以下操作:

操作
函数
等于 (=)
eq()
大于 (>)
gt()
大于或等于 (>=)
ge()
小于 (<)
lt()
小于或等于 (<=)
le()
和(&)
And()
或 (`
`)

按所选列筛选 filter-by-selected-columns

要进一步优化数据读取,您还可以按列名进行筛选。

Python

df = dataset_reader.select(['column-a','column-b']).read()

R

df <- dataset_reader$select(c('column-a','column-b'))$read()

获取排序的结果 get-sorted-results

收到的结果可以分别按目标数据集的指定列和它们的顺序(asc/desc)排序。

在以下示例中,数据流首先按“column-a”升序排序。 随后,“column-a”具有相同值的行将按“column-b”降序排序。

Python

df = dataset_reader.sort([('column-a', 'asc'), ('column-b', 'desc')])

R

df <- dataset_reader$sort(c(('column-a', 'asc'), ('column-b', 'desc')))$read()

基本的数据写入 basic-writing-of-data

NOTE
组织是在 client_context.

要使用Python和R编写数据,请使用以下示例之一:

Python

from platform_sdk.models import Dataset
from platform_sdk.dataset_writer import DatasetWriter

dataset = Dataset(client_context).get_by_id("{DATASET_ID}")
dataset_writer = DatasetWriter(client_context, dataset)
write_tracker = dataset_writer.write({PANDA_DATAFRAME}, file_format='json')

R

dataset <- psdk$models$Dataset(client_context)$get_by_id("{DATASET_ID}")
dataset_writer <- psdk$dataset_writer$DatasetWriter(client_context, dataset)
write_tracker <- dataset_writer$write({PANDA_DATAFRAME}, file_format='json')

后续步骤

配置后 platform_sdk 数据加载器,数据经过准备,然后分割到 trainval 数据集。 要了解数据准备和功能工程,请访问以下部分: 数据准备和特征工程 在关于使用创建方法的教程中 JupyterLab 笔记本。

recommendation-more-help
cc79fe26-64da-411e-a6b9-5b650f53e4e9