Configuração de armazenamentos de nós e armazenamentos de dados no AEM 6 configuring-node-stores-and-data-stores-in-aem

Introdução introduction

No Adobe Experience Manager (AEM), os dados binários podem ser armazenados independentemente dos nós de conteúdo. Os dados binários são armazenados em um armazenamento de dados, enquanto os nós de conteúdo são armazenados em um armazenamento de nós.

Os armazenamentos de dados e os armazenamentos de nó podem ser configurados usando a configuração OSGi. Cada configuração OSGi é referenciada usando um identificador persistente (PID).

Etapas de configuração configuration-steps

Para configurar o armazenamento de nós e o armazenamento de dados, execute estas etapas:

  1. Copie o arquivo JAR AEM quickstart para seu diretório de instalação.

  2. Criar uma pasta crx-quickstart/install no diretório de instalação.

  3. Primeiro, configure o armazenamento de nós criando um arquivo de configuração com o nome da opção de armazenamento de nós que você deseja usar no crx-quickstart/install diretório.

    Por exemplo, o armazenamento de nós Documento (que é a base para a implementação AEM MongoMK) usa o arquivo org.apache.jackrabbit.oak.plugins.document.DocumentNodeStoreService.config.

  4. Edite o arquivo e defina suas opções de configuração.

  5. Crie um arquivo de configuração com o PID do armazenamento de dados que deseja usar. Edite o arquivo para definir as opções de configuração.

    note note
    NOTE
    Consulte Configurações do armazenamento de nós e Configurações do armazenamento de dados para obter opções de configuração.
  6. Inicie o AEM.

Configurações do armazenamento de nós node-store-configurations

CAUTION
As versões mais recentes do Oak empregam um novo esquema de nomenclatura e formato para os arquivos de configuração OSGi. O novo esquema de nomenclatura exige que o arquivo de configuração seja nomeado .config e o novo formato requer que os valores sejam digitados e é documentado aqui.
Se você atualizar de uma versão mais antiga do Oak, certifique-se de fazer um backup do crx-quickstart/installpasta primeiro. Após a atualização, restaure o conteúdo da pasta para a instalação atualizada e modifique a extensão dos arquivos de configuração em .cfg para .config.
Caso esteja lendo este artigo como preparação para uma atualização de um AEM 5.x instalação, certifique-se de consultar o atualização documentação primeiro.

Armazenamento de nós do segmento segment-node-store

O armazenamento de nós de segmentos é a base da implementação do Adobe TarMK no AEM6. Ele usa o org.apache.jackrabbit.oak.segment.SegmentNodeStoreService PID da configuração.

CAUTION
O PID para o armazenamento do nó de segmento mudou de org.apache.jackrabbit.oak.plugins.segment.SegmentNodeStoreService in previous versions do AEM 6 para org.apache.jackrabbit.oak.segment.SegmentNodeStoreService no AEM 6.3. Certifique-se de fazer os ajustes de configuração necessários para refletir essa alteração.

Você pode configurar as seguintes opções:

  • repository.home: Caminho para a página inicial do repositório em que os dados relacionados ao repositório são armazenados. Por padrão, os arquivos de segmento são armazenados no crx-quickstart/segmentstore diretório.

  • tarmk.size: tamanho máximo de um segmento em MB. O máximo padrão é 256 MB.

  • customBlobStore: valor booliano que indica que um armazenamento de dados personalizado é usado. O valor padrão é true para AEM 6.3 e versões posteriores. Antes do AEM 6.3, o padrão era falso.

Veja a seguir um exemplo org.apache.jackrabbit.oak.segment.SegmentNodeStoreService.config arquivo:

#Path to repo
repository.home="crx-quickstart/repository"

#Max segment size
tarmk.size=I"256"

#Custom data store
customBlobStore=B"true"

Armazenamento do nó do documento document-node-store

O armazenamento de nós de documentos é a base da implementação AEM MongoMK. Ele usa o org.apache.jackrabbit.oak.plugins.document.DocumentNodeStoreService* *PID. As seguintes opções de configuração estão disponíveis:

  • mongouri: A variável MongoURI necessário para se conectar ao Mongo Database. O padrão é mongodb://localhost:27017

  • db: Nome do banco de dados Mongo. O padrão é Oak . However, new AEM 6 installations use **aem-author** como o nome de banco de dados padrão.

  • cache: o tamanho do cache em MB. Isso é distribuído entre vários caches usados no DocumentNodeStore. O padrão é 256

  • changesSize: Tamanho em MB da coleção limitada usada no Mongo para armazenar a saída do diff em cache. O padrão é 256

  • customBlobStore: valor booliano que indica que um armazenamento de dados personalizado é usado. O padrão é false.

Veja a seguir um exemplo org.apache.jackrabbit.oak.plugins.document.DocumentNodeStoreService.config arquivo:

#Mongo server details
mongouri="mongodb://localhost:27017"

#Name of Mongo database to use
db="aem-author"

#Store binaries in custom BlobStore
customBlobStore=B"false"

Configurações do armazenamento de dados data-store-configurations

Ao lidar com um grande número de binários, é recomendável que um armazenamento de dados externo seja usado em vez dos armazenamentos de nó padrão para maximizar o desempenho.

Por exemplo, se o seu projeto exigir muitos ativos de mídia, armazená-los no Arquivo ou no Armazenamento de dados S3 torna mais rápido acessá-los do que armazená-los diretamente em um MongoDB.

O armazenamento de dados de arquivos oferece melhor desempenho do que o MongoDB, e as operações de backup e restauração do Mongo também são mais lentas com um grande número de ativos.

Os detalhes sobre os diferentes armazenamentos de dados e configurações são descritos abaixo.

NOTE
Para habilitar Repositórios de Dados personalizados, você deve se certificar de que customBlobStore está definida como true no respectivo arquivo de configuração do Node Store (armazenamento de nós de segmento ou armazenamento do nó do documento).

Armazenamento de dados do arquivo file-data-store

Trata-se da implementação do ArmazenamentoDeDadosDeArquivo presente em Jackrabbit 2. Ele fornece uma maneira de armazenar os dados binários como arquivos normais no sistema de arquivos. Ele usa o org.apache.jackrabbit.oak.plugins.blob.datastore.FileDataStore DTI.

Estas opções de configuração estão disponíveis:

  • repository.home: Caminho para o início do repositório no qual vários dados relacionados ao repositório são armazenados. Por padrão, os arquivos binários seriam armazenados em crx-quickstart/repository/datastore diretório

  • path: Caminho para o diretório no qual os arquivos serão armazenados. Se especificado, tem precedência sobre repository.home value

  • minRecordLength: o tamanho mínimo em bytes de um arquivo armazenado no armazenamento de dados. O conteúdo binário menor que esse valor seria incorporado.

NOTE
Ao usar um NAS para armazenar armazenamentos de dados de arquivos compartilhados, certifique-se de usar apenas dispositivos de alto desempenho para evitar problemas de desempenho.

Armazenamento de dados Amazon S3 amazon-s-data-store

O AEM pode ser configurado para armazenar dados no S3 (Simple Storage Service, serviço simples de armazenamento) da Amazon. Ele usa o org.apache.jackrabbit.oak.plugins.blob.datastore.S3DataStore.config PID da configuração.

NOTE
O AEM 6.5 é compatível com o armazenamento de dados no S3 da Amazon, no entanto, o suporte não se estende ao armazenamento de dados em outras plataformas, cujos fornecedores podem ter suas próprias implementações das APIs S3 da Amazon.

Para ativar a funcionalidade de armazenamento de dados do S3, um pacote de recursos contendo o Conector de armazenamento de dados do S3 deve ser baixado e instalado. Vá para a Repositório Adobe e baixe a versão mais recente da versão 1.10.x do pacote de recursos (por exemplo, com.adobe.granite.oak.s3connector-1.10.0.zip). Além disso, você deve baixar e instalar o service pack AEM mais recente conforme listado na Notas de versão do AEM 6.5 página.

NOTE
Ao usar AEM com TarMK, os binários serão armazenados por padrão no FileDataStore. Para usar o TarMK com o S3 Datastore, você deve iniciar o AEM usando o crx3tar-nofds runmode, por exemplo:
java -jar <aem-jar-file>.jar -r crx3tar-nofds

Após o download, você pode instalar e configurar o S3 Connector da seguinte maneira:

  1. Extraia o conteúdo do arquivo zip do pacote de recursos para uma pasta temporária.

  2. Vá para a pasta temporária e navegue até o seguinte local:

    code language-xml
    jcr_root/libs/system/install
    

    Copiar todo o conteúdo do local acima para <aem-install>/crx-quickstart/install.

  3. Se o AEM já estiver configurado para funcionar com o armazenamento Tar ou MongoDB, remova todos os arquivos de configuração existentes do <aem-install>/crx-quickstart/instalar antes de continuar. Os arquivos que devem ser removidos são:

    • For MongoMK: org.apache.jackrabbit.oak.plugins.document.DocumentNodeStoreService.config
    • For TarMK: org.apache.jackrabbit.oak.segment.SegmentNodeStoreService.config
  4. Retorne ao local temporário onde o pacote de recursos foi extraído e copie o conteúdo da seguinte pasta:

    • jcr_root/libs/system/config

    para

    • <aem-install>/crx-quickstart/install

    Copie apenas os arquivos de configuração necessários para sua configuração atual. Para um armazenamento de dados dedicado e uma configuração de armazenamento de dados compartilhado, copie o org.apache.jackrabbit.oak.plugins.blob.datastore.S3DataStore.config arquivo.

    note note
    NOTE
    Em uma configuração de cluster, execute as etapas acima em todos os nós do cluster, um por um. Além disso, certifique-se de usar as mesmas configurações de S3 para todos os nós.
  5. Edite o arquivo e adicione as opções de configuração exigidas pela configuração.

  6. Inicie o AEM.

Atualização para uma nova versão do S3 Connector 1.10.x upgrading-to-a-new-version-of-the-s-connector

Para atualizar para uma nova versão do conector S3 1.10.x (por exemplo, de 1.10.0 para 1.10.4), siga estas etapas:

  1. Pare a instância do AEM.

  2. Navegue até <aem-install>/crx-quickstart/install/15 na pasta de instalação do AEM e faça um backup de seu conteúdo.

  3. Após o backup, exclua a versão antiga do S3 Connector e suas dependências excluindo todos os arquivos jar no <aem-install>/crx-quickstart/install/15 pasta, por exemplo:

    • oak-blob-cloud-1.6.1.jar
    • aws-java-sdk-osgi-1.10.76.jar
    note note
    NOTE
    Os nomes de arquivo apresentados acima são usados apenas para fins ilustrativos.
  4. Baixe a versão mais recente do pacote de recursos 1.10.x do Repositório Adobe.

  5. Descompacte o conteúdo em uma pasta separada e navegue até jcr_root/libs/system/install/15.

  6. Copiar os arquivos jar para <aem-install>/crx-quickstart/install/15 na pasta de instalação do AEM.

  7. Inicie o AEM e verifique a funcionalidade do conector.

Você pode usar o arquivo de configuração com as opções detalhadas abaixo.

Opções de arquivo de configuração do S3 Connector s3-connector-configuration-file-options

NOTE
O conector S3 é compatível com autenticação de usuário do IAM e autenticação de função do IAM. Para usar a autenticação de função do IAM, omita o accessKey e secretKey valores do seu arquivo de configuração. O conector S3 assumirá como padrão o Função IAM atribuído à instância.
Chave
Descrição
Padrão
Obrigatório
accessKey
ID da Chave de Acesso para o usuário do IAM com acesso ao bucket.
Sim, quando as funções IAM não estiverem sendo usadas.
secretKey
Chave de acesso secreta para o usuário do IAM com acesso ao bucket.
Sim, quando as funções IAM não estiverem sendo usadas.
cacheSize
O tamanho (em bytes) do cache local.
64 GB
Não.
connectionTimeout
Defina o tempo de espera (em milissegundos) antes de atingir o tempo limite ao estabelecer uma conexão inicialmente.
10000
Não.
maxCachedBinarySize
Os binários com tamanho menor ou igual a esse valor (em bytes) são armazenados no cache de memória.
17408 (17 KB)
Não.
maxConnections
Defina o número máximo de conexões HTTP abertas permitidas.
50
Não.
maxErrorRetry
Defina o número máximo de tentativas de repetição para solicitações com falha (recuperáveis).
3
Não.
minRecordLength
O tamanho mínimo de um objeto (em bytes) que deve ser armazenado no armazenamento de dados.
16384
Não.
caminho
O caminho local do armazenamento de dados AEM.
crx-quickstart/repository/datastore
Não.
proxyHost
Defina o host do proxy opcional pelo qual o cliente se conecta.
Não.
proxyPort
Defina a porta de proxy opcional pela qual o cliente se conecta.
Não.
s3Bucket
Nome do bucket do S3.
Sim
s3EndPoint
Endpoint da API REST S3.
Não.
s3Region
Região onde o bucket está. Veja isto página para obter mais detalhes.
Região em que a instância do AWS está em execução.
Não.
socketTimeout
Defina o tempo de espera (em milissegundos) para que os dados sejam transferidos por uma conexão estabelecida e aberta antes que a conexão expire e seja fechada.
50000
Não.
stagingPurgeInterval
O intervalo (em segundos) para limpeza de uploads concluídos do cache de preparo.
300
Não.
stagingRetryInterval
O intervalo (em segundos) para repetir uploads com falha.
600
Não.
stagingSplitPercentage
A porcentagem de cacheSize a ser usado para preparar uploads assíncronos.
10
Não.
uploadThreads
O número de threads de upload usados para uploads assíncronos.
10
Não.
writeThreads
O número de threads simultâneos usados para gravação via Gerenciador de Transferência S3.
10
Não.

Armazenamento em cache do DataStore data-store-caching

NOTE
As implementações do DataStore de S3DataStore, CachingFileDataStore e AzureDataStore suporte ao cache do sistema de arquivos local. A variável CachingFileDataStore A implementação é útil quando o DataStore está em NFS (Network File System).

Ao atualizar de uma implementação de cache mais antiga (pré-Oak 1.6), há uma diferença na estrutura do diretório de cache do sistema de arquivos local. Na antiga estrutura de cache, os arquivos baixados e carregados eram colocados diretamente no caminho do cache. A nova estrutura separa os downloads e uploads e os armazena em dois diretórios chamados upload e download no caminho do cache. O processo de atualização deve ser contínuo e todos os uploads pendentes devem ser agendados para upload, e todos os arquivos baixados anteriormente no cache são colocados no cache na inicialização.

Também é possível atualizar o cache offline usando o datastorecacheupgrade comando do oak-run. Para obter detalhes sobre como executar o comando, verifique a readme para o módulo oak-run.

O cache tem um limite de tamanho e pode ser configurado usando o parâmetro cacheSize.

Downloads downloads

O cache local é verificado para o registro do arquivo/blob solicitado antes de acessá-lo do DataStore. Quando o cache excede o limite configurado (consulte a cacheSize parâmetro) ao adicionar um arquivo ao cache, alguns dos arquivos são removidos para recuperar espaço.

Upload assíncrono async-upload

O cache oferece suporte a uploads assíncronos para o DataStore. Os arquivos são preparados localmente, no cache (no sistema de arquivos) e um trabalho assíncrono começa a fazer upload do arquivo. O número de uploads assíncronos é limitado pelo tamanho do cache de preparo. O tamanho do cache de preparo é configurado usando o stagingSplitPercentage parâmetro. Esse parâmetro define o percentual do tamanho do cache a ser usado para o cache de preparo. Além disso, a porcentagem de cache disponível para downloads é calculada como (100 - stagingSplitPercentage) *cacheSize.

Os uploads assíncronos são multi-threaded e o número de threads é configurado usando o uploadThreads parâmetro.

Os arquivos são movidos para o cache de download principal depois que os uploads são concluídos. Quando o tamanho do cache de preparo excede seu limite, os arquivos são carregados de forma síncrona no DataStore até que os uploads assíncronos anteriores sejam concluídos e o espaço seja disponibilizado novamente no cache de preparo. Os arquivos carregados são removidos da área de preparo por um trabalho periódico cujo intervalo é configurado pelo stagingPurgeInterval parâmetro.

Uploads com falha (por exemplo, devido a uma interrupção da rede) são colocados em uma fila de tentativas e repetidos periodicamente. O intervalo de novas tentativas é configurado usando o stagingRetryInterval parameter.

Configuração da replicação sem binários com o Amazon S3 configuring-binaryless-replication-with-amazon-s

Para configurar a replicação sem binários com o S3, as seguintes etapas são necessárias:

  1. Instale as instâncias de criação e publicação e verifique se elas foram iniciadas corretamente.

  2. Vá para as configurações do agente de replicação, abrindo uma página para https://localhost:4502/etc/replication/agents.author/publish.html.

  3. Pressione a Editar botão na caixa Configurações seção.

  4. Altere o Serialização opção de tipo para Binário menor.

  5. Adicione o parâmetro " binaryless= true" no uri de transporte. Após a alteração, o uri deve ser semelhante ao seguinte:

    https://localhost:4503/bin/receive?sling:authRequestLogin=1&binaryless=true

  6. Reinicie todas as instâncias de autor e publicação para permitir que as alterações sejam aplicadas.

Criação de um cluster usando S3 e MongoDB creating-a-cluster-using-s-and-mongodb

  1. Descompacte o quickstart do CQ usando o seguinte comando:

    java -jar cq-quickstart.jar -unpack

  2. Depois que o AEM for desempacotado, crie uma pasta dentro do diretório de instalação crx-quickstart/instalar.

  3. Crie esses dois arquivos dentro do crx-quickstart pasta:

    • org.apache.jackrabbit.oak.plugins.document.DocumentNodeStoreService.config

    • org.apache.jackrabbit.oak.plugins.blob.datastore.S3DataStore.config

    Após a criação dos arquivos, adicione as opções de configuração conforme necessário.

  4. Instale os dois pacotes necessários para o armazenamento de dados S3, conforme explicado acima.

  5. Verifique se o MongoDB está instalado e se uma instância de mongod está em execução.

  6. Inicie o AEM com o seguinte comando:

    java -Xmx1024m -jar cq-quickstart.jar -r crx3,crx3mongo

  7. Repita as etapas de 1 a 4 para a segunda instância de AEM.

  8. Inicie a segunda instância do AEM.

Configurar um armazenamento de dados compartilhado configuring-a-shared-data-store

  1. Primeiro, crie o arquivo de configuração do armazenamento de dados em cada instância necessária para compartilhar o armazenamento de dados:

    • Se você estiver usando um FileDataStore, crie um arquivo chamado org.apache.jackrabbit.oak.plugins.blob.datastore.FileDataStore.config e coloque-o no <aem-install>/crx-quickstart/install pasta.

    • Se estiver usando S3 como armazenamento de dados, crie um arquivo chamado o rg.apache.jackrabbit.oak.plugins.blob.datastore.S3DataStore.config no <aem-install>/crx-quickstart/install como acima.

  2. Modifique os arquivos de configuração do armazenamento de dados em cada instância para que eles apontem para o mesmo armazenamento de dados. Para obter mais informações, consulte este artigo.

  3. Se a instância tiver sido clonada de um servidor existente, remova a variável clusterId da nova instância usando a ferramenta oak-run mais recente enquanto o repositório estiver offline. O comando que você deve executar é:

    code language-xml
    java -jar oak-run.jar resetclusterid < repository path | Mongo URI >
    
    note note
    NOTE
    Se um armazenamento de nó de Segmento estiver configurado, o caminho do repositório deverá ser especificado. Por padrão, o caminho é <aem-install-folder>/crx-quickstart/repository/segmentstore. Se um armazenamento de nó de documento estiver configurado, você poderá usar um URI da Cadeia de Conexão Mongo.
    note note
    NOTE
    A ferramenta Oak-run pode ser baixada neste local:
    https://mvnrepository.com/artifact/org.apache.jackrabbit/oak-run/
    Diferentes versões da ferramenta devem ser usadas, dependendo da versão do Oak usada na instalação do AEM. Verifique a lista de requisitos de versão abaixo antes de usar a ferramenta:
    code language-none
    * Para versões do Oak **1.2.x** usar o Oak-run **1.2.12 ou mais recente**
    * Para versões do Oak **mais recente que o anterior**, use a versão do Oak-run que corresponda ao núcleo Oak da instalação do AEM.
    
  4. Por último, valide a configuração. Para validar, procure um arquivo exclusivo adicionado ao armazenamento de dados por cada repositório que o está compartilhando. O formato dos arquivos é repository-[UUID], em que a UUID é um identificador exclusivo de cada repositório individual.

    Portanto, uma configuração adequada deve ter quantos arquivos exclusivos houver repositórios compartilhando o armazenamento de dados.

    Os arquivos são armazenados de forma diferente, dependendo do armazenamento de dados:

    • Para o FileDataStore os arquivos são criados no caminho raiz da pasta de armazenamento de dados.
    • Para o S3DataStore os arquivos são criados no bucket do S3 configurado no META pasta.

Armazenamento de dados Azure azure-data-store

O AEM pode ser configurado para armazenar dados no serviço de armazenamento Azure da Microsoft®. Ele usa o org.apache.jackrabbit.oak.plugins.blob.datastore.AzureDataStore.config PID da configuração.

Para habilitar a funcionalidade de armazenamento de dados do Azure, um pacote de recursos contendo o Azure Connector deve ser baixado e instalado. Vá para a Repositório Adobe e baixe a versão mais recente da versão 1.6.x do pacote de recursos (por exemplo, com.adobe.granite.oak.azureblobconnector-1.6.3.zip).

NOTE
Ao usar AEM com TarMK, os binários são armazenados por padrão no FileDataStore. Para usar o TarMK com o Azure DataStore, você deve iniciar o AEM usando o crx3tar-nofds runmode, por exemplo:
java -jar <aem-jar-file>.jar -r crx3tar-nofds

Depois de baixado, você pode instalar e configurar o conector do Azure da seguinte maneira:

  1. Extraia o conteúdo do arquivo zip do pacote de recursos para uma pasta temporária.

  2. Vá para a pasta temporária e copie o conteúdo de jcr_root/libs/system/install para o <aem-install>crx-quickstart/install pasta.

  3. Se o AEM já estiver configurado para funcionar com o armazenamento Tar ou MongoDB, remova todos os arquivos de configuração existentes do /crx-quickstart/install antes de continuar. Os arquivos que devem ser removidos são:

    Para MongoMK:

    org.apache.jackrabbit.oak.plugins.document.DocumentNodeStoreService.config

    Para TarMK:

    org.apache.jackrabbit.oak.segment.SegmentNodeStoreService.config

  4. Retorne ao local temporário onde o pacote de recursos foi extraído e copie o conteúdo de jcr_root/libs/system/config para o <aem-install>/crx-quickstart/install pasta.

  5. Edite o arquivo de configuração e adicione as opções de configuração exigidas pela configuração.

  6. Inicie o AEM.

Você pode usar o arquivo de configuração com as seguintes opções:

  • azureSas="": na versão 1.6.3 do conector, o suporte à Assinatura de Acesso Compartilhado (SAS) do Azure foi adicionado. Se houver credenciais SAS e de armazenamento no arquivo de configuração, a SAS terá prioridade. Para obter mais informações sobre a SAS, consulte documentação oficial. Verifique se o caractere '=' tem escape como '='.

  • azureBlobEndpoint="": O ponto de extremidade do Azure Blob. Por exemplo, https://<storage-account>.blob.core.windows.net.

  • accessKey="": O nome da conta de armazenamento. Para obter mais detalhes sobre as credenciais de autenticação do Microsoft® Azure, consulte a documentação oficial.

  • secretKey="": A chave de acesso de armazenamento. Verifique se o caractere '=' tem escape como '='.

  • container="": o nome do container do Microsoft® Azure blob Storage. O container é um agrupamento de um conjunto de blobs. Para obter detalhes adicionais, leia a documentação oficial.

  • maxConnections="": O número simultâneo de solicitações simultâneas por operação. O valor padrão é 1.

  • maxErrorRetry="": Número de tentativas por solicitação. O valor padrão é 3.

  • socketTimeout="": o intervalo de tempo limite, em milissegundos, usado para a solicitação. O valor padrão é 5 minutos.

Além das configurações acima, as seguintes configurações também podem ser definidas:

  • caminho: o caminho do armazenamento de dados. O padrão é <aem-install>/repository/datastore.
  • RecordLength: O tamanho mínimo de um objeto que deve ser armazenado no armazenamento de dados. O padrão é 16 KB.
  • maxCachedBinarySize: binários com tamanho menor ou igual a esse tamanho são armazenados no cache de memória. O tamanho é em bytes. O padrão é 17408 (17 KB).
  • cacheSize: o tamanho do cache. O valor é especificado em bytes. O padrão é 64 GB.
  • secret: deve ser usado somente se estiver usando replicação sem binários para configuração de armazenamento de dados compartilhado.
  • stagingSplitPercentage: a porcentagem do tamanho do cache configurada para ser usada para preparo de uploads assíncronos. O valor padrão é 10.
  • uploadThreads: o número de threads de upload usados para uploads assíncronos. O valor padrão é 10.
  • stagingPurgeInterval: o intervalo em segundos para limpeza de uploads concluídos do cache de preparo. O valor padrão é de 300 segundos (5 minutos).
  • stagingRetryInterval: o intervalo de repetição em segundos para uploads com falha. O valor padrão é de 600 segundos (10 minutos).
NOTE
Todas as configurações devem ser colocadas entre aspas, por exemplo:
accessKey="ASDASDERFAERAER"
secretKey="28932hfjlkwdo8fufsdfas\=\="

Coleta de lixo do armazenamento de dados data-store-garbage-collection

O processo de coleta de lixo do armazenamento de dados é usado para remover quaisquer arquivos não utilizados no armazenamento de dados, liberando assim espaço em disco valioso no processo.

Você pode executar a coleta de lixo do armazenamento de dados ao:

  1. Indo para o console JMX em https://<serveraddress:port>/system/console/jmx

  2. Pesquisando Gerenciamento de repositório. Depois de encontrar o MBean do Repository Manager, clique nele para exibir as opções disponíveis.

  3. Role até o final da página e clique no botão startDataStoreGC(boolean markOnly) link.

  4. Na caixa de diálogo a seguir, digite false para o markOnly e clique em Chamar:

    chlimage_1-9

    note note
    NOTE
    A variável markOnly parâmetro significa se a fase de varredura da coleta de lixo é executada ou não.

Coleta de lixo de armazenamento de dados para um armazenamento de dados compartilhado data-store-garbage-collection-for-a-shared-data-store

NOTE
Ao executar a coleta de lixo em um armazenamento de dados clusterizado ou compartilhado, a configuração (com Mongo ou Segment Tar) do log pode exibir avisos sobre a incapacidade de excluir determinadas IDs de blob. As IDs de blob excluídas em uma coleta de lixo anterior são referenciadas incorretamente novamente por outros nós de cluster ou compartilhados que não têm informações sobre as exclusões de ID. Como resultado, quando a coleta de lixo é executada, ele registra um aviso ao tentar excluir uma ID que já foi excluída na última execução. Esse comportamento não afeta o desempenho ou a funcionalidade.
NOTE
Se você estiver usando uma configuração de armazenamento de dados compartilhado e a coleta de lixo do armazenamento de dados estiver desativada, a execução da tarefa de limpeza do binário Lucene poderá aumentar repentinamente o espaço em disco usado. Considere desabilitar o BlobTracker em todas as instâncias de autor e publicação fazendo o seguinte:
  1. Pare a instância do AEM.
  2. Adicione o blobTrackSnapshotIntervalInSecs=L"0" parâmetro no crx-quickstart/install/org.apache.jackrabbit.oak.segment.SegmentNodeStoreService.config arquivo. Este parâmetro exige o Oak 1.12.0, 1.10.2 ou posterior.
  3. Reinicie a instância do AEM.

Com versões mais recentes do AEM, a coleta de lixo do armazenamento de dados também pode ser executada em armazenamentos de dados compartilhados por mais de um repositório. Para executar a coleta de lixo do armazenamento de dados em um armazenamento de dados compartilhado, siga estas etapas:

  1. Verifique se todas as tarefas de manutenção configuradas para a coleta de lixo do armazenamento de dados estão desabilitadas em todas as instâncias do repositório que compartilham o armazenamento de dados.

  2. Execute as etapas mencionadas em Coleta de lixo binário individualmente em all instâncias do repositório que compartilham o armazenamento de dados. No entanto, certifique-se de inserir true para o markOnly antes de clicar no botão Chamar:

    chlimage_1-10

  3. Depois de concluir o procedimento acima em todas as instâncias, execute a coleta de lixo do armazenamento de dados novamente em qualquer das instâncias:

    1. Vá para o console JMX e selecione o Mbean do gerenciador de repositório.
    2. Clique em Clique em startDataStoreGC(boolean markOnly) link.
    3. Na caixa de diálogo a seguir, digite false para o markOnly parâmetro novamente.

    Todos os arquivos encontrados são agrupados usando a fase de marcação usada antes e excluem o restante que não é usado do armazenamento de dados.

recommendation-more-help
19ffd973-7af2-44d0-84b5-d547b0dffee2