Configuração de armazenamentos de nó e armazenamentos de dados no AEM 6 configuring-node-stores-and-data-stores-in-aem

CAUTION
AEM 6.4 chegou ao fim do suporte estendido e esta documentação não é mais atualizada. Para obter mais detalhes, consulte nossa períodos de assistência técnica. Encontre as versões compatíveis here.

Introdução introduction

No Adobe Experience Manager (AEM), os dados binários podem ser armazenados independentemente dos nós de conteúdo. Os dados binários são armazenados em um armazenamento de dados, enquanto os nós de conteúdo são armazenados em um armazenamento de nós.

Tanto os armazenamentos de dados quanto os armazenamentos de nó podem ser configurados usando a configuração OSGi. Cada configuração de OSGi é referenciada usando um identificador persistente (PID).

Etapas de configuração configuration-steps

Para configurar o armazenamento de nós e o armazenamento de dados, execute estas etapas:

  1. Copie o AEM arquivo JAR do início rápido para o diretório de instalação.

  2. Criar uma pasta crx-quickstart/install no diretório de instalação.

  3. Primeiro, configure o armazenamento do nó criando um arquivo de configuração com o nome da opção de armazenamento do nó que você deseja usar no crx-quickstart/install diretório.

    Por exemplo, o armazenamento do nó de documento (que é a base para AEM implementação do MongoMK) usa o arquivo org.apache.jackrabbit.oak.plugins.document.DocumentNodeStoreService.config.

  4. Edite o arquivo e defina as opções de configuração.

  5. Crie um arquivo de configuração com o PID do armazenamento de dados que deseja usar. Edite o arquivo para definir as opções de configuração.

    note note
    NOTE
    Consulte Configurações do armazenamento de nós e Configurações do armazenamento de dados para opções de configuração.
  6. Inicie o AEM.

Configurações do armazenamento de nós node-store-configurations

CAUTION
As versões mais recentes do Oak empregam um novo esquema de nomenclatura e formato para arquivos de configuração OSGi. O novo esquema de nomenclatura requer que o arquivo de configuração seja nomeado .config e o novo formato requer que os valores sejam digitados e seja documentado aqui.
Se você atualizar de uma versão mais antiga do Oak, certifique-se de fazer um backup do crx-quickstart/install primeiro. Após a atualização, restaure o conteúdo da pasta para a instalação atualizada e modifique a extensão dos arquivos de configuração de .cfg para .config.
Caso você esteja lendo este artigo como preparação para uma atualização de um AEM 5.x certifique-se de que consulte o atualizar documentação primeiro.

Armazenamento de nó do segmento segment-node-store

O armazenamento do segmento é a base da implementação do nó TarMK do Adobe AEM6. Ele usa a variável org.apache.jackrabbit.oak.segment.SegmentNodeStoreService PID para configuração.

CAUTION
O PID do armazenamento do nó do segmento foi alterado de org.apache.jackrabbit.oak.plugins.segment.SegmentNodeStoreService in previous versions AEM 6 a org.apache.jackrabbit.oak.segment.SegmentNodeStoreService no AEM 6.3. Certifique-se de fazer os ajustes de configuração necessários para refletir essa alteração.

Você pode configurar as seguintes opções:

  • repository.home: Caminho para a página inicial do repositório no qual os dados relacionados ao repositório são armazenados. Por padrão, os arquivos de segmento são armazenados no crx-quickstart/segmentstore diretório.

  • tarmk.size: Tamanho máximo de um segmento em MB. O máximo padrão é 256 MB.

  • customBlobStore: Valor booleano que indica que um armazenamento de dados personalizado é usado. O valor padrão é verdadeiro para AEM 6.3 e versões posteriores. Antes do AEM 6.3, o padrão era false.

Veja a seguir uma amostra org.apache.jackrabbit.oak.segment.SegmentNodeStoreService.config arquivo:

#Path to repo
repository.home="crx-quickstart/repository"

#Max segment size
tarmk.size=I"256"

#Custom data store
customBlobStore=B"true"

Loja de nós do documento document-node-store

O armazenamento do nó do documento é a base AEM implementação do MongoMK. Ele usa a variável org.apache.jackrabbit.oak.plugins.document.DocumentNodeStoreService PID. As seguintes opções de configuração estão disponíveis:

  • mongouri: O MongoURI necessário para se conectar ao Banco de Dados Mongo. O padrão é mongodb://localhost:27017

  • db: Nome do banco de dados Mongo. O padrão é Oak . Contudo, as novas instalações AEM 6 utilizam aem-author como o nome padrão do banco de dados.

  • cache: O tamanho do cache em MB. Isso é distribuído entre vários caches usados no DocumentNodeStore. O padrão é 256.

  • changesSize: Tamanho em MB de coleção limitada usada no Mongo para armazenar a saída do diff em cache. O padrão é 256.

  • customBlobStore: Valor booleano que indica que um armazenamento de dados personalizado será usado. O padrão é false.

Veja a seguir uma amostra org.apache.jackrabbit.oak.plugins.document.DocumentNodeStoreService.config arquivo:

#Mongo server details
mongouri="mongodb://localhost:27017"

#Name of Mongo database to use
db="aem-author"

#Store binaries in custom BlobStore
customBlobStore=B"false"

Configurações do armazenamento de dados data-store-configurations

Ao lidar com um grande número de binários, é recomendável usar um armazenamento de dados externo em vez dos armazenamentos de nó padrão para maximizar o desempenho.

Por exemplo, se o projeto exigir um grande número de ativos de mídia, armazená-los no Arquivo ou no Armazenamento de dados S3 tornará o acesso mais rápido do que armazená-los diretamente em um MongoDB.

O File Data Store fornece melhor desempenho do que o MongoDB, e as operações de backup e restauração do Mongo também são mais lentas com um grande número de ativos.

Os detalhes sobre os diferentes armazenamentos de dados e configurações estão descritos abaixo.

NOTE
Para ativar os Data Stores personalizados, é necessário verificar se customBlobStore está definida como true no respectivo arquivo de configuração do armazenamento de nós (armazenamento de nó de segmento ou armazenamento de nó do documento).

Armazenamento de dados do arquivo file-data-store

Esta é a implementação da FileDataStore presente em Jackrabbit 2. Ele fornece uma maneira de armazenar os dados binários como arquivos normais no sistema de arquivos. Ele usa a variável org.apache.jackrabbit.oak.plugins.blob.datastore.FileDataStore PID.

Essas opções de configuração estão disponíveis:

  • repository.home: Caminho para a página inicial do repositório no qual vários dados relacionados ao repositório são armazenados. Por padrão, os arquivos binários seriam armazenados em crx-quickstart/repository/datastore diretório.

  • path: Caminho para o diretório sob o qual os arquivos seriam armazenados. Se especificado, tem precedência sobre repository.home valor.

  • minRecordLength: O tamanho mínimo em bytes de um arquivo armazenado no armazenamento de dados. O conteúdo binário menor que esse valor seria incorporado.

NOTE
Ao usar um NAS para armazenar armazenamentos de dados de arquivos compartilhados, certifique-se de usar somente dispositivos de alto desempenho para evitar problemas de desempenho.

Armazenamento de dados do Amazon S3 amazon-s-data-store

AEM pode ser configurado para armazenar dados no Amazon Simple Storage Service (S3). Ele usa a variável org.apache.jackrabbit.oak.plugins.blob.datastore.S3DataStore.config PID para configuração.

Para habilitar a funcionalidade do armazenamento de dados S3, um pacote de recursos contendo o S3 Datastore Connector precisa ser baixado e instalado. Vá para o Repositório Adobe e baixe a versão mais recente das versões 1.8.x do pacote de recursos (por exemplo, com.adobe.granite.oak.s3connector-1.8.0.zip). Além disso, também é necessário baixar e instalar o service pack AEM mais recente, conforme listado na Notas de versão do AEM 6.4 Service Pack página.

NOTE
Ao usar o AEM 6.4 com TarMK, os binários serão armazenados por padrão no FileDataStore. Para usar o TarMK com o armazenamento de dados S3, é necessário começar a AEM usar o crx3tar-nofds runmode, por exemplo:
java -jar aem6.4.jar -r crx3tar-nofds

Após o download, você pode instalar e configurar o S3 Connector da seguinte maneira:

  1. Extraia o conteúdo do arquivo zip do pacote de recursos para uma pasta temporária.

  2. Vá para a pasta temporária e navegue até o seguinte local:

    code language-xml
    jcr_root/libs/system/install
    

    Copie todo o conteúdo do local acima para <aem-install>/crx-quickstart/install.

  3. Se AEM já estiver configurado para funcionar com o armazenamento Tar ou MongoDB, remova quaisquer arquivos de configuração existentes do aem-install/crx-quickstart/install pasta antes de continuar. Os arquivos que precisam ser removidos são:

    • For MongoMK: org.apache.jackrabbit.oak.plugins.document.DocumentNodeStoreService.config
    • For TarMK: org.apache.jackrabbit.oak.segment.SegmentNodeStoreService.config
  4. Retorne ao local temporário onde o pacote de recursos foi extraído e copie o conteúdo da seguinte pasta:

    • jcr_root/libs/system/config

    para

    • <aem-install>/crx-quickstart/install

    Certifique-se de copiar apenas os arquivos de configuração necessários para sua configuração atual. Para um armazenamento de dados dedicado e um armazenamento de dados compartilhado, copie a org.apache.jackrabbit.oak.plugins.blob.datastore.S3DataStore.config arquivo.

    note note
    NOTE
    Em uma configuração de cluster, execute as etapas acima em todos os nós do cluster, um por um. Além disso, certifique-se de usar as mesmas configurações S3 para todos os nós.
  5. Edite o arquivo e adicione as opções de configuração necessárias para sua configuração.

  6. Inicie o AEM.

Atualização para uma nova versão do S3 Connector 1.8.x upgrading-to-a-new-version-of-the-x-s-connector

Se precisar atualizar para uma nova versão do conector S3 1.8.x (por exemplo, de 1.8.0 para 1.8.1), siga estas etapas:

  1. Pare a instância de AEM.

  2. Navegar para <aem-install>/crx-quickstart/install/15 na pasta de instalação AEM e faça um backup de seu conteúdo.

  3. Após o backup, exclua a versão antiga do S3 Connector e suas dependências excluindo todos os arquivos jar no <aem-install>/crx-quickstart/install/15 pasta, por exemplo:

    • oak-blob-cloud-1.6.1.jar
    • aws-java-sdk-osgi-1.10.76.jar
    note note
    NOTE
    Os nomes de arquivo apresentados acima são usados apenas para fins ilustrativos e não são definitivos.
  4. Baixe a versão mais recente do pacote de recursos 1.8.x no Repositório Adobe.

  5. Descompacte o conteúdo em uma pasta separada e navegue até jcr_root/libs/system/install/15.

  6. Copie os arquivos jar para <aem-install>/crx-quickstart/install/15 na pasta de instalação do AEM.

  7. Inicie o AEM e verifique a funcionalidade do conector.

Você pode usar o arquivo de configuração com as seguintes opções:

  • accessKey: A chave de acesso do AWS.

  • secretKey: A chave de acesso secreta do AWS. Observação: Quando a variável accessKey ou secretKey não é especificado, então a variável Função do IAM é usada para autenticação.

  • s3Bucket: O nome do bucket.

  • s3Região: A região do balde.

  • caminho: O caminho do armazenamento de dados. O padrão é <aem install="" folder="">/repository/datastore

  • minRecordLength: O tamanho mínimo de um objeto que deve ser armazenado no armazenamento de dados. O mínimo/padrão é 16 KB

  • maxCachedBinarySize: Binários com tamanho menor ou igual a esse serão armazenados no cache de memória. O tamanho está em bytes. O padrão é 17408 ​(17 KB).

  • cacheSize: O tamanho do cache. O valor é especificado em bytes. O padrão é 64 GB.

  • segredo: A ser usado somente se estiver usando replicação sem binários para configuração compartilhada do armazenamento de dados.

  • stagingSplitPercentage: A porcentagem do tamanho do cache configurado para ser usado para fazer uploads assíncronos de preparo. O valor padrão é 10º.

  • uploadThreads: O número de threads de uploads usados para uploads assíncronos. O valor padrão é 10º.

  • stagingPurgeInterval: O intervalo em segundos para limpar os uploads concluídos do cache de preparo. O valor padrão é 300 segundos (5 minutos).

  • stagingRetryInterval: O intervalo de nova tentativa em segundos para uploads com falha. O valor padrão é 600 segundos (10 minutos).

Opções da região de bucket bucket-region-options

Padrão dos EUA
us-standard
Oeste dos EUA
us-west-2
Oeste dos EUA (norte da Califórnia)
us-west-1
UE (Irlanda)
EU
Pacífico Asiático (Cingapura)
ap-southeast-1
Pacífico Asiático (Sydney)
ap-southeast-2
Pacífico Asiático (Tóquio)
ap-northeast-1
América do Sul (São Paulo)
sa-east-1

Armazenamento em cache do DataStore

NOTE
As implementações do DataStore de S3DataStore, CachingFileDataStore e AzureDataStore suporte ao armazenamento em cache do sistema de arquivos local. O CachingFileDataStore A implementação é útil quando o DataStore está no NFS (Network File System).

Ao atualizar de uma implementação de cache mais antiga (pré-Oak 1.6), há uma diferença na estrutura do diretório de cache do sistema de arquivos local. Na estrutura de cache antiga, os arquivos baixados e carregados foram colocados diretamente no caminho do cache. A nova estrutura segrega os downloads e uploads e os armazena em dois diretórios nomeados upload e download em caminho do cache. O processo de atualização deve ser contínuo e todos os uploads pendentes devem ser agendados para upload, e todos os arquivos anteriormente baixados no cache serão colocados no cache na inicialização.

Você também pode atualizar o cache offline usando o datastorecacheupgrade comando de oak-run. Para obter detalhes sobre como executar o comando, marque a opção readme para o módulo oak-run.

O cache tem um limite de tamanho e pode ser configurado usando o parâmetro cacheSize .

Downloads

O cache local será verificado para o registro do arquivo/blob solicitado antes de acessá-lo do DataStore. Quando o cache exceder o limite configurado (consulte o cacheSize ao adicionar um arquivo ao cache, alguns dos arquivos serão removidos para recuperar espaço.

Upload assíncrono

O cache oferece suporte a uploads assíncronos para o DataStore. Os arquivos são preparados localmente, no cache (no sistema de arquivos) e um trabalho assíncrono começa a carregar o arquivo. O número de uploads assíncronos é limitado pelo tamanho do cache de preparo. O tamanho do cache de preparo é configurado usando o stagingSplitPercentage parâmetro. Esse parâmetro define a porcentagem do tamanho do cache a ser usada para o cache de preparo. Além disso, a porcentagem do cache disponível para downloads é calculada como (100 - stagingSplitPercentage) *cacheSize.

Os uploads assíncronos são de vários segmentos e o número de threads é configurado usando a variável uploadThreads parâmetro.

Os arquivos são movidos para o cache de download principal após a conclusão dos uploads. Quando o tamanho do cache de preparo excede seu limite, os arquivos são carregados de forma síncrona no DataStore até que os uploads assíncronos anteriores sejam concluídos e o espaço esteja novamente disponível no cache de preparo. Os arquivos carregados são removidos da área de preparo por um trabalho periódico cujo intervalo é configurado pela variável stagingPurgeInterval parâmetro.

Os uploads com falha (por exemplo, devido a uma interrupção de rede) são colocados em uma fila de tentativas e repetidos periodicamente. O intervalo de nova tentativa é configurado usando o stagingRetryInterval parameter.

Configuração da replicação sem binários com o Amazon S3 configuring-binaryless-replication-with-amazon-s

Para configurar a replicação sem binários com S3, as seguintes etapas são necessárias:

  1. Instale as instâncias de criação e publicação e verifique se elas foram iniciadas corretamente.

  2. Vá para as configurações do agente de replicação, abrindo uma página para http://localhost:4502/etc/replication/agents.author/publish.html.

  3. Pressione a tecla Editar no botão Configurações seção.

  4. Altere o Serialização digite a opção para Binário menos.

  5. Adicione o parâmetro " binaryless= true" no uri de transporte. Após a alteração, o uri deve ser semelhante ao seguinte:

    http://localhost:4503/bin/receive?sling:authRequestLogin=1&binaryless=true

  6. Reinicie todas as instâncias de autor e publicação para permitir que as alterações entrem em vigor.

Criação de um cluster usando S3 e MongoDB creating-a-cluster-using-s-and-mongodb

  1. Descompacte o início rápido do CQ usando o seguinte comando:

    java -jar cq-quickstart.jar -unpack

  2. Depois que AEM descompactado, crie uma pasta dentro do diretório de instalação crx-quickstart/instalar.

  3. Crie esses dois arquivos dentro da crx-quickstart pasta:

    • org.apache.jackrabbit.oak.plugins.document.DocumentNodeStoreService.config
    • org.apache.jackrabbit.oak.plugins.blob.datastore.S3DataStore.config

    Depois que os arquivos tiverem sido criados, adicione as opções de configuração conforme necessário.

  4. Instale os dois pacotes necessários para o armazenamento de dados S3, conforme explicado acima.

  5. Certifique-se de que o MongoDB esteja instalado e uma instância de mongod está em execução.

  6. Inicie o AEM com o seguinte comando:

    java -Xmx1024m -XX:MaxPermSize=256M -jar cq-quickstart.jar -r crx3,crx3mongo

  7. Repita as etapas de 1 a 4 para a segunda instância do AEM.

  8. Inicie a segunda instância do AEM.

Configurar um armazenamento de dados compartilhado configuring-a-shared-data-store

  1. Primeiro, crie o arquivo de configuração do armazenamento de dados em cada instância necessária para compartilhar o armazenamento de dados:

    • Se estiver usando um FileDataStore, crie um arquivo chamado org.apache.jackrabbit.oak.plugins.blob.datastore.FileDataStore.config e coloque-o no <aem-install>/crx-quickstart/install pasta.
    • Se estiver usando S3 como armazenamento de dados, crie um arquivo chamado de rg.apache.jackrabbit.oak.plugins.blob.datastore.S3DataStore.config no <aem-install>/crx-quickstart/install como acima.
  2. Modifique os arquivos de configuração do armazenamento de dados em cada instância para apontar para o mesmo armazenamento de dados. Para obter mais informações, consulte este artigo.

  3. Se a instância tiver sido clonada de um servidor existente, será necessário remover o clusterId da nova instância usando a ferramenta oak-run mais recente enquanto o repositório está offline. O comando que você precisa executar é:

    code language-xml
    java -jar oak-run.jar resetclusterid < repository path | Mongo URI >
    
    note note
    NOTE
    Se um armazenamento do nó Segmento estiver configurado, o caminho do repositório precisará ser especificado. Por padrão, o caminho é <aem-install-folder>/crx-quickstart/repository/segmentstore. Se um armazenamento de nó de documento estiver configurado, você poderá usar um URI da cadeia de conexão Mongo.
    note note
    NOTE
    A ferramenta Oak-run pode ser baixada deste local:
    https://mvnrepository.com/artifact/org.apache.jackrabbit/oak-run/
    Esteja ciente de que diferentes versões da ferramenta precisam ser usadas, dependendo da versão do Oak usada com sua instalação do AEM. Verifique a lista de requisitos de versão abaixo antes de usar a ferramenta:
    • Para versões do Oak 1.2.x usar o Oak-run 1.2.12 ou mais recente
    • Para versões do Oak mais recente do que o acima, use a versão do Oak-run que corresponde ao núcleo do Oak de sua instalação do AEM.
  4. Por fim, valide a configuração. Para fazer isso, é necessário procurar um arquivo exclusivo adicionado ao armazenamento de dados por cada repositório que o esteja compartilhando. O formato dos arquivos é repository-[UUID], em que a UUID é um identificador exclusivo de cada repositório individual.

    Portanto, uma configuração adequada deve ter tantos arquivos exclusivos quanto repositórios compartilhando o armazenamento de dados.

    Os arquivos são armazenados de forma diferente, dependendo do armazenamento de dados:

    • Para o FileDataStore os arquivos são criados no caminho raiz da pasta de armazenamento de dados.
    • Para o S3DataStore os arquivos são criados no bucket do S3 configurado no META pasta.

Armazenamento de dados Azure azure-data-store

AEM pode ser configurado para armazenar dados no serviço de armazenamento do Microsoft Azure. Ele usa a variável org.apache.jackrabbit.oak.plugins.blob.datastore.AzureDataStore.config PID para configuração.

Para habilitar a funcionalidade do armazenamento de dados do Azure, um pacote de recursos contendo o Conector do Azure precisa ser baixado e instalado. Vá para o Repositório Adobe e baixe a versão mais recente das versões 1.6.x do pacote de recursos (por exemplo, com.adobe.granite.oak.azureblobconnector-1.6.3.zip).

NOTE
Ao usar o AEM 6.4 com TarMK, os binários serão armazenados por padrão no FileDataStore. Para usar o TarMK com o DataStore do Azure, você precisa começar a usar o AEM crx3tar-nofds runmode, por exemplo:
java -jar aem6.4.jar -r crx3tar-nofds

Após o download, você pode instalar e configurar o conector do Azure da seguinte maneira:

  1. Extraia o conteúdo do arquivo zip do pacote de recursos para uma pasta temporária.

  2. Vá para a pasta temporária e copie o conteúdo de jcr_root/libs/system/install para <aem-install>crx-quickstart/install pasta.

  3. Se AEM já estiver configurado para funcionar com o armazenamento Tar ou MongoDB, remova quaisquer arquivos de configuração existentes do /crx-quickstart/install pasta antes de continuar. Os arquivos que precisam ser removidos são:

    ParaMongoMK:

    org.apache.jackrabbit.oak.plugins.document.DocumentNodeStoreService.config

    Para TarMK:

    org.apache.jackrabbit.oak.segment.SegmentNodeStoreService.config

  4. Retorne ao local temporário onde o pacote de recursos foi extraído e copie o conteúdo de jcr_root/libs/system/config para <aem-install>/crx-quickstart/install pasta.

  5. Edite o arquivo de configuração e adicione as opções de configuração necessárias para sua configuração.

  6. Inicie o AEM.

Você pode usar o arquivo de configuração com as seguintes opções:

  • azureSas="": Na versão 1.6.3 do conector, o suporte à Assinatura de acesso compartilhado do Azure (SAS) foi adicionado. Se houver credenciais SAS e de armazenamento no arquivo de configuração, a SAS terá prioridade. Para obter mais informações sobre SAS, consulte a documentação oficial. Certifique-se de que o caractere '=' seja evitado como '='.

  • azureBlobEndpoint="": O Ponto de Extremidade Azure Blob. Por exemplo, https://<storage-account>.blob.core.windows.net.

  • accessKey=""": O nome da conta de armazenamento. Para obter mais detalhes sobre as credenciais de autenticação do Microsoft Azure, consulte o documentação oficial.

  • secretKey=""": A chave de acesso de armazenamento. Certifique-se de que o caractere '=' seja evitado como '='.

  • container="": O nome do contêiner de armazenamento de blobs do Microsoft Azure. O container é um agrupamento de um conjunto de blobs. Para obter mais detalhes, leia a documentação oficial.

  • maxConnections=""": O número simultâneo de solicitações simultâneas por operação. O valor padrão é 1.

  • maxErrorRetry=""": Número de tentativas por solicitação. O valor padrão é 3.

  • socketTimeout="": O intervalo de tempo limite, em milissegundos, usado para a solicitação. O valor padrão é de 5 minutos.

Além das configurações acima, as seguintes configurações também podem ser definidas:

  • caminho: O caminho do armazenamento de dados. O padrão é <aem-install>/repository/datastore.
  • RecordLength: O tamanho mínimo de um objeto que deve ser armazenado no armazenamento de dados. O padrão é 16KB.
  • maxCachedBinarySize: Binários com tamanho menor ou igual a esse serão armazenados no cache de memória. O tamanho está em bytes. O padrão é 17408 (17 KB).
  • cacheSize: O tamanho do cache. O valor é especificado em bytes. O padrão é 64 GB.
  • segredo: A ser usado somente se estiver usando replicação sem binários para configuração compartilhada do armazenamento de dados.
  • stagingSplitPercentage: A porcentagem do tamanho do cache configurado para ser usado para fazer uploads assíncronos de preparo. O valor padrão é 10.
  • uploadThreads: O número de threads de uploads usados para uploads assíncronos. O valor padrão é 10.
  • stagingPurgeInterval: O intervalo em segundos para limpar os uploads concluídos do cache de preparo. O valor padrão é 300 segundos (5 minutos).
  • stagingRetryInterval: O intervalo de nova tentativa em segundos para uploads com falha. O valor padrão é de 600 segundos (10 minutos).
NOTE
Todas as configurações devem ser colocadas entre aspas, por exemplo:
accessKey="ASDASDERFAERAER"
secretKey="28932hfjlkwdo8fufsdfas\=\="

Coleta de lixo do armazenamento de dados data-store-garbage-collection

O processo de coleta de lixo do armazenamento de dados é usado para remover todos os arquivos não utilizados no armazenamento de dados, liberando assim espaço valioso em disco no processo.

Você pode executar a coleta de lixo do armazenamento de dados ao:

  1. Vá para o console JMX localizado em https://<serveraddress:port>/system/console/jmx

  2. Procurando por RepositoryManagement. Depois de encontrar o MBean do Gerenciador de Repositório, clique nele para exibir as opções disponíveis.

  3. Role até o final da página e clique no botão startDataStoreGC(boolean markOnly) link .

  4. Na caixa de diálogo a seguir, digite false para markOnly e clique em Invocar:

    chlimage_1-122

    note note
    NOTE
    O markOnly paramater significa se a fase de varredura da coleta de lixo será executada ou não.

Coleta de lixo do armazenamento de dados para um armazenamento de dados compartilhado data-store-garbage-collection-for-a-shared-data-store

NOTE
Ao executar a coleta de lixo em uma configuração de armazenamento de dados em cluster ou compartilhado (com Mongo ou Segment Tar), o log pode exibir avisos sobre a incapacidade de excluir determinadas IDs de blob. Isso ocorre porque as IDs de blob excluídas em uma coleção de lixo anterior são referenciadas incorretamente novamente por outro cluster ou nós compartilhados que não têm informações sobre as exclusões de ID. Como resultado, quando a coleta de lixo é executada, ela registra um aviso ao tentar excluir uma ID que já foi excluída na última execução. Esse comportamento não afeta o desempenho ou a funcionalidade.

Com versões mais recentes do AEM, a coleta de lixo do armazenamento de dados também pode ser executada em armazenamentos de dados compartilhados por mais de um repositório. Para poder executar a coleta de lixo do armazenamento de dados em um armazenamento de dados compartilhado, siga estas etapas:

  1. Certifique-se de que todas as tarefas de manutenção configuradas para a coleta de lixo do armazenamento de dados estejam desabilitadas em todas as instâncias do repositório que compartilham o armazenamento de dados.

  2. Execute as etapas mencionadas em Coleta de lixo binária individualmente all instâncias de repositório que compartilham o armazenamento de dados. No entanto, certifique-se de inserir true para markOnly antes de clicar no botão Invoke :

    chlimage_1-123

  3. Depois de concluir o procedimento acima em todas as instâncias, execute a coleta de lixo do armazenamento de dados novamente no any das instâncias:

    1. Vá para o console JMX e selecione o Repository Manager Mbean.
    2. Clique no botão Clique em startDataStoreGC(boolean markOnly) link .
    3. Na caixa de diálogo a seguir, digite false para markOnly novamente.

    Isso coletará todos os arquivos encontrados usando a fase de marca usada antes e excluirá o restante não utilizado do armazenamento de dados.

recommendation-more-help
6a71a83d-c2e0-4ce7-a6aa-899aa3885b56