Show Menu
화제×

AEM 6에서 노드 저장소 및 데이터 저장소 구성

소개

Adobe Experience Manager(AEM)에서 이진 데이터는 컨텐츠 노드와 독립적으로 저장할 수 있습니다. 이진 데이터는 데이터 저장소에 저장되는 반면 컨텐츠 노드는 노드 저장소에 저장됩니다.
OSGi 구성을 사용하여 데이터 스토어와 노드 스토어를 구성할 수 있습니다. 각 OSGi 구성은 PID(영구 식별자)를 사용하여 참조됩니다.

구성 단계

노드 스토어와 데이터 저장소를 모두 구성하려면 다음 단계를 수행하십시오.
  1. AEM 빠른 시작 JAR 파일을 해당 설치 디렉토리에 복사합니다.
  2. 설치 디렉토리 crx-quickstart/install 에 폴더를 만듭니다.
  3. 먼저, 디렉토리에서 사용할 노드 저장소 옵션 이름으로 구성 파일을 생성하여 노드 저장소를 crx-quickstart/install 구성합니다.
    예를 들어, 문서 노드 저장소(AEM MongoMK 구현의 기반)는 파일을 사용합니다 org.apache.jackrabbit.oak.plugins.document.DocumentNodeStoreService.config .
  4. 파일을 편집하고 구성 옵션을 설정합니다.
  5. 사용할 데이터 저장소의 PID를 사용하여 구성 파일을 만듭니다. 파일을 편집하여 구성 옵션을 설정합니다.
    구성 옵션은 노드 저장소 구성 데이터 저장소 구성을 참조하십시오.
  6. AEM 시작

노드 저장소 구성

최신 버전의 Oak에서는 OSGi 구성 파일에 새로운 이름 지정 체계와 형식을 사용합니다. 새 명명 체계를 사용하려면 구성 파일의 이름을 .config 로 지정하고 새 형식에 값을 입력해야 하며 여기에 문서화되어 있어야 합니다 .
이전 버전의 Oak에서 업그레이드하는 경우 먼저 crx-quickstart/install 폴더를 백업해야 합니다. 업그레이드 후 폴더 내용을 업그레이드된 설치로 복원하고 구성 파일의 확장명을 .cfg 에서 .config ​로 수정합니다.
AEM 5.x 설치에서 업그레이드할 준비를 위해 이 문서를 읽고 있는 경우 업그레이드 설명서를 먼저참조하십시오.

세그먼트 노드 저장소

세그먼트 노드 저장소는 AEM6에서 Adobe의 TarMK 구현의 기초가 됩니다. 구성에 org.apache.jackrabbit.oak.segment.SegmentNodeStoreService PID를 사용합니다.
세그먼트 노드 저장소에 대한 PID가 AEM 6 org.apache.jackrabbit.oak.plugins.segment.SegmentNodeStoreService in previous versions 에서 AEM 6.3 org.apache.jackrabbit.oak.segment.SegmentNodeStoreService 으로 변경되었습니다. 이 변경 사항을 반영하기 위해 필요한 구성 조정을 하십시오.
다음 옵션을 구성할 수 있습니다.
  • repository.home :저장소 관련 데이터가 저장되는 저장소 홈의 경로입니다. 기본적으로 세그먼트 파일은 crx-quickstart/segmentstore 디렉토리 아래에 저장됩니다.
  • tarmk.size :세그먼트의 최대 크기(MB)입니다. 기본 최대값은 256MB입니다.
  • customBlobStore :사용자 지정 데이터 저장소가 사용되었음을 나타내는 부울 값입니다. AEM 6.3 이상 버전의 경우 기본값은 true입니다. AEM 6.3 이전에는 기본값이 false였습니다.
다음은 샘플 org.apache.jackrabbit.oak.segment.SegmentNodeStoreService.config 파일입니다.
#Path to repo
repository.home="crx-quickstart/repository"

#Max segment size
tarmk.size=I"256"

#Custom data store
customBlobStore=B"true"

Document Node Store

문서 노드 저장소는 AEM MongoMK 구현의 기초가 됩니다. PID를 org.apache.jackrabbit.oak.plugins.document.DocumentNodeStoreService * 사용합니다. 다음 구성 옵션을 사용할 수 있습니다.
  • mongouri :Mongo 데이터베이스에 연결하는 데 필요한 MongoURI. 기본값은 입니다. mongodb://localhost:27017
  • db :Mongo 데이터베이스의 이름입니다. 기본값은 Oak . However, new AEM 6 installations use **aem-author** 입니다.
  • cache :캐시 크기(MB)입니다. DocumentNodeStore에서 사용되는 다양한 캐시 간에 배포됩니다. 기본값은 입니다. 256
  • changesSize :비교 출력을 캐싱하는 데 Mongo에 사용된 제한적 컬렉션의 크기(MB)입니다. 기본값은 입니다. 256
  • customBlobStore :사용자 지정 데이터 저장소가 사용됨을 나타내는 부울 값입니다. The default is false .
다음은 샘플 org.apache.jackrabbit.oak.plugins.document.DocumentNodeStoreService.config 파일입니다.
#Mongo server details
mongouri="mongodb://localhost:27017"

#Name of Mongo database to use
db="aem-author"

#Store binaries in custom BlobStore
customBlobStore=B"false"

데이터 저장소 구성

많은 바이너리를 처리할 때 성능을 최대화하기 위해 기본 노드 저장소 대신 외부 데이터 저장소를 사용하는 것이 좋습니다.
예를 들어 프로젝트에 많은 미디어 에셋이 필요한 경우 파일 또는 S3 데이터 저장소 아래에 저장하면 MongoDB에 직접 저장하는 것보다 더 빠르게 액세스할 수 있습니다.
File Data Store는 MongoDB보다 더 나은 성능을 제공하며 Mongo 백업 및 복원 작업은 많은 수의 에셋으로 인해 느립니다.
다양한 데이터 저장소 및 구성에 대한 세부 사항은 아래에 설명되어 있습니다.
사용자 지정 데이터 스토어를 활성화하려면 해당 노드 스토어 구성 파일( customBlobStore 세그먼트 노드 저장소 true 또는 문서 노드 저장소 ) 에 이 항목이 설정되어 있는지 확인해야 합니다 .

파일 데이터 저장소

Jackrabbit 2에 있는 FileDataStore 구현입니다. 바이너리 데이터를 파일 시스템에 일반 파일로 저장할 수 있습니다. PID를 org.apache.jackrabbit.oak.plugins.blob.datastore.FileDataStore 사용합니다.
다음 구성 옵션을 사용할 수 있습니다.
  • repository.home :다양한 저장소 관련 데이터가 저장되는 저장소 홈의 경로입니다. 기본적으로 바이너리 파일은 crx-quickstart/repository/datastore 디렉토리 아래에 저장됩니다
  • path :파일을 저장할 디렉토리 경로입니다. 지정한 경우 repository.home 값보다 우선합니다
  • minRecordLength :데이터 저장소에 저장된 파일의 최소 크기(바이트)입니다. 이 값보다 작은 바이너리 컨텐츠는 인라인 상태가 됩니다.
NAS를 사용하여 공유 파일 데이터 저장소를 저장할 때는 성능 문제를 방지하기 위해 고성능 디바이스만 사용해야 합니다.

Amazon S3 Data Store

AEM은 Amazon의 Simple Storage Service(S3)에 데이터를 저장하도록 구성할 수 있습니다. 구성에 org.apache.jackrabbit.oak.plugins.blob.datastore.S3DataStore.config PID를 사용합니다.
S3 데이터 저장소 기능을 활성화하려면 S3 데이터 저장소 커넥터를 포함하는 기능 팩을 다운로드하여 설치해야 합니다. Adobe 저장소로 이동하고 기능 팩의 1.10.x 버전(예: com.adobe.granite.oak.s3connector-1.10.0.zip)에서 최신 버전을 다운로드합니다. 또한 AEM 6.5 릴리스 노트 페이지에 나열된 최신 AEM 서비스 팩을 다운로드하여 설치해야 합니다.
AEM과 TarMK를 함께 사용하면 바이너리는 기본적으로 에 저장됩니다 FileDataStore . S3 데이터 저장소에 TarMK를 사용하려면 다음과 같이 crx3tar-nofds 실행 모드를 사용하여 AEM을 시작해야 합니다.
java -jar <aem-jar-file>.jar -r crx3tar-nofds

다운로드하면 다음과 같이 S3 커넥터를 설치하고 구성할 수 있습니다.
  1. 기능 팩 zip 파일의 내용을 임시 폴더에 추출합니다.
  2. 임시 폴더로 이동하여 다음 위치로 이동합니다.
    jcr_root/libs/system/install
    
    
    위의 위치에서 <aem-install>/crx-quickstart/install.
  3. AEM이 이미 Tar 또는 MongoDB 스토리지를 사용하도록 구성된 경우 계속하기 전에 ***<aem-install>***/ crx-quickstart / install 폴더에서 기존 구성 파일을 제거하십시오. 제거해야 하는 파일은 다음과 같습니다.
    • For MongoMK: org.apache.jackrabbit.oak.plugins.document.DocumentNodeStoreService.config
    • For TarMK: org.apache.jackrabbit.oak.segment.SegmentNodeStoreService.config
  4. 기능 팩을 추출한 임시 위치로 돌아가서 다음 폴더의 내용을 복사합니다.
    • jcr_root/libs/system/config
    • <aem-install>/crx-quickstart/install
    현재 구성에 필요한 구성 파일만 복사해야 합니다. 전용 데이터 저장소 및 공유 데이터 저장소 설정 모두에 대해 org.apache.jackrabbit.oak.plugins.blob.datastore.S3DataStore.config 파일이 복사됩니다.
    클러스터 설정에서 클러스터의 모든 노드에서 하나씩 위의 단계를 수행합니다. 또한 모든 노드에 대해 동일한 S3 설정을 사용해야 합니다.
  5. 파일을 편집하고 설정에 필요한 구성 옵션을 추가합니다.
  6. AEM 시작

1.10.x S3 Connector의 새 버전으로 업그레이드

1.10.x S3 커넥터의 새 버전(예: 1.10.0에서 1.10.4로)으로 업그레이드해야 하는 경우 다음 단계를 수행합니다.
  1. AEM 인스턴스를 중지합니다.
  2. AEM 설치 폴더 <aem-install>/crx-quickstart/install/15 로 이동하여 콘텐트를 백업합니다.
  3. 백업 후 폴더의 모든 jar 파일을 삭제하여 S3 Connector의 이전 버전 및 해당 종속성을 삭제합니다. 예: <aem-install>/crx-quickstart/install/15
    • oak-blob-cloud-1.6.1.jar
    • aws-java-sdk-osgi-1.10.76.jar
    위에 표시된 파일 이름은 일러스트레이션 용도로만 사용됩니다.
  4. Adobe 저장소에서 최신 버전의 1.8.x 기능 팩을 다운로드합니다 .
  5. 컨텐츠를 별도의 폴더에 압축 해제한 다음 로 이동합니다 jcr_root/libs/system/install/15 .
  6. AEM 설치 폴더의 <aem-install> /crx-quickstart/install/15에 jar 파일을 복사합니다.
  7. AEM을 시작하고 커넥터 기능을 확인합니다.
다음 옵션과 함께 구성 파일을 사용할 수 있습니다.
  • accessKey:AWS 액세스 키
  • secretKey:AWS 비밀 액세스 키 참고: 또는 IAM 역할을 인증에 사용할 수 있습니다. IAM 역할을 사용하는 경우 더 이상 and를 지정할 필요가 accessKey 없습니다 secretKey .
  • s3Bucket:버킷 이름
  • s3Region:버킷 영역입니다.
  • 경로:데이터 저장소의 경로입니다. 기본값은 <AEM install folder>/repository/datastore입니다.
  • minRecordLength:데이터 저장소에 저장해야 하는 개체의 최소 크기입니다. 최소/기본값은 16KB입니다.
  • maxCachedBinarySize:크기가 이 크기보다 작거나 같은 바이너리는 메모리 캐시에 저장됩니다. 크기가 바이트 단위입니다. 기본값은 17408 (17KB)입니다.
  • cacheSize:캐시의 크기입니다. 값이 바이트 단위로 지정됩니다. 기본값은 64GB입니다 .
  • secret:공유 데이터 저장소 설정에 대해 바이너리 복제를 사용하는 경우에만 사용됩니다.
  • stagingSplitPercentage:비동기식 업로드를 준비하는 데 사용하도록 구성된 캐시 크기 백분율입니다. The default value is 10 .
  • uploadThreads:비동기 업로드에 사용되는 업로드 스레드 수입니다. The default value is 10 .
  • stagingPurgeInterval:준비 캐시에서 완료된 업로드를 제거하는 간격(초)입니다. 기본값은 300초 (5분)입니다.
  • stagingRetryInterval:실패한 업로드에 대한 재시도 간격(초)입니다. 기본값은 600초 (10분)입니다.

버킷 영역 옵션

미국 표준 us-standard
미국 서부 us-west-2
미국 서부(북부 캘리포니아) us-west-1
EU(아일랜드) EU
아시아 태평양(싱가포르) ap-southeast-1
아시아 태평양(시드니) ap-southeast-2
아시아 태평양(도쿄) ap-northeast-1
남미(상파울루) sa-east-1
DataStore 캐싱
DataStore 구현 S3DataStore 과 로컬 파일 시스템 캐싱 CachingFileDataStore AzureDataStore 지원합니다. 이 CachingFileDataStore 구현은 DataStore가 NFS(네트워크 파일 시스템)에 있을 때 유용합니다.
이전 캐시 구현(Oak 1.6 이전)에서 업그레이드할 때 로컬 파일 시스템 캐시 디렉토리의 구조가 다릅니다. 이전 캐시 구조에서는 다운로드된 파일과 업로드된 파일이 모두 캐시 경로 바로 아래에 배치되었습니다. 새 구조는 다운로드 및 업로드를 분리하고 캐시 경로 upload download 아래의 두 디렉토리에 저장합니다. 업그레이드 프로세스는 완벽해야 하며 대기 중인 모든 업로드를 예약해야 하며 캐시에 이전에 다운로드한 파일은 초기화 시 캐시에 저장됩니다.
oak-run 명령을 사용하여 캐시를 오프라인 datastorecacheupgrade 으로 업그레이드할 수도 있습니다. 명령 실행 방법에 대한 자세한 내용은 Readme 에서 oak-run 모듈을 확인하십시오.
캐시는 크기 제한이 있으며 cacheSize 매개 변수를 사용하여 구성할 수 있습니다.
다운로드
로컬 캐시가 DataStore에서 액세스하기 전에 요청된 파일/blob의 레코드를 확인합니다. 캐시에 파일을 추가하는 동안 캐시가 구성된 한도(매개 변수 참조)를 초과하는 경우 일부 파일이 공간 cacheSize 을 다시 확보하기 위해 제거됩니다.
비동기 업로드
캐시는 DataStore에 대한 비동기 업로드를 지원합니다. 파일은 로컬에서, 캐시(파일 시스템)에서 스테이징되며 비동기 작업이 파일을 업로드하기 시작합니다. 비동기 업로드 수는 스테이징 캐시의 크기에 따라 제한됩니다. 스테이징 캐시의 크기는 매개 변수를 사용하여 stagingSplitPercentage 구성됩니다. 이 매개 변수는 스테이징 캐시에 사용할 캐시 크기의 백분율을 정의합니다. 또한 다운로드에 사용할 수 있는 캐시 백분율은 (100 - stagingSplitPercentage ) *로 계산됩니다 cacheSize .
비동기 업로드는 다중 스레드이며, 스레드 수는 매개 변수를 사용하여 uploadThreads 구성됩니다.
업로드가 완료된 후 파일이 기본 다운로드 캐시로 이동합니다. 스테이징 캐시 크기가 한도를 초과하면 이전 비동기 업로드가 완료되고 스테이징 캐시에서 다시 사용 가능한 공간이 될 때까지 파일은 DataStore에 동기적으로 업로드됩니다. 매개 변수에 의해 간격이 구성된 주기적 작업에 의해 업로드된 파일은 스테이징 영역에서 stagingPurgeInterval 제거됩니다.
실패한 업로드(예: 네트워크 중단 때문에)는 재시도 대기열에 삽입되고 정기적으로 재시도됩니다. 재시도 간격은 을 사용하여 구성됩니다 stagingRetryInterval parameter .

Amazon S3를 사용하여 바이너리 없는 복제 구성

S3로 바이너리(binaryless) 복제를 구성하려면 다음 단계가 필요합니다.
  1. 작성자 및 게시 인스턴스를 설치하고 제대로 시작되었는지 확인합니다.
  2. https://localhost:4502/etc/replication/agents.author/publish.html으로 페이지를 열어 복제 에이전트 설정으로 이동합니다 .
  3. 설정 섹션에서 편집 단추를 누릅니다.
  4. 직렬화 유형 옵션 을 이진 ​없음으로변경합니다.
  5. 전송 URI에 매개 변수 " binaryless = true "를 추가합니다. 변경 후 uri는 다음과 유사해야 합니다.
    https://localhost:4503/bin/receive?sling:authRequestLogin=1&binaryless=true
  6. 모든 작성자 및 게시 인스턴스를 다시 시작하여 변경 사항을 적용합니다.

S3 및 MongoDB를 사용하여 클러스터 만들기

  1. 다음 명령을 사용하여 CQ의 압축을 풀십시오.
    java -jar cq-quickstart.jar -unpack
  2. AEM의 압축을 푼 후 설치 디렉토리 crx-quickstart / install ​내에 폴더를 만듭니다.
  3. 다음 두 파일을 폴더 안에 crx-quickstart 만듭니다.
    • org.apache.jackrabbit.oak.plugins.document.DocumentNodeStoreService . config
    • org.apache.jackrabbit.oak.plugins.blob.datastore.S3DataStore . config
    파일을 만든 후 필요에 따라 구성 옵션을 추가합니다.
  4. 위에 설명된 대로 S3 데이터 저장소에 필요한 두 개의 번들을 설치합니다.
  5. MongoDB가 설치되어 있고 인스턴스가 실행 중인지 mongod 확인하십시오.
  6. 다음 명령으로 AEM을 시작합니다.
    java -Xmx1024m -XX:MaxPermSize=256M -jar cq-quickstart.jar -r crx3,crx3mongo
  7. 두 번째 AEM 인스턴스에 대해 1단계부터 4단계를 반복합니다.
  8. 두 번째 AEM 인스턴스를 시작합니다.

공유 데이터 저장소 구성

  1. 먼저 데이터 저장소를 공유하는 데 필요한 각 인스턴스에 데이터 저장소 구성 파일을 만듭니다.
    • 를 사용 중인 경우 FileDataStore 이름을 지정한 파일 org.apache.jackrabbit.oak.plugins.blob.datastore.FileDataStore.config 을 만들어 <aem-install>/crx-quickstart/install 폴더에 배치합니다.
    • S3을 데이터 저장소로 사용하는 경우 위와 같이 폴더 rg.apache.jackrabbit.oak.plugins.blob.datastore.S3DataStore.config <aem-install>/crx-quickstart/install o라는 파일을 만듭니다.
  2. 동일한 데이터 저장소를 가리키도록 각 인스턴스에서 데이터 저장소 구성 파일을 수정합니다. 자세한 내용은 이 문서를 참조하십시오 .
  3. 기존 서버에서 인스턴스가 복제된 경우 저장소가 오프라인 상태일 때 최신 Oak 실행 도구 clusterId 를 사용하여 새 인스턴스의 인스턴스를 제거해야 합니다. 실행해야 하는 명령은 다음과 같습니다.
    java -jar oak-run.jar resetclusterid < repository path | Mongo URI >
    
    
    세그먼트 노드 저장소가 구성된 경우 저장소 경로를 지정해야 합니다. 기본적으로 경로는 문서 노드 스토어가 구성된 <aem-install-folder>/crx-quickstart/repository/segmentstore. 경우 Mongo 연결 문자열 URI를 사용할 수 있습니다 .
    Oak 실행 도구는 다음 위치에서 다운로드할 수 있습니다.
    AEM 설치 시 사용하는 Oak 버전에 따라 다른 버전의 도구를 사용해야 합니다. 도구를 사용하기 전에 아래 버전 요구 사항 목록을 확인하십시오.
    • Oak 버전 1.2.x 의 경우 Oak-run 1.2.12 이상을 사용합니다.
    • Oak 버전 ​경우 AEM 설치의 Oak 코어와 일치하는 Oak 실행 버전을 사용하십시오.
  4. 마지막으로 구성을 확인합니다. 이를 위해서는 공유 중인 각 저장소에서 데이터 저장소에 추가된 고유한 파일을 찾아야 합니다. 파일의 형식은 repository-[UUID] UUID가 각 개별 저장소의 고유 식별자입니다.
    따라서 적절한 구성에는 데이터 저장소를 공유하는 리포지토리가 있을 때처럼 고유 파일이 있어야 합니다.
    파일은 데이터 저장소에 따라 다르게 저장됩니다.
    • for the files are created FileDataStore under the root path of the data store folder.
    • 이 경우 S3DataStore 파일은 폴더 아래에 구성된 S3 버킷에 META 만들어집니다.

Azure 데이터 저장소

AEM을 Microsoft의 Azure 저장소 서비스에 데이터를 저장하도록 구성할 수 있습니다. 구성에 org.apache.jackrabbit.oak.plugins.blob.datastore.AzureDataStore.config PID를 사용합니다.
Azure 데이터 저장소 기능을 사용하려면 Azure 커넥터가 포함된 기능 팩을 다운로드하여 설치해야 합니다. Adobe 저장소로 이동하고 기능 팩의 1.6.x 버전(예: com.adobe.granite.oak.azurebconnector-1.6.3.zip)에서 최신 버전을 다운로드합니다.
AEM과 TarMK를 함께 사용하면 바이너리는 기본적으로 FileDataStore에 저장됩니다. Azure DataStore에서 TarMK를 사용하려면 다음과 같이 crx3tar-nofds 실행 모드를 사용하여 AEM을 시작해야 합니다.
java -jar <aem-jar-file>.jar -r crx3tar-nofds

다운로드하면 다음과 같이 Azure 커넥터를 설치하고 구성할 수 있습니다.
  1. 기능 팩 zip 파일의 내용을 임시 폴더에 추출합니다.
  2. 임시 폴더로 이동한 다음 폴더의 내용 jcr_root/libs/system/install <aem-install>crx-quickstart/install 폴더에 복사합니다.
  3. AEM이 Tar 또는 MongoDB 저장소에서 작동하도록 이미 구성된 경우 계속하기 전에 기존 구성 파일을 폴더에서 /crx-quickstart/install 제거합니다. 제거해야 하는 파일은 다음과 같습니다.
    MongoMK의 경우:
    org.apache.jackrabbit.oak.plugins.document.DocumentNodeStoreService.config
    TarMK의 경우:
    org.apache.jackrabbit.oak.segment.SegmentNodeStoreService.config
  4. 기능 팩이 추출된 임시 위치로 돌아가서 해당 콘텐트를 폴더 jcr_root/libs/system/config <aem-install>/crx-quickstart/install 복사합니다.
  5. 구성 파일을 편집하고 설정에 필요한 구성 옵션을 추가합니다.
  6. AEM 시작
다음 옵션과 함께 구성 파일을 사용할 수 있습니다.
  • azureSas="":커넥터 버전 1.6.3에서 Azure SAS(Shared Access Signature) 지원이 추가되었습니다. 구성 파일에 SAS와 저장소 자격 증명이 모두 있는 경우 SAS에 우선 순위가 있습니다. SAS에 대한 자세한 내용은 공식 설명서를 참조하십시오 . '=' 문자가 '\='처럼 이스케이프되었는지 확인합니다.
  • azureBlobEndpoint="":Azure Blob 끝점입니다. 예: https://<storage-account>.blob.core.windows.net.
  • accessKey="":저장소 계정 이름입니다. Microsoft Azure 인증 자격 증명에 대한 자세한 내용은 공식 설명서를 참조하십시오 .
  • secretKey="":저장소 액세스 키. '=' 문자가 '\='처럼 이스케이프되었는지 확인합니다.
  • container="":Microsoft Azure Blob 저장소 컨테이너 이름입니다. 컨테이너는 한 세트의 그룹입니다. 자세한 내용은 공식 설명서를 참조하십시오 .
  • maxConnections="":작업당 동시 요청 수 기본값은 1입니다.
  • maxErrorRetry="":요청당 재시도 횟수. 기본값은 3입니다.
  • socketTimeout="":요청에 사용된 시간 초과 간격(밀리초)입니다. 기본값은 5분입니다.
위의 설정 외에 다음 설정도 구성할 수 있습니다.
  • 경로:데이터 저장소의 경로입니다. 기본값은 입니다. <aem-install>/repository/datastore.
  • RecordLength:데이터 저장소에 저장해야 하는 개체의 최소 크기입니다. 기본값은 16KB입니다.
  • maxCachedBinarySize:크기가 이 크기보다 작거나 같은 바이너리는 메모리 캐시에 저장됩니다. 크기가 바이트 단위입니다. 기본값은 17408(17KB)입니다.
  • cacheSize:캐시의 크기입니다. 값이 바이트 단위로 지정됩니다. 기본값은 64GB입니다.
  • secret:공유 데이터 저장소 설정에 대해 바이너리 복제를 사용하는 경우에만 사용됩니다.
  • stagingSplitPercentage:비동기식 업로드를 준비하는 데 사용하도록 구성된 캐시 크기 백분율입니다. 기본값은 10입니다.
  • uploadThreads:비동기 업로드에 사용되는 업로드 스레드 수입니다. 기본값은 10입니다.
  • stagingPurgeInterval:준비 캐시에서 완료된 업로드를 제거하는 간격(초)입니다. 기본값은 300초(5분)입니다.
  • stagingRetryInterval:실패한 업로드에 대한 재시도 간격(초)입니다. 기본값은 600초(10분)입니다.
모든 설정은 따옴표 사이에 넣어야 합니다. 예:
accessKey="ASDASDERFAERAER"
secretKey="28932hfjlkwdo8fufsdfas\=\="

Data store garbage collection

데이터 저장소 가비지 수집 프로세스는 데이터 저장소에서 사용되지 않는 파일을 제거하는 데 사용되므로 프로세스에서 중요한 디스크 공간을 확보합니다.
다음 방법을 통해 데이터 저장소 가비지 컬렉션을 실행할 수 있습니다.
  1. https://<serveraddress:port>/system/console/jmx에 있는 JMX 콘솔로 이동
  2. RepositoryManagement 검색. Repository Manager MBean을 찾으면 이 아이콘을 클릭하여 사용 가능한 옵션을 표시합니다.
  3. 페이지 끝으로 스크롤하고 startDataStoreGC(boolean markOnly) 링크를 클릭합니다 .
  4. 다음 대화 상자에서 매개 변수 false 를 입력한 다음 호출 markOnly 클릭합니다 .
    매개 변수 markOnly 는 가비지 수집의 제거 단계가 실행되는지 여부를 나타냅니다.

공유 데이터 저장소에 대한 데이터 저장소 가비지 컬렉션

Mongo 또는 Segment Tar를 사용하여 클러스터된 데이터 저장소 설정 또는 공유 데이터 저장소 설정에서 가비지 수집을 수행할 때 로그에 특정 blob ID를 삭제하지 못한지에 대한 경고가 표시될 수 있습니다. 이전 가비지 컬렉션에서 삭제된 Blob ID가 ID 삭제에 대한 정보가 없는 다른 클러스터 또는 공유 노드에서 잘못 참조되기 때문에 이 문제가 발생합니다. 따라서 가비지 수집이 수행되면 마지막 실행에서 이미 삭제된 ID를 삭제하려고 하면 경고가 기록됩니다. 이 동작은 성능 또는 기능에 영향을 주지 않습니다.
최신 버전의 AEM에서는 두 개 이상의 저장소에서 공유된 데이터 저장소에서 데이터 저장소 가비지 수집도 실행할 수 있습니다. 공유 데이터 저장소에서 데이터 저장소 가비지 컬렉션을 실행하려면 다음 단계를 수행하십시오.
  1. 데이터 저장소를 공유하는 모든 저장소 인스턴스에서 데이터 저장소 가비지 컬렉션에 대해 구성된 유지 관리 작업이 비활성화되어 있는지 확인합니다.
  2. 데이터 저장소를 공유하는 모든 저장소 인스턴스에서 이진 가비지 컬렉션 에 언급된 단계를 개별적으로 실행합니다. 그러나 호출 단추 true 를 클릭하기 전에 매개 markOnly 변수를 입력해야 합니다.
  3. 모든 인스턴스에 대해 위의 절차를 완료한 후 데이터 저장소 가비지 수집을 인스턴스 에서 다시 실행합니다.
    1. JMX 콘솔로 이동하여 저장소 관리자 Mbean을 선택합니다.
    2. Click startDataStoreGC( boolean markOnly) 링크를 클릭합니다.
    3. 다음 대화 상자에서 매개 변수 false 를 다시 markOnly 입력합니다.
    이렇게 하면 이전에 사용한 표시 단계를 사용하여 찾은 모든 파일이 수집되고 데이터 저장소에서 사용되지 않은 나머지 파일은 삭제됩니다.