AEM 6에서 노드 저장소 및 데이터 저장소 구성 configuring-node-stores-and-data-stores-in-aem
소개 introduction
Adobe Experience Manager(AEM)에서 이진 데이터는 컨텐츠 노드와 독립적으로 저장할 수 있습니다. 이진 데이터는 데이터 저장소에 저장되는 반면, 컨텐츠 노드는 노드 저장소에 저장됩니다.
OSGi 구성을 사용하여 데이터 저장소와 노드 저장소를 모두 구성할 수 있습니다. 각 OSGi 구성은 영구 식별자(PID)를 사용하여 참조됩니다.
구성 단계 configuration-steps
노드 저장소와 데이터 저장소를 모두 구성하려면 다음 단계를 수행합니다.
-
AEM quickstart JAR 파일을 해당 설치 디렉토리에 복사합니다.
-
폴더 만들기
crx-quickstart/install
를 클릭합니다. -
먼저,
crx-quickstart/install
디렉토리.예를 들어 문서 노드 저장소(AEM MongoMK 구현의 기반이 됨)에서는 파일을 사용합니다
org.apache.jackrabbit.oak.plugins.document.DocumentNodeStoreService.config
. -
파일을 편집하고 구성 옵션을 설정합니다.
-
사용할 데이터 저장소의 PID를 사용하여 구성 파일을 만듭니다. 파일을 편집하여 구성 옵션을 설정합니다.
note note NOTE 자세한 내용은 노드 저장소 구성 및 데이터 저장소 구성 구성 옵션 을 참조하십시오. -
AEM을 시작합니다.
노드 저장소 구성 node-store-configurations
crx-quickstart/install
먼저 폴더를 찾습니다. 업그레이드 후 폴더 내용을 업그레이드된 설치로 복원하고 구성 파일의 확장자를 .cfg to .config.세그먼트 노드 저장소 segment-node-store
세그먼트 노드 저장소는 AEM6에서 Adobe의 TarMK 구현을 기반으로 합니다. 이 템플릿은 를 사용합니다 org.apache.jackrabbit.oak.segment.SegmentNodeStoreService
구성에 대한 PID입니다.
org.apache.jackrabbit.oak.plugins.segment.SegmentNodeStoreService in previous versions
AEM 6에서 org.apache.jackrabbit.oak.segment.SegmentNodeStoreService
AEM 6.3에서. 이 변경 사항을 반영하려면 필요한 구성 조정을 해야 합니다.다음 옵션을 구성할 수 있습니다.
-
repository.home
: 저장소 관련 데이터가 저장되는 저장소 홈의 경로입니다. 기본적으로 세그먼트 파일은crx-quickstart/segmentstore
디렉토리. -
tarmk.size
: 세그먼트의 최대 크기(MB)입니다. 기본값은 256MB입니다. -
customBlobStore
: 사용자 지정 데이터 저장소가 사용됨을 나타내는 부울 값입니다. AEM 6.3 이상 버전의 경우 기본값은 true입니다. AEM 6.3 이전에는 기본값이 false였습니다.
다음은 샘플입니다 org.apache.jackrabbit.oak.segment.SegmentNodeStoreService.config
파일:
#Path to repo
repository.home="crx-quickstart/repository"
#Max segment size
tarmk.size=I"256"
#Custom data store
customBlobStore=B"true"
문서 노드 저장소 document-node-store
문서 노드 저장소는 AEM MongoMK 구현의 기반입니다. 이 템플릿은 를 사용합니다 org.apache.jackrabbit.oak.plugins.document.DocumentNodeStoreService
PID. 다음 구성 옵션을 사용할 수 있습니다.
-
mongouri
: 다음 MongoURI Mongo 데이터베이스에 연결하는 데 필요합니다. 기본값은 입니다.mongodb://localhost:27017
-
db
: Mongo 데이터베이스의 이름입니다. 기본값은 입니다. Oak . 그러나 새 AEM 6 설치에서는 aem-author 를 기본 데이터베이스 이름으로 사용합니다. -
cache
: 캐시 크기(MB)입니다. DocumentNodeStore에서 사용되는 다양한 캐시 간에 분산됩니다. 기본값은256
입니다. -
changesSize
: 비교 출력을 캐싱하는 데 Mongo에서 사용된 캡처한 컬렉션 크기(MB)입니다. 기본값은256
입니다. -
customBlobStore
: 사용자 지정 데이터 저장소가 사용됨을 나타내는 부울 값입니다. 기본값은false
입니다.
다음은 샘플입니다 org.apache.jackrabbit.oak.plugins.document.DocumentNodeStoreService.config
파일:
#Mongo server details
mongouri="mongodb://localhost:27017"
#Name of Mongo database to use
db="aem-author"
#Store binaries in custom BlobStore
customBlobStore=B"false"
데이터 저장소 구성 data-store-configurations
많은 바이너리를 처리할 때 성능을 최대화하기 위해 기본 노드 저장소 대신 외부 데이터 저장소를 사용하는 것이 좋습니다.
예를 들어 프로젝트에 많은 미디어 자산이 필요한 경우 파일 또는 S3 데이터 저장소 아래에 저장하면 MongoDB에 직접 저장하는 것보다 더 빠르게 미디어 자산에 액세스할 수 있습니다.
파일 데이터 저장소는 MongoDB보다 성능이 우수하며 많은 수의 자산으로 Mongo 백업 및 복원 작업도 느려집니다.
다양한 데이터 저장소 및 구성에 대한 자세한 내용은 아래에 설명되어 있습니다.
customBlobStore
가 로 설정되어 있습니다. true
각 노드 저장소 구성 파일(세그먼트 노드 저장소 또는 문서 노드 저장소).파일 데이터 저장소 file-data-store
구현입니다 파일 데이터 저장소 Jackrabbit 2에. 이진 데이터를 파일 시스템에 일반 파일로 저장하는 방법을 제공합니다. 이 템플릿은 를 사용합니다 org.apache.jackrabbit.oak.plugins.blob.datastore.FileDataStore
PID.
다음 구성 옵션을 사용할 수 있습니다.
-
repository.home
: 다양한 저장소 관련 데이터가 저장되는 저장소 홈의 경로입니다. 기본적으로 이진 파일은crx-quickstart/repository/datastore
디렉토리. -
path
: 파일을 저장할 디렉토리의 경로입니다. 지정하면 우선합니다repository.home
값. -
minRecordLength
: 데이터 저장소에 저장된 파일의 최소 크기(바이트)입니다. 이 값보다 작은 이진 콘텐츠가 삽입됩니다.
Amazon S3 데이터 저장소 amazon-s-data-store
AEM은 Amazon의 Simple Storage Service (S3)에 데이터를 저장하도록 구성할 수 있습니다. 이 템플릿은 를 사용합니다 org.apache.jackrabbit.oak.plugins.blob.datastore.S3DataStore.config
구성에 대한 PID입니다.
S3 데이터 저장소 기능을 활성화하려면 S3 데이터 저장소 커넥터가 포함된 기능 팩을 다운로드하여 설치해야 합니다. 로 이동합니다. Adobe 저장소 및 기능 팩의 1.8.x 버전(예: com.adobe.granite.oak.s3connector-1.8.0.zip)에서 최신 버전을 다운로드합니다. 또한 AEM 6.4 서비스 팩 릴리스 노트 페이지.
FileDataStore
. S3 데이터 저장소에 TarMK를 사용하려면 crx3tar-nofds
런타임 모드(예:java -jar aem6.4.jar -r crx3tar-nofds
다운로드되면 다음과 같이 S3 커넥터를 설치하고 구성할 수 있습니다.
-
기능 팩 zip 파일의 컨텐츠를 임시 폴더로 추출합니다.
-
임시 폴더로 이동하여 다음 위치로 이동합니다.
code language-xml jcr_root/libs/system/install
위의 위치에서 로 모든 콘텐츠를 복사합니다.
<aem-install>/crx-quickstart/install.
-
AEM이 Tar 또는 MongoDB 스토리지에서 작동하도록 이미 구성된 경우,
aem-install/crx-quickstart/install
폴더를 계속 진행할 수 있습니다. 제거해야 하는 파일은 다음과 같습니다.For MongoMK: org.apache.jackrabbit.oak.plugins.document.DocumentNodeStoreService.config
For TarMK: org.apache.jackrabbit.oak.segment.SegmentNodeStoreService.config
-
기능 팩이 추출된 임시 위치로 돌아가서 다음 폴더의 내용을 복사합니다.
jcr_root/libs/system/config
끝
<aem-install>/crx-quickstart/install
현재 구성에 필요한 구성 파일만 복사해야 합니다. 전용 데이터 스토어와 공유 데이터 저장소 설정 모두에 대해 를 복사합니다.
org.apache.jackrabbit.oak.plugins.blob.datastore.S3DataStore.config
파일.note note NOTE 클러스터 설정에서 클러스터의 모든 노드에서 위 단계를 하나씩 수행합니다. 또한 모든 노드에 대해 동일한 S3 설정을 사용해야 합니다. -
파일을 편집하고 설정에 필요한 구성 옵션을 추가합니다.
-
AEM을 시작합니다.
1.8.x S3 Connector의 새 버전으로 업그레이드 upgrading-to-a-new-version-of-the-x-s-connector
새 버전의 1.8.x S3 커넥터로 업그레이드해야 하는 경우(예: 1.8.0에서 1.8.1로) 다음 단계를 따르십시오.
-
AEM 인스턴스를 중지합니다.
-
다음으로 이동
<aem-install>/crx-quickstart/install/15
AEM 설치 폴더에서 해당 컨텐츠를 백업합니다. -
백업 후,
<aem-install>/crx-quickstart/install/15
폴더(예:- oak-blob-cloud-1.6.1.jar
- aws-java-sdk-osgi-1.10.76.jar
note note NOTE 위에 표시된 파일 이름은 일러스트레이션 용도로만 사용되며 확정적이지 않습니다. -
에서 최신 버전의 1.8.x 기능 팩을 다운로드합니다 Adobe 저장소.
-
컨텐츠를 별도의 폴더로 압축 해제한 다음
jcr_root/libs/system/install/15
. -
jar 파일을에 복사합니다. <aem-install>/crx-quickstart/install/15 를 클릭합니다.
-
AEM을 시작하고 커넥터 기능을 확인합니다.
다음 옵션과 함께 구성 파일을 사용할 수 있습니다.
-
accessKey: AWS 액세스 키.
-
secretKey: AWS 암호 액세스 키. 참고: 이
accessKey
또는secretKey
이 지정되지 않은 경우 IAM 역할 는 인증에 사용됩니다. -
s3Bucket: 버킷 이름입니다.
-
s3지역: 버킷 영역입니다.
-
경로: 데이터 저장소의 경로입니다. 기본값은 입니다. <aem install="" folder="">/repository/datastore
-
minRecordLength: 데이터 저장소에 저장해야 하는 개체의 최소 크기입니다. 최소/기본값은 입니다. 16KB.
-
maxCachedBinarySize: 이 크기보다 작거나 같은 바이너리는 메모리 캐시에 저장됩니다. 크기는 바이트 단위입니다. 기본값은 17408 (17KB)입니다.
-
cacheSize: 캐시의 크기입니다. 값이 바이트 단위로 지정됩니다. 기본값은 입니다. 64GB.
-
비밀: 공유 데이터 저장소 설정에 이진 없는 복제를 사용하는 경우에만 사용합니다.
-
stagingSplitPercentage: 스테이징 비동기 업로드를 위해 사용하도록 구성된 캐시 크기의 백분율입니다. 기본값은 입니다. 10.
-
uploadThreads: 비동기 업로드에 사용되는 업로드 스레드 수입니다. 기본값은 입니다. 10.
-
stagingPurgeInterval: 스테이징 캐시에서 완료된 업로드를 제거하는 간격(초)입니다. 기본값은 입니다. 300년 초(5분).
-
stagingRetryInterval: 실패한 업로드에 대한 다시 시도 간격(초)입니다. 기본값은 입니다. 600년 초(10분).
버킷 영역 옵션 bucket-region-options
데이터 저장소 캐싱
S3DataStore
, CachingFileDataStore
및 AzureDataStore
로컬 파일 시스템 캐싱을 지원합니다. 다음 CachingFileDataStore
구현은 DataStore가 NFS(네트워크 파일 시스템)에 있을 때 유용합니다.이전 캐시 구현(Oak 1.6 이전)에서 업그레이드할 때 로컬 파일 시스템 캐시 디렉토리의 구조에 차이가 있습니다. 이전 캐시 구조에서 다운로드된 파일과 업로드된 파일이 모두 캐시 경로 아래에 직접 배치됩니다. 이 새로운 구조는 다운로드 및 업로드를 분리하고 두 개의 디렉토리에 저장합니다 upload
및 download
캐시 경로 아래에 있습니다. 업그레이드 프로세스는 매끄러워야 하며 보류 중인 모든 업로드를 업로드하도록 예약해야 하며 이전에 캐시에 다운로드된 모든 파일은 초기화 시 캐시에 저장됩니다.
또한 datastorecacheupgrade
oak-run 명령 명령 실행 방법에 대한 자세한 내용은 readme oak-run 모듈용.
캐시에 크기 제한이 있으며 cacheSize 매개 변수를 사용하여 구성할 수 있습니다.
다운로드
DataStore에서 액세스하기 전에 로컬 캐시가 요청된 파일/blob의 레코드를 확인합니다. 캐시가 구성된 제한을 초과하는 경우(참조: cacheSize
매개 변수)를 사용하여 파일을 캐시에 추가하면 일부 파일이 제거되어 공간을 재확보할 수 있습니다.
비동기 업로드
캐시는 DataStore에 대한 비동기 업로드를 지원합니다. 파일은 로컬에서 캐시(파일 시스템)에 스테이징되고 비동기 작업이 파일 업로드를 시작합니다. 비동기 업로드 수는 스테이징 캐시의 크기에 따라 제한됩니다. 스테이징 캐시의 크기는 stagingSplitPercentage
매개 변수. 이 매개 변수는 스테이징 캐시에 사용할 캐시 크기의 백분율을 정의합니다. 또한 다운로드에 사용할 수 있는 캐시 백분율은 (100 - stagingSplitPercentage
) *cacheSize
.
비동기 업로드는 다중 스레드이며 uploadThreads
매개 변수.
업로드가 완료되면 파일이 기본 다운로드 캐시로 이동합니다. 스테이징 캐시 크기가 한도를 초과하면 이전 비동기 업로드가 완료되고 스테이징 캐시에서 다시 공간을 사용할 수 있을 때까지 파일이 DataStore에 동기식으로 업로드됩니다. 업로드된 파일은 간격에 의해 구성된 주기적인 작업에 의해 스테이징 영역에서 제거됩니다 stagingPurgeInterval
매개 변수.
실패한 업로드(예: 네트워크 중단으로 인해)는 다시 시도 큐에 올라가 주기적으로 다시 시도됩니다. 다시 시도 간격은 stagingRetryInterval parameter
.
Amazon S3를 사용하여 바이너리 없는 복제 구성 configuring-binaryless-replication-with-amazon-s
S3를 사용하여 바인더리스 복제를 구성하려면 다음 단계를 수행해야 합니다.
-
작성자 및 게시 인스턴스를 설치하고 제대로 시작되었는지 확인합니다.
-
페이지를 열어 복제 에이전트 설정으로 이동합니다. http://localhost:4502/etc/replication/agents.author/publish.html.
-
누르기 편집 단추 설정 섹션을 참조하십시오.
-
변경 직렬화 옵션 입력 바이너리 없음.
-
매개 변수 "
binaryless
=true
"(전송 uri에서)를 참조하십시오. 변경 후 uri는 다음과 유사해야 합니다.http://localhost:4503/bin/receive?sling:authRequestLogin=1&binaryless=true
-
모든 작성자 및 게시 인스턴스를 다시 시작하여 변경 사항을 적용합니다.
S3 및 MongoDB를 사용하여 클러스터 만들기 creating-a-cluster-using-s-and-mongodb
-
다음 명령을 사용하여 CQ 빠른 시작을 압축 해제합니다.
java -jar cq-quickstart.jar -unpack
-
AEM의 압축을 푼 후에 설치 디렉토리 내에 폴더를 만듭니다 crx-quickstart/설치.
-
다음 두 파일을
crx-quickstart
폴더:- org.apache.jackrabbit.oak.plugins.document.DocumentNodeStoreService.config
- org.apache.jackrabbit.oak.plugins.blob.datastore.S3DataStore.config
파일을 만든 후 필요에 따라 구성 옵션을 추가합니다.
-
위에 설명된 대로 S3 데이터 저장소에 필요한 두 개의 번들을 설치합니다.
-
MongoDB가 설치되어 있고
mongod
실행 중입니다. -
다음 명령으로 AEM을 시작합니다.
java -Xmx1024m -XX:MaxPermSize=256M -jar cq-quickstart.jar -r crx3,crx3mongo
-
두 번째 AEM 인스턴스에 대해 1~4단계를 반복합니다.
-
두 번째 AEM 인스턴스를 시작합니다.
공유 데이터 저장소 구성 configuring-a-shared-data-store
-
먼저 데이터 저장소를 공유하는 데 필요한 각 인스턴스에 데이터 저장소 구성 파일을 만듭니다.
- 를 사용 중인 경우
FileDataStore
로 명명된 파일을 만듭니다.org.apache.jackrabbit.oak.plugins.blob.datastore.FileDataStore.config
그리고 여기에<aem-install>/crx-quickstart/install
폴더를 입력합니다. - S3를 데이터 저장소로 사용하는 경우 이름이 o인 파일을 만드십시오
rg.apache.jackrabbit.oak.plugins.blob.datastore.S3DataStore.config
에서<aem-install>/crx-quickstart/install
폴더를 위에 있는 것과 같이 만듭니다.
- 를 사용 중인 경우
-
동일한 데이터 저장소를 가리키도록 각 인스턴스에서 데이터 저장소 구성 파일을 수정합니다. 자세한 내용은 이 문서.
-
기존 서버에서 인스턴스가 복제된 경우
clusterId
저장소가 오프라인일 때 최신 oak-run 도구를 사용하여 새 인스턴스의 경우입니다. 실행해야 하는 명령은 다음과 같습니다.code language-xml java -jar oak-run.jar resetclusterid < repository path | Mongo URI >
note note NOTE 세그먼트 노드 저장소가 구성된 경우 저장소 경로를 지정해야 합니다. 기본적으로 경로는 입니다 <aem-install-folder>/crx-quickstart/repository/segmentstore.
문서 노드 저장소가 구성된 경우 Mongo 연결 문자열 URI.note note NOTE Oak-run 도구는 이 위치에서 다운로드할 수 있습니다. https://mvnrepository.com/artifact/org.apache.jackrabbit/oak-run/ AEM 설치에서 사용하는 Oak 버전에 따라 도구의 다른 버전을 사용해야 합니다. 도구를 사용하기 전에 아래 버전 요구 사항 목록을 확인하십시오. - Oak 버전용 1.2.x oak-run 사용 1.2.12 이상
- Oak 버전용 위 보다 최신 를 설정하는 경우 AEM 설치의 Oak 코어와 일치하는 Oak-run 버전을 사용합니다.
-
마지막으로 구성을 확인합니다. 이렇게 하려면 공유 중인 각 저장소에서 데이터 저장소에 추가된 고유한 파일을 찾아야 합니다. 파일의 형식은 다음과 같습니다
repository-[UUID]
여기서 UUID는 각 개별 리포지토리의 고유 식별자입니다.따라서 적절한 구성에는 데이터 저장소를 공유하는 리포지토리가 있는 것과 같은 고유한 파일이 있어야 합니다.
파일은 데이터 저장소에 따라 다르게 저장됩니다.
- 대상
FileDataStore
파일은 데이터 저장소 폴더의 루트 경로 아래에 만들어집니다. - 대상
S3DataStore
파일은 구성된 S3 버킷에서META
폴더를 입력합니다.
- 대상
Azure 데이터 저장소 azure-data-store
AEM은 Microsoft의 Azure 저장 공간 서비스에 데이터를 저장하도록 구성할 수 있습니다. 이 템플릿은 를 사용합니다 org.apache.jackrabbit.oak.plugins.blob.datastore.AzureDataStore.config
구성에 대한 PID입니다.
Azure 데이터 저장소 기능을 사용하려면 Azure 커넥터가 포함된 기능 팩을 다운로드하여 설치해야 합니다. 로 이동합니다. Adobe 저장소 및 기능 팩의 1.6.x 버전(예: com.adobe.granite.oak.azurebconnector-1.6.3.zip)에서 최신 버전을 다운로드합니다.
crx3tar-nofds
런타임 모드(예:java -jar aem6.4.jar -r crx3tar-nofds
다운로드한 후에는 다음과 같이 Azure 커넥터를 설치하고 구성할 수 있습니다.
-
기능 팩 zip 파일의 컨텐츠를 임시 폴더로 추출합니다.
-
임시 폴더로 이동하여
jcr_root/libs/system/install
변환 후<aem-install>crx-quickstart/install
폴더를 입력합니다. -
AEM이 Tar 또는 MongoDB 스토리지에서 작동하도록 이미 구성된 경우,
/crx-quickstart/install
폴더를 계속 진행할 수 있습니다. 제거해야 하는 파일은 다음과 같습니다.MongoMK의 경우:
org.apache.jackrabbit.oak.plugins.document.DocumentNodeStoreService.config
TarMK의 경우:
org.apache.jackrabbit.oak.segment.SegmentNodeStoreService.config
-
기능 팩이 추출된 임시 위치로 돌아가서 내용을 복사합니다
jcr_root/libs/system/config
변환 후<aem-install>/crx-quickstart/install
폴더를 입력합니다. -
구성 파일을 편집하고 설정에 필요한 구성 옵션을 추가합니다.
-
AEM을 시작합니다.
다음 옵션과 함께 구성 파일을 사용할 수 있습니다.
-
azureSas="": 커넥터 버전 1.6.3에서 Azure SAS(Shared Access Signature) 지원이 추가되었습니다. 구성 파일에 SAS와 스토리지 자격 증명이 모두 있으면 SAS가 우선합니다. SAS에 대한 자세한 내용은 공식 문서. '=' 문자가 '='처럼 이스케이프되는지 확인하십시오.
-
azureBlobEndpoint="": Azure Blob 끝점입니다. 예: https://<storage-account>.blob.core.windows.net
-
accessKey="": 저장소 계정 이름입니다. Microsoft Azure 인증 자격 증명에 대한 자세한 내용은 공식 문서.
-
secretKey="": 저장소 액세스 키. '=' 문자가 '='처럼 이스케이프되는지 확인하십시오.
-
container="": Microsoft Azure Blob 저장 공간 컨테이너 이름입니다. 컨테이너는 blob 집합의 그룹입니다. 자세한 내용은 공식 문서.
-
maxConnections="": 연산당 동시 요청 수. 기본값은 1입니다.
-
maxErrorRetry=": 요청당 다시 시도 횟수. 기본값은 3입니다.
-
socketTimeout="": 요청에 사용된 시간 제한 간격(밀리초)입니다. 기본값은 5분입니다.
위의 설정 외에 다음 설정도 구성할 수 있습니다.
- 경로: 데이터 저장소의 경로입니다. 기본값은 입니다.
<aem-install>/repository/datastore.
- 레코드 길이: 데이터 저장소에 저장해야 하는 개체의 최소 크기입니다. 기본값은 16KB입니다.
- maxCachedBinarySize: 이 크기보다 작거나 같은 바이너리는 메모리 캐시에 저장됩니다. 크기는 바이트 단위입니다. 기본값은 17408(17KB)입니다.
- cacheSize: 캐시의 크기입니다. 값이 바이트 단위로 지정됩니다. 기본값은 64GB입니다.
- 비밀: 공유 데이터 저장소 설정에 이진 없는 복제를 사용하는 경우에만 사용합니다.
- stagingSplitPercentage: 스테이징 비동기 업로드를 위해 사용하도록 구성된 캐시 크기의 백분율입니다. 기본값은 10입니다.
- uploadThreads: 비동기 업로드에 사용되는 업로드 스레드 수입니다. 기본값은 10입니다.
- stagingPurgeInterval: 스테이징 캐시에서 완료된 업로드를 제거하는 간격(초)입니다. 기본값은 300초(5분)입니다.
- stagingRetryInterval: 실패한 업로드에 대한 다시 시도 간격(초)입니다. 기본값은 600초(10분)입니다.
accessKey="ASDASDERFAERAER"
secretKey="28932hfjlkwdo8fufsdfas\=\="
데이터 저장소 가비지 수집 data-store-garbage-collection
데이터 저장소 가비지 수집 프로세스는 데이터 저장소에서 사용되지 않는 파일을 제거하는 데 사용되므로 프로세스에서 중요한 디스크 공간을 확보할 수 있습니다.
다음 방법으로 데이터 저장소 가비지 수집을 실행할 수 있습니다.
-
에 있는 JMX 콘솔로 이동합니다. https://<serveraddress:port>/system/console/jmx
-
검색 중 저장소 관리. 저장소 관리자 MBean을 찾으면 이 옵션을 클릭하여 사용 가능한 옵션을 표시합니다.
-
페이지 끝까지 스크롤한 다음 startDataStoreGC(부울 markOnly) 링크를 클릭합니다.
-
다음 대화 상자에서 다음을 입력합니다.
false
대상markOnly
매개 변수를 클릭한 다음 호출:note note NOTE 다음 markOnly
매개 변수는 가비지 수집의 제거 단계가 실행되는지 여부를 나타냅니다.
공유 데이터 저장소에 대한 데이터 저장소 가비지 수집 data-store-garbage-collection-for-a-shared-data-store
최신 버전의 AEM을 사용하면 두 개 이상의 저장소에서 공유한 데이터 저장소에서 데이터 저장소 가비지 수집을 실행할 수도 있습니다. 공유 데이터 저장소에서 데이터 저장소 가비지 수집을 실행하려면 다음 단계를 수행합니다.
-
데이터 저장소를 공유하는 모든 저장소 인스턴스에서 데이터 저장소 가비지 수집에 대해 구성된 모든 유지 관리 작업이 비활성화되어 있는지 확인합니다.
-
에 언급된 단계 실행 이진 가비지 컬렉션 개별적으로 모두 저장소 인스턴스는 데이터 저장소를 공유합니다. 하지만 반드시 을 입력해야 합니다
true
대상markOnly
매개 변수를 사용하여 호출 단추를 클릭하십시오. -
모든 인스턴스에서 위의 절차를 완료한 후 데이터 저장소 가비지 수집을 다시 실행하십시오. 임의 인스턴스 수:
- JMX 콘솔로 이동하여 저장소 관리자 Mbean을 선택합니다.
- 을(를) 클릭합니다. startDataStoreGC(boolean markOnly)를 클릭합니다. 링크를 클릭합니다.
- 다음 대화 상자에서 다음을 입력합니다.
false
대상markOnly
매개 변수를 다시 사용하십시오.
이렇게 하면 이전에 사용된 표시 단계를 사용하여 찾은 모든 파일이 수집되고 데이터 저장소에서 사용되지 않은 나머지 파일은 삭제됩니다.