Skräpinsamling för datalager data-store-garbage-collection

CAUTION
AEM 6.4 har nått slutet på den utökade supporten och denna dokumentation är inte längre uppdaterad. Mer information finns i teknisk supportperiod. Hitta de versioner som stöds här.

När en konventionell WCM-resurs tas bort kan referensen till den underliggande datalagreposten tas bort från nodhierarkin, men själva datalagreposten finns kvar. Den här dataarkivposten utan referenser blir då"skräp" som inte behöver behållas. Om det finns ett antal skräpinlägg är det bra att ta bort dem för att bevara utrymme och optimera prestanda för säkerhetskopiering och filsystemsunderhåll.

För det mesta tenderar ett WCM-program att samla in information men inte ta bort information nästan lika ofta. Även om nya bilder läggs till, och till och med ersätter gamla versioner, behåller versionskontrollsystemet den gamla och kan återställas om det behövs. Därför lagras merparten av det innehåll som vi anser vara utökat i systemet permanent. Så vad är den typiska källan för"skräp" i databasen som vi kanske vill rensa?

AEM använder databasen som lagring för ett antal interna aktiviteter och hushållsaktiviteter:

  • Paket som byggts och laddats ned
  • Tillfälliga filer har skapats för publiceringsreplikering
  • Arbetsflödesnyttolaster
  • Resurser som skapats temporärt under DAM-återgivning

När något av dessa temporära objekt är stort nog för att kräva lagring i datalagret, och när objektet inte längre används, förblir själva datalagret som"skräp". I ett typiskt WCM-program för författare/publicering är den största källan till skräp av den här typen vanligtvis processen för publiceringsaktivering. När data ska replikeras till Publish, om de först samlas in i samlingar i ett effektivt dataformat som kallas"Durbo" och lagras i databasen under /var/replication/data. Datapaketen är ofta större än den kritiska storlekströskeln för datalagret och därför lagras de som datalagringsposter. När replikeringen är klar är noden i /var/replication/data tas bort, men dataarkivposten förblir"skräp".

En annan källa till återvinningsbart skräp är paket. Paketdata lagras, precis som allt annat, i databasen och därmed för paket som är större än 4 kB i datalagret. Under ett utvecklingsprojekt eller under en längre tid med ett system kan paket byggas och byggas om många gånger, och varje bygge resulterar i en ny datalagringspost, vilket gör den föregående byggens arkiv överbliven.

Hur fungerar skräpinsamlingen i datalagret? how-does-data-store-garbage-collection-work

Om databasen har konfigurerats med ett externt datalager, skräpinsamlingen i datalagret körs automatiskt som en del av veckounderhållet. Systemadministratören kan också köra skräpinsamling för datalager manuellt vid behov. I allmänhet rekommenderar vi att skräpinsamlingen för datalager utförs regelbundet, men att följande faktorer beaktas vid planering av skräpinsamlingar för datalager:

  • Skräpinsamlingar i datalagret tar tid och kan påverka prestanda, så de bör planeras i enlighet med detta.
  • Borttagning av skräpposter i datalager påverkar inte normala prestanda, vilket inte är en prestandaoptimering.
  • Om lagringsutnyttjande och relaterade faktorer som säkerhetskopieringstider inte är något problem kan skräpinsamlingen i datalagringen fördröjas.

Skräpinsamlaren för datalagret gör först en anteckning om den aktuella tidsstämpeln när processen börjar. Samlingen utförs sedan med hjälp av en algoritm för flerpassmärke/svepmönster.

I den första fasen utför skräpinsamlaren i datalagret en omfattande genomgång av allt databasinnehåll. För varje innehållsobjekt som har en referens till en datalagringspost, placerades filen i filsystemet och en metadatauppdatering utfördes - det ändrade attributet "last modified" eller MTIME ändrades. I det här läget blir filer som nås av den här fasen nyare än den inledande baslinjetidstämpeln.

I den andra fasen går skräpinsamlaren för datalagret igenom den fysiska katalogstrukturen i datalagret på ungefär samma sätt som en "sök". Den undersökte filens"senast ändrade" eller MTIME-attribut och fastställer följande:

  • Om MTIME är nyare än den ursprungliga baslinjetidstämpeln hittades filen i den första fasen, eller så är det en helt ny fil som lades till i databasen medan insamlingsprocessen pågick. I något av dessa fall ska registreringen anses vara aktiv och akten ska inte raderas.
  • Om MTIME är före den ursprungliga baslinjetidstämpeln är filen inte en aktivt refererad fil och den betraktas som ett borttagbart skräp.

Den här metoden fungerar bra för en enskild nod med ett privat datalager. Men datalagret kan delas, och om det är det innebär det att potentiellt aktiva live-referenser till datalagerposter från andra databaser inte kontrolleras och att aktiva refererade filer tas bort av misstag. Det är av största vikt att systemadministratören förstår datalagrets delade karaktär innan någon skräpinsamling planeras, och endast använder den enkla inbyggda skräpinsamlingsprocessen för datalager när det är känt att datalagret inte delas.

NOTE
När du utför skräpinsamling i ett klustrat eller delat datalager (med mongo- eller segmentmål) kan loggen visa varningar om att vissa blob-ID inte kan tas bort. Detta beror på att blob-ID:n som tagits bort i en tidigare skräpinsamling felaktigt refereras igen av andra kluster eller delade noder som inte har information om ID-borttagningar. När skräpinsamlingen utförs loggas därför en varning när den försöker ta bort ett ID som redan har tagits bort i den senaste körningen. Det här beteendet påverkar inte prestanda eller funktioner.

Kör skräpinsamling för datalager running-data-store-garbage-collection

Det finns tre sätt att köra skräpinsamling för datalager, beroende på vilket datalager som AEM körs på:

  1. Via Revision Cleanup - en skräpinsamlingsmekanism som vanligtvis används för rensning av nodarkiv.

  2. Via Skräpinsamling för datalager - en skräpinsamlingsmekanism som är specifik för externa datalager och som finns på kontrollpanelen för åtgärder.

  3. Via JMX Console.

Om tarMK används både som nodarkiv och datalager kan Revision Cleanup användas för skräpinsamling för både nodarkivet och datalagret. Om ett externt datalager har konfigurerats, till exempel ett filsystemsdatalager, måste skräpinsamlingen för datalagret aktiveras separat från Revision Cleanup. Skräpinsamlingen i datalagret kan aktiveras antingen via instrumentpanelen för åtgärder eller JMX-konsolen.

Tabellen nedan visar vilken typ av skräpinsamling för datalager som måste användas för alla datalager-distributioner som stöds i AEM 6:

Node Store
Datalager
Skräpinsamlingsmekanism
tarMK
tarMK
Revision Cleanup (binärfiler är inbäddade i segmentarkivet)
tarMK
Externt filsystem

Skräpinsamlingsaktivitet för datalager via instrumentpanelen för åtgärder

JMX Console

MongoDB
MongoDB

Skräpinsamlingsaktivitet för datalager via instrumentpanelen för åtgärder

JMX Console

MongoDB
Externt filsystem

Skräpinsamlingsaktivitet för datalager via instrumentpanelen för åtgärder

JMX Console

Kör skräpinsamlingen för datalagret via kontrollpanelen för åtgärder running-data-store-garbage-collection-via-the-operations-dashboard

Det inbyggda veckounderhållet som finns via Instrumentpanel för åtgärder, innehåller en inbyggd uppgift att utlösa Data Store-skräpinsamlingen klockan 1:00 på söndagar.

Om du behöver köra skräpinsamlingen för datalagret utanför den här tiden kan den aktiveras manuellt via kontrollpanelen för åtgärder.

Innan du kör skräpinsamlingen för datalagret bör du kontrollera att inga säkerhetskopieringar körs samtidigt.

  1. Öppna instrumentpanelen för åtgärder av Navigering -> verktyg -> Operationer -> Underhåll.

  2. Klicka eller tryck på Underhållsfönster varje vecka.

    chlimage_1-121

  3. Välj Skräpinsamling för datalager och sedan klicka eller trycka på Kör ikon.

    chlimage_1-122

  4. Skräpinsamlingen för datalagret körs och dess status visas på instrumentpanelen.

    chlimage_1-123

NOTE
Åtgärden Skräpsamling i datalagret visas bara om du har konfigurerat ett externt fildatalager. Se Konfigurera nodarkiv och datalager i AEM 6 om du vill ha information om hur du konfigurerar ett fildatalager.

Kör skräpinsamlingen för datalagret via JMX-konsolen running-data-store-garbage-collection-via-the-jmx-console

Det här avsnittet handlar om att manuellt köra skräpinsamling för datalager via JMX-konsolen. Om installationen har konfigurerats utan ett externt datalager gäller detta inte installationen. I stället finns instruktionerna om hur du kör Revision cleanup under Underhålla databasen.

NOTE
Om du kör tarMK med ett externt datalager måste du först köra Revision Cleanup för att skräpinsamlingen ska bli effektiv.

Så här kör du skräpinsamlingen:

  1. I Apache Felix OSGi Management Console markerar du Huvud och markera JMX på följande meny.

  2. Sök efter och klicka sedan på Databashanteraren MBean (eller gå till https://<host>:<port>/system/console/jmx/org.apache.jackrabbit.oak%3Aname%3Drepository+manager%2Ctype%3DRepositoryManagement).

  3. Klicka startDataStoreGC(boolesk markOnly).

  4. ange "true" för markOnly parameter om det behövs:

    table 0-row-2 1-row-2
    Alternativ Beskrivning
    boolesk markOnly Ange som true om du bara vill markera referenser och inte svepa i markeringen och svepningen. Det här läget ska användas när den underliggande BlobStore delas mellan flera olika databaser. För alla andra fall anger du det som false om du vill utföra en fullständig skräpinsamling.
  5. Klicka Anropa. CRX kör skräpinsamlingen och anger när den är klar.

NOTE
Skräpinsamlingen i datalagret samlar inte in filer som har tagits bort de senaste 24 timmarna.
NOTE
Datalagrets skräpinsamlingsaktivitet startar bara om du har konfigurerat ett externt fildatalager. Om inget externt fildatalager har konfigurerats returnerar aktiviteten meddelandet Cannot perform operation: no service of type BlobGCMBean found efter anrop. Se Konfigurera nodarkiv och datalager i AEM 6 om du vill ha information om hur du konfigurerar ett fildatalager.

Automatisera skräpinsamling för datalager automating-data-store-garbage-collection

Om det är möjligt bör skräpinsamlingen i datalagret köras när det finns liten belastning på systemet, till exempel på morgonen.

Det inbyggda veckounderhållet som finns via Instrumentpanel för åtgärder, innehåller en inbyggd uppgift att utlösa Data Store-skräpinsamlingen klockan 1:00 på söndagar. Du bör även kontrollera att inga säkerhetskopieringar körs just nu. Underhållsperiodens början kan anpassas via kontrollpanelen efter behov.

NOTE
Orsaken till att den inte körs samtidigt är att gamla (och oanvända) datalagringsfiler också säkerhetskopieras, så om det krävs att de återställs till en gammal version finns binärfilerna fortfarande kvar i säkerhetskopian.

Om du inte vill köra skräpinsamlingen i datalagret med fönstret för veckounderhåll på kontrollpanelen för åtgärder kan den även automatiseras med widgeten eller vändbara HTTP-klienter. Här följer ett exempel på hur du automatiserar säkerhetskopiering med hjälp av vändning:

CAUTION
I följande exempel curl kommandon som olika parametrar kan behöva konfigureras för din instans; till exempel värdnamnet ( localhost), port ( 4502), administratörslösenord ( xyz) och olika parametrar för den faktiska skräpinsamlingen i datalagret.

Här är ett exempel på ett curl-kommando som anropar skräpinsamlingen för datalagring via kommandoraden:

curl -u admin:admin -X POST --data markOnly=true  http://localhost:4503/system/console/jmx/org.apache.jackrabbit.oak"%"3Aname"%"3Drepository+manager"%"2Ctype"%"3DRepositoryManagement/op/startDataStoreGC/boolean

Kommandot curl returneras omedelbart.

Kontrollerar konsekvensen i datalagret checking-data-store-consistency

Konsekvenskontrollen av datalagret rapporterar eventuella binära data som saknas men som fortfarande refereras. Så här startar du en konsekvenskontroll:

  1. Gå till JMX-konsolen. Mer information om hur du använder JMX-konsolen finns i den här artikeln.

  2. Sök efter Blob GC Mbean och klicka på den.

  3. Klicka på checkConsistency() länk.

När konsekvenskontrollen är klar visas antalet binärfiler som rapporterats som saknade i ett meddelande. Om siffran är större än 0 kontrollerar du error.log om du vill ha mer information om binärfiler som saknas.

Här nedan hittar du ett exempel på hur de saknade binärfilerna rapporteras i loggarna:

11:32:39.673 INFO [main] MarkSweepGarbageCollector.java:600 Consistency check found [1] missing blobs
11:32:39.673 WARN [main] MarkSweepGarbageCollector.java:602 Consistency check failure in the blob store : DataStore backed BlobStore [org.apache.jackrabbit.oak.plugins.blob.datastore.OakFileDataStore], check missing candidates in file /tmp/gcworkdir-1467352959243/gccand-1467352959243
recommendation-more-help
5ce3024a-cbea-458b-8b2f-f9b8dda516e8