Ottimizzazione delle prestazioni performance-optimization
Un problema chiave è il tempo impiegato dal sito web per rispondere alle richieste dei visitatori. Anche se questo valore varia per ogni richiesta, è possibile definire un valore target medio. Una volta dimostrato che questo valore è sia realizzabile che gestibile, può essere utilizzato per monitorare le prestazioni del sito web e indicare lo sviluppo di potenziali problemi.
I tempi di risposta desiderati sono diversi per gli ambienti di authoring e di pubblicazione, rispecchiando le diverse caratteristiche del pubblico di destinazione:
Ambiente di authoring author-environment
Questo ambiente viene utilizzato dagli autori che immettono e aggiornano il contenuto. Deve soddisfare alcuni utenti che generano un numero elevato di richieste di prestazioni intensive durante l’aggiornamento delle pagine di contenuto e dei singoli elementi in tali pagine.
Ambiente di pubblicazione publish-environment
Questo ambiente contiene contenuti che rendi disponibili agli utenti. Qui il numero di richieste è ancora maggiore e la velocità è altrettanto vitale. Tuttavia, poiché la natura delle richieste è meno dinamica, è possibile applicare meccanismi aggiuntivi di miglioramento delle prestazioni, come la memorizzazione nella cache del contenuto o il bilanciamento del carico.
- Dopo la configurazione per l'ottimizzazione delle prestazioni, seguire le procedure in Giorno difficile per testare l'ambiente con un carico elevato.
- Vedi anche Suggerimenti per l'ottimizzazione delle prestazioni.
Metodologia di ottimizzazione delle prestazioni performance-optimization-methodology
Una metodologia di ottimizzazione delle prestazioni per i progetti AEM può essere riassunta in cinque semplici regole che possono essere seguite per evitare problemi di prestazioni fin dall’inizio:
Queste regole si applicano ai progetti web in generale e sono rilevanti per i project manager e gli amministratori di sistema per garantire che i loro progetti non affrontino problemi di prestazioni quando arriva il momento del lancio.
Pianificazione per l'ottimizzazione planning-for-optimization
Pianifica circa il 10% dello sforzo di progetto per la fase di ottimizzazione delle prestazioni. I requisiti effettivi di ottimizzazione delle prestazioni dipendono dal livello di complessità di un progetto e dall’esperienza del team di sviluppo. Anche se il progetto potrebbe non richiedere il tempo assegnato, è buona prassi pianificare sempre l’ottimizzazione delle prestazioni nell’area suggerita.
Quando possibile, un progetto deve prima essere avviato in modo morbido a un pubblico limitato per raccogliere esperienze reali ed eseguire ulteriori ottimizzazioni, senza la pressione aggiuntiva che segue un annuncio completo.
Quando sei "live", l'ottimizzazione delle prestazioni non è terminata. È ora che si verifica il carico "reale" sul sistema. È importante pianificare ulteriori adeguamenti dopo il lancio.
Poiché il carico del sistema cambia e i profili di prestazioni del sistema cambiano nel tempo, è necessario pianificare un "tuning" o un "controllo dello stato di salute" delle prestazioni a intervalli di 6-12 mesi.
Simula realtà simulate-reality
Se vai in diretta con un sito web e scopri dopo il lancio che riscontri problemi di prestazioni, probabilmente perché i test di carico e prestazioni non simulavano la realtà abbastanza da vicino.
Simulare la realtà è difficile e quanto impegno si desidera investire per diventare "reali" dipende dalla natura del progetto. "Reale" significa non solo "codice reale" e "traffico reale", ma anche "contenuto reale", soprattutto per quanto riguarda la dimensione e la struttura del contenuto. I modelli possono comportarsi in modo diverso a seconda delle dimensioni e della struttura dell’archivio.
Stabilire obiettivi solidi establish-solid-goals
Non va sottovalutata l'importanza di stabilire adeguatamente gli obiettivi prestazionali. Spesso, dopo che le persone si sono concentrate su obiettivi di prestazioni specifici, è difficile modificare tali obiettivi in un secondo momento, anche se si basano su presupposti.
Stabilire buoni e solidi obiettivi di prestazioni è davvero una delle aree più difficili. Spesso è meglio raccogliere registri e benchmark reali da un sito web comparabile (ad esempio, il predecessore del nuovo sito web).
Resta rilevante stay-relevant
È importante ottimizzare un collo di bottiglia alla volta. Se tenti di eseguire le operazioni in parallelo senza convalidare l’impatto dell’unica ottimizzazione, puoi perdere traccia di quale misura di ottimizzazione è stata utile.
Cicli di iterazione Agile agile-iteration-cycles
L'ottimizzazione delle prestazioni è un processo iterativo che coinvolge, misura, analisi, ottimizzazione e convalida fino al raggiungimento dell'obiettivo. Per tenere conto di questo aspetto, implementa un processo di convalida agile nella fase di ottimizzazione anziché un processo di test più pesante dopo ogni iterazione.
Questo focus significa che lo sviluppatore che implementa l’ottimizzazione deve disporre di un modo rapido per sapere se l’ottimizzazione ha già raggiunto l’obiettivo. Queste informazioni sono preziose perché, una volta raggiunto l’obiettivo, l’ottimizzazione è terminata.
Linee guida sulle prestazioni di base basic-performance-guidelines
In generale, mantieni le richieste html non memorizzate nella cache a meno di 100 millisecondi. Più specificamente, i seguenti elementi possono fungere da orientamento:
- Il 70% delle richieste di pagine dovrebbe ricevere una risposta in meno di 100 millisecondi.
- Il 25% delle richieste di pagine dovrebbe ricevere una risposta entro 100-300 millisecondi.
- Il 4% delle richieste di pagine dovrebbe ricevere una risposta entro 300-500 millisecondi.
- L’1% delle richieste di pagine dovrebbe ricevere una risposta entro 500-1000 millisecondi.
- Nessuna pagina deve rispondere a un tempo inferiore a 1 secondo.
I numeri di cui sopra presuppongono le seguenti condizioni:
- Misurato al momento della pubblicazione (nessun costo comune correlato a un ambiente di authoring)
- Misurato sul server (nessun sovraccarico di rete)
- Non memorizzato in cache (nessuna cache di output AEM, nessuna cache Dispatcher)
- Solo per elementi complessi con molte dipendenze (HTML, JS, PDF, …)
- Nessun altro carico sul sistema
Esistono alcuni problemi che spesso contribuiscono a problemi di prestazioni, tra cui i seguenti:
- Inefficienza della memorizzazione nella cache di Dispatcher
- Utilizzo delle query nei normali modelli di visualizzazione.
L’ottimizzazione a livello di JVM e del sistema operativo di solito non comporta salti significativi nelle prestazioni e deve quindi essere eseguita alla fine del ciclo di ottimizzazione.
La struttura di un archivio di contenuti può influire anche sulle prestazioni. Per prestazioni ottimali, il numero di nodi secondari collegati ai singoli nodi in un archivio dei contenuti non deve superare i 1.000 (in regola).
I tuoi migliori amici durante un normale esercizio di ottimizzazione delle prestazioni sono:
request.log
- Tempistica basata su componenti
- Un profiler Java™.
Prestazioni durante il caricamento e la modifica di Digital Assets performance-when-loading-and-editing-digital-assets
A causa dell’elevato volume di dati necessari per caricare e modificare le risorse digitali, le prestazioni possono diventare un problema.
Due fattori influiscono sulle prestazioni:
- CPU: più core per un lavoro più fluido durante la transcodifica
- Disco rigido: i dischi RAID paralleli raggiungono lo stesso risultato
Per migliorare le prestazioni, considera quanto segue:
- Quante risorse verranno caricate al giorno? Una stima valida può essere basata su:
- L'intervallo di tempo in cui vengono apportate le modifiche (in genere la durata della giornata lavorativa, più per le operazioni internazionali).
- Dimensione media delle immagini caricate (e dimensione delle rappresentazioni generate per immagine) in megabyte.
- Determinare la velocità media dei dati:
- L’80% di tutte le modifiche viene effettuato nel 20% del tempo, quindi nei momenti di picco la velocità media dei dati è quattro volte superiore. Tali prestazioni sono il vostro obiettivo.
Monitoraggio delle prestazioni performance-monitoring
Le prestazioni (o la loro mancanza) sono una delle prime cose che gli utenti notano, quindi con qualsiasi applicazione con un’interfaccia utente, le prestazioni sono di importanza fondamentale. Per ottimizzare le prestazioni dell’installazione dell’AEM, monitora vari attributi dell’istanza e il suo comportamento.
Per informazioni su come eseguire il monitoraggio delle prestazioni, vedere Monitoraggio delle prestazioni.
I problemi che causano problemi di prestazioni sono spesso difficili da individuare, anche quando i loro effetti sono facili da vedere.
Un punto di partenza di base è una buona conoscenza del sistema quando funziona normalmente. A meno che non si conosca l'aspetto e il comportamento dell'ambiente quando funziona correttamente, è difficile individuare il problema quando le prestazioni peggiorano. Investigare sul sistema durante il suo normale funzionamento e assicurarsi che la raccolta delle informazioni sulle prestazioni sia un'attività continua. In questo modo è possibile ottenere una base di confronto in caso di peggioramento delle prestazioni.
Il diagramma seguente illustra il percorso che una richiesta di contenuto AEM può seguire e quindi il numero di elementi diversi che possono influire sulle prestazioni.
Le prestazioni rappresentano anche un equilibrio tra volume e capacità:
- Volume - Quantità di output elaborata e consegnata dal sistema.
- Capacità - Capacità del sistema di consegnare il volume.
Le prestazioni possono essere illustrate in varie posizioni in tutta la catena web.
Esistono diverse aree funzionali spesso responsabili dell’impatto sulle prestazioni:
- Memorizzazione in cache
- Codice applicazione (progetto)
- Funzionalità di ricerca
Regole di base relative alle prestazioni basic-rules-regarding-performance
Alcune regole devono essere tenute presenti quando si ottimizzano le prestazioni:
- L'ottimizzazione delle prestazioni deve far parte di ogni progetto.
- Non ottimizzare nelle prime fasi del ciclo di sviluppo.
- Le prestazioni sono buone solo come l'anello più debole.
- Pensa sempre alla capacità rispetto al volume.
- Ottimizza prima le cose importanti.
- Non ottimizzare mai senza obiettivi realistici.
Configurazione per le prestazioni configuring-for-performance
Alcuni aspetti dell’AEM (e/o dell’archivio sottostante) possono essere configurati per ottimizzare le prestazioni. Di seguito sono riportati possibilità e suggerimenti. Prima di apportare modifiche, è necessario verificare se o come si utilizza la funzionalità in questione.
Indicizzazione di ricerca search-indexing
A partire da AEM 6.0, Adobe Experience Manager utilizza un’architettura di archivio basata su Oak.
Le informazioni aggiornate sull’indicizzazione sono disponibili qui:
Elaborazione flusso di lavoro simultaneo concurrent-workflow-processing
Per migliorare le prestazioni, limita il numero di processi di flusso di lavoro in esecuzione simultanea. Per impostazione predefinita, il motore del flusso di lavoro elabora in parallelo tanti flussi di lavoro quanti sono i processori disponibili per la VM Java™. Quando i passaggi del flusso di lavoro richiedono grandi quantità di risorse di elaborazione (RAM o CPU), l’esecuzione in parallelo di diversi di questi flussi di lavoro può comportare requisiti elevati per le risorse server disponibili.
Ad esempio, quando vengono caricate le immagini (o le risorse DAM in generale), i flussi di lavoro importano automaticamente le immagini in DAM. Le immagini sono spesso ad alta risoluzione e possono facilmente consumare centinaia di MB di heap per l'elaborazione. La gestione di queste immagini in parallelo comporta un carico elevato sul sottosistema di memoria e sul garbage collector.
Il motore del flusso di lavoro utilizza le code dei processi Apache Sling per la gestione e la pianificazione dell’elaborazione degli elementi di lavoro. I seguenti servizi della coda processi sono stati creati per impostazione predefinita dalla factory del servizio Configurazione coda processi di Apache Sling per l’elaborazione dei processi del flusso di lavoro:
- Coda del flusso di lavoro Granite: la maggior parte dei passaggi del flusso di lavoro, come quelli che elaborano le risorse DAM, utilizza il servizio Coda del flusso di lavoro Granite.
- Granite Workflow External Process Job Queue (Coda processi esterni flusso di lavoro Granite): questo servizio viene utilizzato per particolari passaggi del flusso di lavoro esterno che in genere vengono utilizzati per contattare un sistema esterno e per il polling dei risultati. Il passaggio Processo di estrazione file multimediali InDesign, ad esempio, viene implementato come processo esterno. Il motore del flusso di lavoro utilizza la coda esterna per l’elaborazione del polling. (Vedi com.day.cq.workflow.exec.WorkflowExternalProcess.)
Configura questi servizi per limitare il numero massimo di processi di flusso di lavoro in esecuzione simultanea.
Configurazione nell’archivio configuration-in-the-repo
Se stai configurando i servizi utilizzando un nodo sling:OsgiConfig, devi trovare il PID dei servizi esistenti, ad esempio: org.apache.sling.event.jobs.QueueConfiguration.370aad73-d01b-4a0b-abe4-20198d85f705. Puoi individuare il PID utilizzando la console web.
Configurare la proprietà denominata queue.maxparallel
.
Configurazione nella console web configuration-in-the-web-console
Per configurare questi servizi utilizzando la console Web, individuare gli elementi di configurazione esistenti nella service factory di configurazione della coda processi di Apache Sling.
Configura la proprietà denominata Maximum Parallel Jobs (Numero massimo processi paralleli).
Configurare la coda per un flusso di lavoro specifico configure-the-queue-for-a-specific-workflow
Creare una coda di processi per un modello di flusso di lavoro specifico in modo da poter configurare la gestione dei processi per tale modello. In questo modo, le configurazioni influiscono sull’elaborazione di un flusso di lavoro specifico, mentre la configurazione della coda predefinita del flusso di lavoro di Granite controlla l’elaborazione di altri flussi di lavoro.
Durante l’esecuzione dei modelli di flusso di lavoro, vengono creati processi Sling per un argomento specifico. Per impostazione predefinita, l'argomento corrisponde agli argomenti configurati per la coda del flusso di lavoro generale di Granite o per la coda del processo esterno del flusso di lavoro di Granite:
com/adobe/granite/workflow/job*
com/adobe/granite/workflow/external/job*
Gli argomenti di processo effettivi generati dai modelli di flusso di lavoro includono il suffisso specifico per il modello. Ad esempio, il modello di flusso di lavoro Risorsa di aggiornamento DAM genera processi con il seguente argomento:
com/adobe/granite/workflow/job/etc/workflow/models/dam/update_asset/jcr_content/model
È quindi possibile creare una coda di processi per l'argomento corrispondente agli argomenti del processo del modello di flusso di lavoro. La configurazione delle proprietà correlate alle prestazioni della coda influisce solo sul modello di flusso di lavoro che genera i processi che corrispondono all’argomento della coda.
La procedura seguente crea una coda di processi per un flusso di lavoro, utilizzando come esempio il flusso di lavoro Risorsa di aggiornamento DAM.
-
Eseguire il modello di flusso di lavoro per il quale si desidera creare la coda dei processi, in modo che vengano generate le statistiche degli argomenti. Aggiungi ad esempio un'immagine ad Assets per eseguire il flusso di lavoro Risorsa di aggiornamento DAM.
-
Aprire la console Processi Sling (
https://<host>:<port>/system/console/slingevent
). -
Scopri gli argomenti relativi al flusso di lavoro nella console. Per Risorsa di aggiornamento DAM, sono disponibili i seguenti argomenti:
com/adobe/granite/workflow/external/job/etc/workflow/models/dam/update_asset/jcr_content/model
com/adobe/granite/workflow/job/etc/workflow/models/dam/update_asset/jcr_content/model
com/adobe/granite/workflow/job/etc/workflow/models/dam-xmp-writeback/jcr_content/model
-
Creare una coda di lavoro per ciascuno di questi argomenti. Per creare una coda di processi, crea una configurazione di fabbrica per il servizio Apache Sling Job Queue factory.
Le configurazioni di fabbrica sono simili alla coda del flusso di lavoro Granite descritta in Elaborazione del flusso di lavoro simultaneo, ad eccezione della proprietà Topics che corrisponde all'argomento dei processi del flusso di lavoro.
Servizio di sincronizzazione risorse DAM AEM cq-dam-asset-synchronization-service
AssetSynchronizationService
viene utilizzato per sincronizzare le risorse dai repository montati (tra cui LiveLink, Documentum®). Per impostazione predefinita, questa sincronizzazione esegue un controllo regolare ogni 300 secondi (5 minuti), quindi se non utilizzi archivi montati, puoi disabilitare il servizio.
La disattivazione del servizio viene eseguita configurando il servizio OSGi CQ DAM Asset Synchronization Service per impostare il periodo di sincronizzazione (scheduler.period
) su (almeno) un anno (definito in secondi).
Più istanze DAM multiple-dam-instances
La distribuzione di più istanze DAM può migliorare le prestazioni quando, ad esempio:
- Hai un carico elevato a causa del caricamento regolare di molte risorse per l’ambiente di authoring; qui puoi dedicare un’istanza DAM separata per la manutenzione dell’autore.
- Hai più team in posizioni mondiali (ad esempio, Stati Uniti, Europa, Asia).
Ulteriori considerazioni sono:
- Separazione di "work in progress" sull’autore da "final" sulla pubblicazione
- Separazione degli utenti interni all’authoring da visitatori/utenti esterni alla pubblicazione (ad esempio agenti, giornalisti, clienti e studenti).
Best practice per la garanzia della qualità best-practices-for-quality-assurance
Le prestazioni sono di fondamentale importanza per l’ambiente di pubblicazione. Pertanto, devi pianificare e analizzare attentamente i test delle prestazioni effettuati per l’ambiente di pubblicazione durante l’implementazione del progetto.
Questa sezione offre una panoramica standardizzata dei problemi relativi alla definizione di un concetto di test specifico per i test delle prestazioni nell'ambiente publish. Queste informazioni sono di particolare interesse per gli ingegneri QA, i project manager e gli amministratori di sistema.
Di seguito è riportato un approccio standardizzato ai test delle prestazioni per un'applicazione AEM nell'ambiente Publish. Questo test di prestazione prevede le cinque fasi seguenti:
Il controllo è un processo aggiuntivo che include tutti i componenti, necessario ma non limitato ai test.
Verifica delle conoscenze verification-of-knowledge
Un primo passaggio consiste nel documentare le informazioni di base che è necessario conoscere prima di poter iniziare il test:
- Architettura dell’ambiente di test
- Mappa dell’applicazione che descrive gli elementi interni che devono essere testati (sia isolati che combinati)
Architettura di prova test-architecture
Documenta l’architettura dell’ambiente di test utilizzato per il test delle prestazioni.
È necessaria una riproduzione dell’ambiente Publish di produzione pianificato, insieme a Dispatcher e Load Balancer.
Mappa applicazioni application-map
Ottieni una chiara panoramica da cui creare una mappa dell’intera applicazione (questa mappa potrebbe essere già disponibile dai test nell’ambiente di authoring).
Una rappresentazione schematica degli elementi interni dell'applicazione, può fornire una panoramica dei requisiti di test; con la codifica a colori può anche fungere da base per il reporting.
Definizione ambito scope-definition
In genere, un’applicazione dispone di una selezione di casi d’uso. Alcuni casi d’uso sono importanti, altri meno.
Per focalizzare l’ambito del test delle prestazioni sulla pubblicazione, l’Adobe consiglia di definire quanto segue:
- Casi d’uso aziendali più importanti
- Casi d’uso tecnici più critici
Il numero di casi d’uso dipende da te, ma deve essere limitato a un numero facilmente gestibile (ad esempio, tra 5 e 10).
Una volta selezionati i casi d’uso chiave, è possibile definire per ogni caso gli indicatori prestazioni chiave (KPI, Key Performance Indicators) e gli strumenti utilizzati per misurarli. Esempi di KPI comuni includono:
- Tempo di risposta end-to-end
- Tempo di risposta servlet
- Tempo di risposta per un singolo componente
- Tempo di risposta per i servizi
- Numero di thread inattivi nel pool di thread
- Numero di connessioni libere
- Risorse di sistema come l'accesso alla CPU e all'I/O
Metodologie di test test-methodologies
Questo concetto prevede quattro scenari utilizzati per definire e testare gli obiettivi prestazionali:
- Test di un singolo componente
- Test combinati dei componenti
- Scenario Going Live
- Scenari di errore
In base ai seguenti principi.
Punti di interruzione componente component-breakpoints
- Ogni componente ha un punto di interruzione specifico quando è correlato alle prestazioni. In altre parole, un componente può mostrare che le buone prestazioni sono raggiunte fino al raggiungimento di un punto specifico, dopodiché le prestazioni si degradano rapidamente.
- Per ottenere una panoramica completa dell’applicazione, devi innanzitutto verificare i componenti per determinare quando viene raggiunto il punto di interruzione di ciascuno di essi.
- Per trovare il punto di interruzione che è possibile eseguire un test di carico in cui, in un periodo di tempo, si aumenta il numero di utenti per creare un carico crescente. Monitorando questo carico e la risposta dei componenti, si ottiene un comportamento specifico delle prestazioni quando viene raggiunto il punto di interruzione del componente. Il punto può essere qualificato in base al numero di transazioni simultanee al secondo, insieme al numero di utenti simultanei (se il componente è sensibile a questo indicatore KPI).
- Queste informazioni possono quindi fungere da punto di riferimento per i miglioramenti, indicare l'efficienza delle misure utilizzate e contribuire a definire scenari di test.
Transazioni transactions
- Il termine transazione viene utilizzato per rappresentare la richiesta di una pagina web completa, incluse la pagina stessa e tutte le chiamate successive. ovvero la richiesta di pagina, le chiamate AJAX, le immagini e altri oggetti Richiedi approfondimento.
- Per analizzare completamente ogni richiesta, puoi rappresentare ogni elemento dello stack di chiamate, quindi calcolare il tempo medio di elaborazione per ogni richiesta.
Definizione degli obiettivi di prestazioni defining-the-performance-goals
Dopo aver definito l’ambito e i KPI correlati, vengono impostati gli obiettivi di prestazioni specifici. Questo processo comporta la progettazione di scenari di test e di valori target.
Prestazioni di prova sia in condizioni medie che di picco. Inoltre, è necessario eseguire test di scenario Going Live per garantire che tu possa provvedere a un maggiore interesse nel tuo sito web quando viene reso disponibile per la prima volta.
Qualsiasi esperienza o statistica che potresti aver raccolto da un sito web esistente può essere utile anche per determinare gli obiettivi futuri. Ad esempio, traffico più alto dal tuo sito web live.
Test per singolo componente single-component-tests
I componenti critici devono essere testati sia in condizioni di media che di picco.
In entrambi i casi, è possibile definire il numero previsto di transazioni al secondo quando un numero predefinito di utenti utilizza il sistema.
Test dei componenti combinati combined-component-tests
Il test dei componenti in combinazione offre un riflesso più preciso del comportamento delle applicazioni. Anche in questo caso devono essere testate le condizioni medie e di picco.
Test live going-live-tests
Nei primi giorni dopo la messa a disposizione del sito web, è possibile prevedere un livello di interesse maggiore. Questo scenario è anche maggiore dei valori di picco per i quali stai eseguendo il test. L’Adobe consiglia di testare gli scenari Going Live per garantire che il sistema sia in grado di gestire questa situazione.
Test dello scenario di errore error-scenario-tests
Verificare gli scenari di errore per garantire che il sistema reagisca correttamente e in modo appropriato. Non solo nel modo in cui viene gestito l’errore stesso, ma anche nell’impatto che potrebbe avere sulle prestazioni. Ad esempio:
- Cosa succede quando l’utente tenta di inserire un termine di ricerca non valido nella casella di ricerca
- Cosa succede quando il termine di ricerca è così generale da restituire un numero eccessivo di risultati
Nel concepire questi test, occorre tenere presente che non tutti gli scenari si verificano regolarmente. Tuttavia, il loro impatto sull'intero sistema è importante.
Test di resistenza endurance-tests
Alcuni problemi si verificano solo dopo che il sistema è stato in esecuzione per un periodo di tempo continuo, ore o giorni. Si utilizza una prova di durata per verificare un carico medio costante per un determinato periodo di tempo. È quindi possibile analizzare qualsiasi peggioramento delle prestazioni.
Ottimizzazione optimization
Nelle fasi successive dell’implementazione, ottimizza l’applicazione per soddisfare e massimizzare gli obiettivi prestazionali.
Eventuali ottimizzazioni effettuate devono essere verificate per garantire che:
- Funzionalità non interessata
- Sono stati verificati con i test di carico prima del rilascio
È disponibile una selezione di strumenti che consentono di generare il carico, monitorare le prestazioni e analizzare i risultati. Alcuni di questi strumenti includono:
Dopo l'ottimizzazione, ripetere la prova per confermare l'impatto.
Generazione rapporti reporting
Il reporting continuo tiene tutti informati sullo stato. Come accennato in precedenza con la codifica a colori, la mappa dell’architettura può essere utilizzata per questo stato.
Al termine di tutte le prove, indicare quanto segue:
- Eventuali errori critici riscontrati
- Problemi non critici che richiedono ulteriori indagini
- Eventuali ipotesi formulate durante il test
- Eventuali raccomandazioni derivanti dal test
Ottimizzazione delle prestazioni quando si utilizza Dispatcher optimizing-performance-when-using-the-dispatcher
Dispatcher è uno strumento di caching e/o bilanciamento del carico di Adobe. Quando utilizzi Dispatcher, prova a ottimizzare il tuo sito web per migliorare le prestazioni della cache.
Dispatcher offre diversi meccanismi incorporati che puoi utilizzare per ottimizzare le prestazioni se il tuo sito web ne trae vantaggio. Questa sezione spiega come progettare il sito web per massimizzare i vantaggi del caching.
Calcolo delle proporzioni della cache di Dispatcher calculating-the-dispatcher-cache-ratio
La formula del rapporto di cache stima la percentuale di richieste gestite dalla cache rispetto al numero totale di richieste entrate nel sistema. Per calcolare il rapporto della cache, è necessario effettuare le seguenti operazioni:
-
Numero totale di richieste. Queste informazioni sono disponibili in Apache
access.log
. Per ulteriori dettagli, consulta la documentazione ufficiale di Apache. -
Numero di richieste servite dall’istanza di Publish. Queste informazioni sono disponibili in
request.log
dell'istanza. Per ulteriori dettagli, vedere Interpretazione del file request.log e Ricerca dei file di log.
La formula per calcolare il rapporto della cache è:
- (Numero totale di richieste meno il numero di richieste in Publish) diviso per il numero totale di richieste.
Ad esempio, se il numero totale di richieste è 129491 e il numero di richieste servite dall'istanza di Publish è 58959 il rapporto di cache è: (129491 - 58959)/129491= 54,5%.
Se non disponi di una coppia uno-a-uno editore/dispatcher, aggiungi le richieste di tutti i dispatcher e gli editori insieme per ottenere una misurazione accurata. Vedi anche Distribuzioni consigliate.
Utilizzo di una codifica coerente delle pagine using-consistent-page-encoding
Con Dispatcher versione 4.1.11, puoi memorizzare nella cache le intestazioni di risposta. Se non memorizzi nella cache le intestazioni di risposta su Dispatcher, possono verificarsi problemi se memorizzi le informazioni di codifica della pagina nell’intestazione. In questa situazione, quando Dispatcher richiama una pagina dalla cache, per essa viene utilizzata la codifica predefinita del server web. Esistono due modi per evitare questo problema:
- Se utilizzi una sola codifica, accertati che la codifica utilizzata sul server web sia la stessa della codifica predefinita del sito web AEM.
- Utilizza un tag
<META>
nella sezionehead
HTML per impostare la codifica, come nell’esempio seguente:
<META http-equiv="Content-Type" content="text/html; charset=EUC-JP">
Evita i parametri URL avoid-url-parameters
Se possibile, evita i parametri URL per le pagine che vuoi memorizzare in cache. Ad esempio, se hai una galleria di immagini, il seguente URL non viene mai memorizzato in cache (a meno che Dispatcher non sia configurato per farlo):
www.myCompany.com/pictures/gallery.html?event=christmas&page=1
Tuttavia, puoi inserire questi parametri nell’URL della pagina nel modo che segue:
www.myCompany.com/pictures/gallery.christmas.1.html
gallery.html
. Nella definizione del modello, è possibile specificare quale script esegue il rendering della pagina oppure utilizzare lo stesso script per tutte le pagine.Personalizza in base all'URL customize-by-url
Se consenti agli utenti di modificare la dimensione del font (o di effettuare qualunque altra personalizzazione del layout), accertati che le diverse personalizzazioni siano poi riportate nell’URL.
Ad esempio, i cookie non vengono memorizzati in cache, quindi se memorizzi la dimensione del font in un cookie (o in un meccanismo simile), essa non viene mantenuta per la pagina memorizzata in cache. Di conseguenza, Dispatcher restituisce documenti con qualunque dimensione del font, a caso.
L’inclusione della dimensione del font nell’URL come selettore evita questo problema:
www.myCompany.com/news/main.large.html
www.myCompany.com/news/main.print.html
Annullamento della validità dei file di immagine utilizzati come titoli invalidating-image-files-used-as-titles
Se esegui il rendering dei titoli di pagina, o di altro testo, come immagini, si consiglia di memorizzare i file in modo che vengano eliminati al momento di un aggiornamento del contenuto della pagina:
-
Posiziona il file di immagine nella stessa cartella della pagina.
-
Utilizza il seguente formato di denominazione per il file di immagine:
<page file name>.<image file name>
È ad esempio possibile memorizzare il titolo della pagina myPage.html
in file myPage.title.gif
. Questo file viene eliminato automaticamente, se la pagina viene aggiornata, quindi qualsiasi modifica al titolo della pagina viene automaticamente riportata nella cache.
Annullamento della validità dei file di immagine utilizzati per la navigazione invalidating-image-files-used-for-navigation
Se si utilizzano immagini per le voci di navigazione, il metodo è sostanzialmente lo stesso utilizzato per i titoli, ma leggermente più complesso. Memorizza tutte le immagini di navigazione con le pagine di destinazione. Se utilizzi due immagini per la modalità normale e attiva, puoi utilizzare i seguenti script:
- Uno script che visualizza la pagina, come normale.
- Uno script che elabora le richieste “.normal” e restituisce l’immagine normale.
- Uno script che elabora le richieste “.active” e restituisce l’immagine attivata.
È importante creare queste immagini con lo stesso handle di denominazione della pagina, per assicurarsi che un aggiornamento del contenuto elimini queste immagini e la pagina.
Per le pagine non modificate, le immagini rimangono comunque nella cache, sebbene le pagine stesse vengano di solito invalidate automaticamente.
Personalizzazione personalization
È consigliabile limitare la personalizzazione ai casi in cui è necessaria. Ecco il perché:
- Se utilizzi una pagina iniziale liberamente personalizzabile, questa pagina deve essere composta ogni volta che un utente la richiede.
- Se invece offri una scelta tra dieci pagine iniziali diverse, puoi memorizzare in cache ciascuna di esse, migliorando così le prestazioni.
Se personalizzi ogni pagina inserendo il nome dell’utente nella barra del titolo (ad esempio), questo ha un impatto sulle prestazioni.
Per quanto riguarda la combinazione di contenuti limitati e pubblici in una pagina, considera una strategia che utilizza le inclusioni lato server in Dispatcher o le inclusioni lato client tramite Ajax nel browser.
Connessioni permanenti sticky-connections
Le connessioni permanenti garantiscono che di un utente siano composti tutti sullo stesso server. Se un utente esce da questa cartella e successivamente vi rientra, la connessione è ancora attiva. Per conservare tutti i documenti che richiedono connessioni permanenti per il sito Web, definisci una cartella. Cerca di non avere altri documenti in quella cartella. Questo scenario influisce sul bilanciamento del carico se utilizzi pagine e dati di sessione personalizzati.
Tipi MIME mime-types
Esistono due modi in cui un browser può determinare il tipo di file:
- In base alla sua estensione (ad esempio,
.html
,.gif
e.jpg
). - In base al tipo MIME che il server invia con il file.
Per la maggior parte dei file, il tipo MIME è implicito nell’estensione del file. Cioè,
- In base alla sua estensione (ad esempio,
.html
,.gif
e.jpg
). - In base al tipo MIME che il server invia con il file.
Se il nome del file non ha estensione, viene visualizzato come testo normale.
Con Dispatcher versione 4.1.11, puoi memorizzare nella cache le intestazioni di risposta. Se non memorizzi nella cache le intestazioni di risposta su Dispatcher, il tipo MIME fa parte dell’intestazione HTTP. Di conseguenza, se l’applicazione AEM restituisce file che non hanno un’estensione di file riconosciuta e si basano invece sul tipo MIME, questi file potrebbero non essere visualizzati correttamente.
Per avere la certezza i file siano memorizzati in cache correttamente, attieniti alle seguenti linee guida:
- Verifica che i file abbiano sempre l’estensione corretta.
- Evitare gli script di server di file generici, che hanno URL come
download.jsp?file=2214
. Per utilizzare gli URL contenenti la specifica del file, riscrivere lo script. Per l'esempio precedente, la riscrittura èdownload.2214.pdf
.
Prestazioni di backup backup-performance
In questa sezione viene presentata una serie di benchmark utilizzati per valutare le prestazioni dei backup AEM e gli effetti dell'attività di backup sulle prestazioni delle applicazioni. I backup AEM presentano un carico significativo sul sistema durante l'esecuzione e Adobe misura l'impatto e gli effetti delle impostazioni di ritardo del backup che tentano di modulare questi effetti. L'obiettivo è quello di offrire alcuni dati di riferimento sulle prestazioni previste dei backup in configurazioni realistiche e quantità di dati di produzione, nonché di fornire indicazioni su come stimare i tempi di backup per i sistemi pianificati.
Ambiente di riferimento reference-environment
Sistema fisico physical-system
I risultati riportati in questo documento sono stati ottenuti da benchmark eseguiti in un ambiente di riferimento con la seguente configurazione. Questa configurazione è simile a un ambiente di produzione tipico in un centro dati:
- HP ProLiant DL380 G6, 8 CPU x 2,533 GHz
- Unità SCSI collegate seriali da 300 GB e 10.000 rpm
- Controller RAID hardware; otto unità in un array RAID0+5
- CPU immagine VMware x 2 Intel Xeon® E5540 a 2,53 GHz
- Red Hat® Linux® 2.6.18-194.el5; Java™ 1.6.0_29
- Istanza Autore singolo
Il sottosistema del disco su questo server è veloce, rappresentativo di una configurazione RAID ad alte prestazioni che potrebbe essere utilizzata in un server di produzione. Le prestazioni di backup possono essere sensibili alle prestazioni del disco e i risultati in questo ambiente riflettono le prestazioni su una configurazione RAID veloce. L'immagine VMWare è configurata in modo da avere un unico volume di dischi di grandi dimensioni che risiede fisicamente nello storage su disco locale, sull'array RAID.
La configurazione AEM colloca l’archivio e l’archivio dati sullo stesso volume logico, insieme al sistema operativo e al software AEM. Anche la directory di destinazione per i backup risiede in questo file system logico.
Volumi di dati data-volumes
La tabella seguente illustra le dimensioni dei volumi di dati utilizzati nei benchmark di backup. Il contenuto della linea di base iniziale viene prima installato, quindi vengono aggiunte ulteriori quantità note di dati per aumentare le dimensioni del contenuto di cui è stato eseguito il backup. I backup vengono creati con incrementi specifici per rappresentare un aumento significativo dei contenuti e di ciò che può essere prodotto in un giorno. La distribuzione dei contenuti (pagine, immagini, tag) si basa approssimativamente sulla composizione realistica delle risorse di produzione. Pagine, immagini e tag sono limitati a un massimo di 800 pagine figlie. Ogni pagina include i componenti Titolo, Flash, testo/immagine, video, presentazione, modulo, tabella, cloud e carosello. Le immagini vengono caricate da un pool di 400 file univoci da 37 KB a 594 KB.
Il benchmark di backup viene ripetuto con i set di contenuti aggiuntivi aggiunti a ogni ripetizione.
Scenari di benchmark benchmark-scenarios
I benchmark di backup coprono due scenari principali: i backup quando il sistema è sottoposto a un carico significativo dell'applicazione e i backup quando il sistema è inattivo. Sebbene la raccomandazione generale sia che i backup vengano eseguiti quando l'AEM è il più inattivo possibile, ci sono situazioni in cui è necessario eseguire il backup quando il sistema è sotto carico.
- Stato inattivo - I backup vengono eseguiti senza altre attività sull'AEM.
- In carico - I backup vengono eseguiti mentre il carico del sistema è inferiore all'80% dai processi online. Il ritardo del backup è variato per vedere l'impatto sul carico.
I tempi di backup e le dimensioni del backup risultante vengono ricavati dai registri del server AEM. In genere, si consiglia di pianificare i backup per i periodi di inattività dell’AEM, ad esempio nel cuore della notte. Questo scenario è rappresentativo dell’approccio raccomandato.
Il caricamento è costituito da pagine create, pagine eliminate, attraversamenti e query con la maggior parte del carico provenienti da attraversamenti di pagina e query. L'aggiunta e la rimozione di troppe pagine aumentano continuamente le dimensioni dell'area di lavoro e impediscono il completamento dei backup. La distribuzione del caricamento utilizzata dallo script è costituita dal 75% di attraversamenti pagina, dal 24% di query e dall’1% di creazioni di pagina (livello singolo senza pagine secondarie nidificate). Il picco medio delle transazioni al secondo in un sistema inattivo viene raggiunto con quattro thread simultanei, utilizzati durante il test dei backup sotto carico.
L'impatto del carico sulle prestazioni di backup può essere stimato dalla differenza tra le prestazioni con e senza questo carico dell'applicazione. L'impatto del backup sul throughput dell'applicazione viene rilevato confrontando il throughput dello scenario in transazioni all'ora con e senza backup simultanei in corso e con backup che operano con impostazioni di "ritardo di backup" diverse.
- Impostazione ritardo - Per diversi scenari, anche l'impostazione del ritardo di backup è stata modificata, utilizzando valori di 10 millisecondi (impostazione predefinita), 1 millisecondi e 0 millisecondi, per esplorare il modo in cui questa impostazione ha influito sulle prestazioni dei backup.
- Tipo di backup - Tutti i backup sono backup esterni dell'archivio effettuati in una directory di backup senza creare un file ZIP, tranne in un caso per il confronto in cui il comando tar è stato utilizzato direttamente. Poiché i backup incrementali non possono essere creati in un file zip o quando il backup completo precedente è un file zip, il metodo di directory di backup è il più utilizzato nelle situazioni di produzione.
Riepilogo dei risultati summary-of-results
Tempi e velocità effettiva di backup backup-time-and-throughput
Il risultato principale di questi benchmark consiste nel mostrare in che modo i tempi di backup variano in funzione del tipo di backup e della quantità complessiva di dati. Il grafico seguente mostra il tempo di backup ottenuto utilizzando la configurazione di backup predefinita, in funzione del numero totale di pagine.
I tempi di backup su un’istanza inattiva sono abbastanza coerenti, con una media di 0,608 MB al secondo, indipendentemente dai backup completi o incrementali (vedi grafico di seguito). Il tempo di backup dipende semplicemente dalla quantità di dati di cui viene eseguito il backup. Il tempo necessario per completare un backup completo aumenta notevolmente con il numero totale di pagine. Anche il tempo necessario per completare un backup incrementale aumenta con il numero totale di pagine, ma a una velocità molto inferiore. Il tempo necessario per completare il backup incrementale è molto più breve a causa della quantità relativamente ridotta di dati di cui viene eseguito il backup.
La dimensione del backup prodotto è il fattore determinante del tempo necessario per completare il backup. Il grafico seguente mostra il tempo impiegato in funzione delle dimensioni finali del backup.
In questo grafico viene illustrato che sia i backup incrementali che quelli completi seguono un semplice schema di dimensioni rispetto al tempo che Adobe può misurare come throughput. I tempi di backup su un'istanza inattiva sono abbastanza coerenti, con una media di 0,61 MB al secondo indipendentemente dai backup completi o incrementali nell'ambiente di benchmark.
Ritardo backup backup-delay
Il parametro relativo al ritardo del backup viene fornito per limitare la possibilità che i backup interferiscano con i carichi di lavoro di produzione. Il parametro specifica un tempo di attesa in millisecondi, che viene interrotto nell'operazione di backup file per file. L’effetto complessivo dipende in parte dalle dimensioni dei file interessati. La misurazione delle prestazioni di backup in MB/sec consente di confrontare gli effetti del ritardo sul backup.
- L'esecuzione di un backup in concomitanza con il normale carico dell'applicazione ha un impatto negativo sulla velocità effettiva del carico regolare.
- L’impatto può essere lieve (fino al 5%) o significativo, causando una riduzione del throughput fino al 75%. Probabilmente dipende soprattutto dall’applicazione.
- Il backup non è un carico pesante per la CPU e quindi i carichi di lavoro di produzione ad uso intensivo di CPU sarebbero meno interessati dai backup rispetto a quelli ad uso intensivo di I/O.
Per un confronto, la velocità effettiva ottenuta utilizzando un backup del file system ("tar") per eseguire il backup degli stessi file dell’archivio. Le prestazioni del tar sono paragonabili, ma leggermente superiori rispetto al backup con ritardo impostato su zero. Se si imposta anche un ritardo ridotto, la velocità effettiva del backup viene notevolmente ridotta e il ritardo predefinito di 10 millisecondi si traduce in una velocità effettiva notevolmente ridotta. In situazioni in cui i backup possono essere pianificati quando l'utilizzo complessivo dell'applicazione è basso o l'applicazione può essere inattiva, ridurre il ritardo al di sotto del valore predefinito per consentire al backup di procedere più rapidamente.
L'impatto effettivo della velocità effettiva delle applicazioni di un backup continuo dipende dai dettagli dell'applicazione e dell'infrastruttura. La scelta del valore di ritardo deve essere effettuata mediante l'analisi empirica dell'applicazione, ma deve essere scelta nel modo più piccolo possibile, in modo che i backup possano essere completati il più rapidamente possibile. Poiché esiste solo una debole correlazione tra la scelta del valore del ritardo e l'impatto sulla velocità effettiva dell'applicazione, la scelta del ritardo dovrebbe favorire tempi di backup complessivi più brevi per ridurre al minimo l'impatto complessivo dei backup. Un backup che richiede otto ore, ma influisce sul throughput del -20%, avrà probabilmente un impatto complessivo maggiore di quello di un backup che richiede due ore per essere completato, ma influisce sul throughput del -30%.