AEM 6.4 chegou ao fim do suporte estendido e esta documentação não é mais atualizada. Para obter mais detalhes, consulte nossa períodos de assistência técnica. Encontre as versões compatíveis here.
Ao dimensionar o ambiente para uma implementação do Adobe Experience Manager Assets, é importante garantir que haja recursos suficientes disponíveis em termos de disco, CPU, memória, E/S e throughput da rede. Dimensionar muitos desses recursos requer uma compreensão de quantos ativos estão sendo carregados no sistema. Se uma métrica melhor não estiver disponível, você pode dividir o tamanho da biblioteca existente pela idade da biblioteca para encontrar a taxa na qual os ativos são criados.
Um erro comum cometido ao dimensionar o espaço em disco necessário para uma implementação do Assets é basear os cálculos no tamanho das imagens brutas que serão assimiladas no sistema. Por padrão, Experience Manager cria três representações além da imagem original para uso na renderização da variável Experience Manager Elementos da interface do usuário. Em implementações anteriores, essas representações foram observadas para assumir o dobro do tamanho dos ativos que são assimilados.
A maioria dos usuários define representações personalizadas, além de representações predefinidas. Além das representações, os Ativos permitem extrair subativos de tipos de arquivos comuns, como InDesign e Illustrator.
Por fim, os recursos de controle de versão da AEM armazenam duplicatas dos ativos no histórico de versões. Você pode configurar as versões a serem removidas com frequência. No entanto, muitos usuários optam por reter versões no sistema por um longo tempo, o que consome espaço de armazenamento adicional.
Considerando esses fatores, você precisa de uma metodologia para calcular um espaço de armazenamento aceitável para armazenar os ativos do usuário.
A execução das etapas 1 a 9 ajuda a determinar o seguinte:
É possível especificar esses números na planilha de Dimensionamento de Rede para determinar o espaço total necessário para o armazenamento de dados. Também é uma ferramenta útil para determinar o impacto da manutenção de versões de ativos ou da modificação de ativos no Experience Manager no crescimento do disco.
O exemplo de dados preenchido na ferramenta demonstra a importância de executar as etapas mencionadas. Se você dimensionar o armazenamento de dados exclusivamente com base nas imagens brutas que estão sendo carregadas (1 TB), talvez tenha subestimado o tamanho do repositório em um fator de 15.
Para grandes armazenamentos de dados, você pode implementar um armazenamento de dados compartilhado por meio de um armazenamento de dados de arquivo compartilhado em uma unidade conectada à rede ou por meio de um armazenamento de dados S3. Nesse caso, instâncias individuais não precisam manter uma cópia dos binários. Além disso, um armazenamento de dados compartilhado facilita a replicação sem binários e ajuda a reduzir a largura de banda usada para replicar ativos para publicar ambientes ou descarregar instâncias.
O armazenamento de dados pode ser compartilhado entre uma instância de autor primária e de standby para minimizar a quantidade de tempo que leva para atualizar a instância de standby com alterações feitas na instância primária. O Adobe recomenda compartilhar o armazenamento de dados entre uma instância de autor principal e as instâncias de autor de descarga para reduzir os custos indiretos na descarga do fluxo de trabalho. Você também pode compartilhar o armazenamento de dados entre as instâncias de autor e publicação para minimizar o tráfego durante a replicação.
Devido a algumas armadilhas, o compartilhamento de um armazenamento de dados não é recomendado em todos os casos.
Com um armazenamento de dados compartilhado, o apresenta um único ponto de falha em uma infraestrutura. Considere um cenário em que o sistema tem uma e duas instâncias de publicação, cada uma com seu próprio armazenamento de dados. Se algum deles falhar, os outros dois ainda poderão continuar a funcionar. No entanto, se o armazenamento de dados for compartilhado, uma única falha de disco poderá derrubar toda a infraestrutura. Portanto, assegure-se de manter um backup do armazenamento de dados compartilhado de onde você pode restaurar o armazenamento de dados rapidamente.
A implantação do serviço AWS S3 para armazenamentos de dados compartilhados é preferível, pois reduz significativamente a probabilidade de falha em comparação com arquiteturas de disco normais.
Os armazenamentos de dados compartilhados também aumentam a complexidade das operações, como a coleta de lixo. Normalmente, a coleta de lixo para um armazenamento de dados independente pode ser iniciada com um único clique. No entanto, os armazenamentos de dados compartilhados exigem operações de varredura de marca em cada membro que usa o armazenamento de dados, além de executar a coleção real em um único nó.
Para operações AWS, a implementação de um único local central (via S3), em vez de construir uma matriz RAID de volumes EBS, pode compensar significativamente a complexidade e os riscos operacionais no sistema.
Um armazenamento de dados compartilhado requer que os binários sejam armazenados em uma unidade montada em rede compartilhada entre todas as instâncias. Como esses binários são acessados em uma rede, o desempenho do sistema é afetado negativamente. Você pode reduzir parcialmente o impacto usando uma conexão de rede rápida a um array de discos mais rápido. Mas essa é uma proposta cara. No caso de operações AWS, todos os discos são remotos e exigem conectividade de rede. Volumes efêmeros perdem dados quando a instância é iniciada ou interrompida.
A latência nas implementações S3 é introduzida pelos threads de escrita em segundo plano. Os procedimentos de backup devem levar em conta essa latência e quaisquer procedimentos de descarga. O ativo S3 pode não estar presente no S3 quando um trabalho de descarregamento é iniciado. Além disso, os índices Lucene podem permanecer incompletos ao fazer um backup. Aplica-se a qualquer arquivo com diferenciação de tempo gravado no armazenamento de dados S3 e acessado de outra instância.
É difícil obter números de dimensionamento precisos para um NodeStore ou DocumentStore devido aos recursos consumidos pelos seguintes:
Como os binários são armazenados no armazenamento de dados, cada binário ocupa algum espaço. A maioria dos repositórios tem menos de 100 GB. No entanto, pode haver repositórios maiores de até 1 TB. Além disso, para executar a compactação offline, é necessário espaço livre suficiente no volume para reescrever o repositório compactado junto com a versão pré-compactada. Um princípio básico é dimensionar o disco para 1,5 vezes o tamanho esperado para o repositório.
Para o repositório, use SSDs ou discos com um nível de IOPS superior a 3000. Para eliminar as chances de os IOPS introduzirem gargalos de desempenho, monitore os níveis de espera de E/S da CPU para obter sinais antecipados de problemas.
Assets O tem vários casos de uso que tornam o desempenho da rede mais importante do que em muitos de nossos Experience Manager projetos. Um cliente pode ter um servidor rápido, mas se a conexão de rede não for grande o suficiente para suportar a carga dos usuários que estão carregando e baixando ativos do sistema, ele ainda parecerá estar lento. Há uma boa metodologia para determinar o ponto de estrangulamento na conexão de rede de um usuário para Experience Manager at Experience Manager Considerações de ativos para experiência do usuário, dimensionamento de instâncias, avaliação de fluxos de trabalho e topologia de rede.
Se você adicionar o Experience Manager para o aplicativo de desktop da combinação, os problemas de rede se tornam mais graves devido a ineficiências no protocolo WebDAV.
Para ilustrar essas ineficiências, o Adobe testou o desempenho do sistema usando o WebDAV no OS X. Um arquivo de InDesign de 3,5 MB foi aberto, editado e as alterações foram salvas. Foram feitas as seguintes observações:
Ao analisar o tempo médio de economia para arquivos no WebDAV, descobriu-se que o desempenho aumenta drasticamente à medida que a largura de banda aumenta até o nível de 5 a 10 Mbps. Portanto, a Adobe recomenda que cada usuário que acessar o sistema simultaneamente tenha pelo menos 10 Mbps de velocidade de upload e 5-10 Mbps de largura de banda.
Para obter mais informações, consulte Solução de problemas Experience Manager aplicativo de desktop.
Ao dimensionar uma implementação, é importante manter as limitações do sistema em mente. Se a implementação proposta exceder essas limitações, utilize estratégias criativas, como a divisão dos ativos em várias implementações do Assets.
O tamanho do arquivo não é o único fator que contribui para problemas de falta de memória (OOM). Também depende das dimensões da imagem. Você pode evitar problemas de OOM fornecendo um tamanho de heap mais alto ao iniciar o AEM.
Além disso, é possível editar a propriedade threshold size do com.day.cq.dam.commons.handler.StandardImageHandler
no Configuration Manager para usar um arquivo temporário intermediário maior que zero.
O limite para o número de arquivos que podem existir em um armazenamento de dados pode ser de 2,1 bilhões devido às limitações do sistema de arquivos. É provável que o repositório encontre problemas devido a um grande número de nós muito antes de atingir o limite do armazenamento de dados.
Se as renderizações forem geradas incorretamente, use a biblioteca Camera Raw. No entanto, nesse caso, o lado mais longo da imagem não deve ser maior que 65.000 pixels. Além disso, a imagem não deve conter mais de 512 MP (512 * 1024 * 1024 pixels)'. A dimensão do ativo é inconsequente.
É difícil estimar com precisão o tamanho do arquivo TIFF compatível pronto para uso (OOTB) com um heap específico para Experience Manager porque fatores adicionais, como tamanho de pixel, influenciam o processamento. É possível que Experience Manager O pode processar um arquivo de tamanho de 255 MB OTB, mas não pode processar um tamanho de arquivo de 18 MB, pois o último consiste de um número invulgarmente maior de pixels em comparação ao primeiro.
Por padrão, Experience Manager O permite carregar ativos de até 2 GBs. Para fazer upload de ativos muito grandes no AEM, consulte Configuração para fazer upload de ativos muito grandes.