Encontrar empresa por:

Ícone TítuloNotícias

Compartilhe:

Desenvolvendo o cenário das técnicas analíticas de big data

31/01/2014

Por Jennifer Kuvlesky, da SolarWinds
 
As técnicas analíticas e "big data" são assuntos em voga hoje em dia para melhorar os resultados comerciais. As técnicas analíticas de operações de TI têm tudo a ver com a utilização de métodos de análise para melhorar o desempenho do serviço de TI, facilitando a vida dos gerentes das operações de TI. Essa noção existe já há algum tempo, começando com mecanismos de correlação de eventos. Atualmente, existem vários métodos disponíveis para analisar os dados de eventos e de desempenho para melhor prever e evitar falhas de serviço, além de otimizar o desempenho da infraestrutura. Entre esses métodos estão:
 
•         Gestão de eventos: a gestão de eventos está focada na coleta, filtragem e correlação de eventos para ajudar as operações de TI a reduzir o número de eventos, deixando apenas os mais importantes que exigem alguma ação. Como a organização de TI de cada empresa é única, escrever regras de correlação era um esforço manual e demorado. Com o tempo, os mecanismos de correlação de eventos se transformaram e ficaram mais amigáveis, com regras e relatórios predefinidos para correlacionar eventos. Por exemplo, agora há todo um segmento de softwares focados na coleta, correlação e criação de relatórios de eventos especializados (muitas vezes com regras automatizadas de mitigação) para garantir a segurança. Esse segmento é comumente chamado de gestão de eventos e informações de segurança, ou SIEM, na sigla em inglês.
 
•         Limites da linha de base: essa tecnologia serve para reduzir os falsos alertas ao avisar apenas quando o desempenho se desvia do comportamento normal. Já vi comportamento "normal" sendo calculado de algumas maneiras diferentes. Em alguns produtos, o comportamento normal é dinâmico, o que significa que a linha de base muda automaticamente ao longo do tempo. Um dos problemas com esse método é que, se o desempenho dos aplicativos muda gradualmente com o tempo, a linha de base é calculada com base na média geral. Assim, se seu aplicativo começou usando 20% de CPU e agora usa 80% de CPU, a linha de base será a média de 50%. No segundo método que já vi, a linha de base é feita a partir de um instantâneo do comportamento normal, tirado a cada 7 ou a cada 30 dias, por exemplo. Se o comportamento muda com o tempo, o administrador terá que tirar outro instantâneo do comportamento normal. Em um mundo perfeito, você poderia definir um alerta para automaticamente registrar a linha de base usando critérios selecionados.
 
•         Planejamento de capacidade: com recursos compartilhados virtualizados, tornou-se necessário entender como eles são usados para isolar os pontos de estrangulamento e maximizar a utilização a fim de evitar a compra desnecessária de hardware (com custos associados de software). Existem muitas ferramentas de planejamento de capacidade no mercado que analisam a expansão e a capacidade de VMs em termos de recursos de servidor e armazenamento.
 
•         Técnicas analíticas preditivas: esse é o mais extravagante de todos os recursos, em que o software aprende as relações e os padrões de comportamento para modelar resultados futuros através de algoritmos inteligentemente desenvolvidos. Esse recurso vem sendo usado em muitos outros setores para melhorar os resultados comerciais, e agora está sendo aplicado à TI. Algumas soluções focadas nessa tecnologia utilizam diversos produtos para atingir o resultado desejado, que muitas vezes é caro e leva tempo para ser implantado. Esse recurso ainda não está pronto para as massas, mas tenho certeza de que alguma empresa, provavelmente muito em breve, descobrirá como deixá-lo mais digerível para empresas de todos os tamanhos.
 
Olhando para o futuro, prevejo que a próxima fase das técnicas analíticas das operações de TI caminhará para ajudar outros profissionais de TI, como as equipes de desenvolvimento e da Web, a melhorar o desempenho do aplicativo. Por exemplo, geralmente olhamos para o número de pessoas que entram na página, de visitantes que preenchem um formulário de inscrição, de visitantes que vão embora etc., para determinar como melhorar as páginas e, com isso, melhorar a conversão. No entanto, há mais elementos para essa tal conversão do que palavras na página. A velocidade com que a página é carregada é fundamental para a conversão e para a otimização do site, especialmente ao realizar testes A/B.
 
Consigo imaginar uma visão comum desses indicadores comerciais de sucesso, combinados a métricas de desempenho de infraestrutura e aplicativos, ajudando administradores e engenheiros a tomar decisões melhores (e ter justificativas para solicitar recursos para isso). Com isso, é possível melhorar o desempenho da infraestrutura e dos aplicativos para obter os resultados comerciais desejados.