+55 (11) 2078-4221

Precisamos falar sobre latência

25

set, 18

Precisamos falar sobre latência

Estratégia de fornecedores de trazer nuvens mais próximas de clientes amplia capacidade de levar sistemas críticos para cloud

Um dos principais argumentos usados por empresas que evitam levar seus sistemas e cargas de trabalho para a nuvem é a latência. De forma bem simplista, latência refere-se ao intervalo existente entre apertar um botão para executar um comando e aquele comando ser, de fato, executado.

Quando falamos de cloud, precisamos considerar que a execução de uma tarefa se dá em um centro de dados normalmente localizado distante da empresa que usará o serviço. Portanto, quanto maior essa distância, maior tende a ser a latência.

Nós, enquanto usuários domésticos, geralmente não somos afetados pela latência em si, mas pelo seu efeito em algumas aplicações. Uma latência de 100 ms para fazer o download de uma página da internet seria maravilhosa, mas 100 ms de latência no data center fazem com que os protocolos subjacentes limitem a velocidade de transmissão. Assim, o que vemos são segundos (e não milissegundos) de atraso.

Considerando que a criticidade dos sistemas corporativos é maior do que no universo de consumo – afinal, indisponibilidade no software de gestão pode acarretar perdas grandes de faturamento. Assim, para empresas, milissegundos podem fazer um mundo de diferença e a capacidade de resposta das aplicações pode trazer prejuízos. Justamente por isso é vital entender adequadamente o conceito de latência.

De maneira geral, três fatores principais contribuem significativamente para a latência; atraso de propagação, roteamento e comutação e enfileiramento e armazenamento em buffer.

O termo atraso é frequentemente usado de forma intercambiável com a latência, mas há uma diferença sutil entre os dois. Atraso de propagação refere-se à quantidade de tempo que leva para o primeiro bit percorrer um link entre remetente e destinatário, enquanto latência se refere ao tempo total necessário para enviar uma mensagem inteira.

O principal fator que contribui para a latência é o atraso de propagação, que é calculado como uma função da distância sobre a velocidade de propagação da onda (d/s). Nessa equação, a velocidade é expressa em relação à velocidade da luz, mas isso não significa que você poderá compartilhar memes de gato com seu amigo do outro lado do mundo em um piscar de olhos. A velocidade da luz através do cabo de fibra ótica é de aproximadamente 1ms por 200km, o que é cerca de 30% menor que a velocidade da luz no vácuo (299.792.458 metros por segundo).

Se você estiver enviando um .JPG de Los Angeles para seu amigo em Nova York, você pode esperar uma latência de ~ 22.45ms para transmitir esses dados a uma distância de 4.488,9km em um link de fibra, mas a latência de ponta a ponta é geralmente medida como um tempo de ida e volta em vez de 1 ida. Como o caminho geralmente não é direto entre dois pontos, a latência entre países geralmente pode se situar entre 100 e 120 ms em vez de 22 ms.

Para memes de gato enviados entre amigos, como o exemplo citado acima, não há motivos para grandes dores de cabeça. Porém, quem roda sistemas empresariais em nuvens normalmente coloca na balança o tema da distância entre o usuário da aplicação e a localização física do data center.

Claro, que o cenário descrito aqui talvez soe como uma simplificação excessiva de eventos de rede complexos. É importante lembrar que há uma infinidade de outros fatores que podem causar latência. De qualquer maneira, a ideia é que a latência afeta significativamente a capacidade de resposta do aplicativo e o principal fator que contribui para a latência é a distância.

Aplicativos que parecem altamente responsivos em uma rede local podem ter um desempenho terrível quando implantados em uma rede de longa distância quando a distância é introduzida. Embora nunca possa ser reduzido a zero, desde que os aplicativos sejam desenvolvidos para lidar com isso, podemos manter um passo à frente da latência.

Pensando justamente nesse ponto, grandes players trazem seus data centers para próximo dos clientes. Foi o que fez a Microsoft e a IBM, que apostam alto no modelo. Com nuvens instaladas no Brasil, serviços como Azure e Office conseguem entregar qualidade, instabilidade e desempenho sem precedentes.

Além disso, manter uma infraestrutura mais próxima dos clientes brasileiros abre oportunidade para que companhias no país migrem cada vez mais aplicações de negócio de missão crítica para um modelo “as a service”, sem perder performance. Aliás, é importante salientar que essas nuvens no Brasil se conectam com outras clouds espalhadas pelo mundo e ampliam também recursos de segurança aos usuários.

COLOR SCHEME Unlimited color options are avaliable via Options Panel.