top of page

O que é e como funciona a virtualização?

Atualizado: 16 de fev. de 2023



A importância e as aplicações da virtualização se estendem muito além das máquinas virtuais Nenhum avanço na tecnologia da informação nas últimas seis décadas ofereceu uma maior variedade de benefícios quantificáveis ​​do que a virtualização. Muitos profissionais de TI pensam em virtualização em termos de máquinas virtuais (VM) e seus mecanismos de hipervisores e implementações de sistemas operacionais associados, mas que apenas desdobra a superfície. Um conjunto cada vez mais abrangente de tecnologias, capacidades, estratégias e possibilidades de virtualização está redefinindo os principais elementos da TI em organizações em todos os lugares.

Definição de virtualização

Examinando a definição de virtualização em um contexto mais amplo, definimos a virtualização como arte e ciência para tornar a função de um objeto ou recurso simulado ou emulado em software idêntico ao do objeto correspondente fisicamente realizado. Em outras palavras, usamos uma abstração para que o software pareça e se comporte como hardware, com benefícios correspondentes em flexibilidade, custo, escalabilidade, confiabilidade e, muitas vezes, capacidade geral e desempenho, e em uma ampla gama de aplicativos. A virtualização, então, torna "real" o que não é, aplicando a flexibilidade e a conveniência de recursos e serviços baseados em software como um substituto transparente para o mesmo realizado em hardware.

Histórico da máquina virtual

As máquinas virtuais rastreiam suas raízes de volta a um pequeno número de mainframes da década de 1960, mais notavelmente a IBM 360/67, e tornou-se um estabelecimento essencial no mundo mainframe durante a década de 1970. E com a introdução do 386 da Intel em 1985, as VMs se instalaram nos microprocessadores no coração dos computadores pessoais. As máquinas virtuais contemporâneas, implementadas em microprocessadores com o suporte de hardware necessário e com o auxílio de hipervisores e implementações de nível de sistema operacional, são essenciais para a produtividade de computação em todos os lugares, o que é mais importante a captura de ciclos de máquinas que, de outra forma, seriam perdidos no altamente capacitado 3- mais GHz processadores.

As VMs também fornecem segurança, integridade e conveniência adicionais, e com muito pequenas despesas gerais de computação. Além disso, também podemos ampliar o conceito (e a implementação) de VMs para incluir emuladores para intérpretes como o Java Virtual Machine e até simuladores completos. Executando Windows no MacOS? Simples. Código Commodore 64 em seu PC Windows moderno? Sem problemas.

O que é mais importante aqui é que o software que está executando dentro das VMs não tem conhecimento desse fato - mesmo um sistema operacional convidado de outra forma projetado para funcionar com o naked metal pensa que sua plataforma de "hardware" é exatamente isso. Aqui está o elemento mais importante da virtualização em si: uma encarnação da abordagem "caixa preta" para a implementação de sistemas de informação que dependem do isolamento habilitado pelas APIs e protocolos. Pense nisso no mesmo contexto do famoso Teste de Turing da inteligência da máquina - aplicativos, que são, afinal, a razão pela qual implementamos a infraestrutura de TI de qualquer forma, em primeiro lugar - não são mais sábios sobre exatamente onde estão sendo executados. E eles não precisam ser, aumentando a flexibilidade, reduzindo os custos e maximizando o RoI de TI na pechincha.



Evolução da virtualização

Na verdade, podemos rastrear as raízes da virtualização para a era do timesharing, que também começou a aparecer em torno do final da década de 1960. Embora os mainframes certamente não fossem portáteis, a qualidade e a disponibilidade rapidamente aumentadas de linhas telefônicas discadas e arrendadas e o avanço da tecnologia de modem possibilitaram a presença virtual do mainframe sob a forma de um terminal (tipicamente alfanumérico). Máquina virtual, de fato: este modelo de computação levou - através de avanços tanto na tecnologia como na economia dos microprocessadores - diretamente aos computadores pessoais da década de 1980, com computação local, além das comunicações dial-up que eventualmente evoluíram para a LAN e, em última instância, no acesso transparente e contínuo de hoje à Internet.

Também evoluindo rapidamente nos anos 60 foi o conceito de memória virtual, possivelmente tão importante quanto as máquinas virtuais. A era do mainframe apresentou uma memória de núcleo magnético incrivelmente dispendiosa e os mainframes com mais do que um único megabyte de memória eram raros até a década de 1970.


A memória virtual é habilitada, como é o caso das VM, de adições relativamente pequenas ao hardware e ao conjunto de instruções de uma máquina para permitir que partes de armazenamento, normalmente chamadas de segmentos e/ou páginas, sejam escritas no armazenamento secundário e para os endereços de memória dentro desses blocos para serem traduzidos dinamicamente à medida que são paginados de volta no disco. Voilà - um único megabyte real de memória central em um IBM 360/67, por exemplo, poderia suportar o espaço de endereço completo de 24 bits (16 MB) habilitado na arquitetura da máquina - e, corretamente implementado, cada máquina virtual poderia, além disso, ter seu próprio complemento completo de memória virtual.


Como consequência dessas inovações, ainda hoje em dia no trabalho, o hardware projetado para executar um único programa ou sistema operacional pode ser compartilhado entre os usuários, mesmo com múltiplos sistemas operacionais simultâneos e requisitos de memória maciça além da capacidade real provisionada. Tal como acontece com as VMs, os benefícios são numerosos: isolamento de usuários e aplicativos, segurança e integridade aprimoradas e, novamente, muito melhorado o RoI.

Após as máquinas virtuais e a memória virtual e a disponibilidade desses recursos em microprocessadores e PCs de baixo custo, o próximo avanço foi a virtualização da área de trabalho e, portanto, a disponibilidade de aplicativos, tanto de usuário único como colaborativo. Mais uma vez, devemos retornar ao modelo de compartilhamento de tempo apresentado acima, mas neste caso, estamos emulando a área de trabalho de um PC em um servidor e, essencialmente, a transmissão remota dos gráficos e outros elementos da interface do usuário através de uma conexão de rede, para um cliente de software apropriado e muitas vezes para um dispositivo de thin-client barato e fácil de gerenciar e seguro.


Todo o sistema operacional principal hoje oferece suporte a essa capacidade de alguma forma, com uma ampla variedade de produtos de hardware e software adicionais, incluindo VDI, o sistema X Windows e o VNC muito popular (e gratuito).

O próximo grande avanço, que se expande hoje em dia, também é a virtualização de processadores, armazenamento e aplicativos na nuvem, provisionando quaisquer recursos que possam ser necessários no presente e, em seguida, facilmente adicionando e ampliando o arsenal com essencialmente nenhum esforço na parte da equipe de TI. A poupança no espaço físico, as despesas de capital, a manutenção, o tempo de inatividade devido a interrupções, a despesa de mão-de-obra intensiva da solução de problemas (esperançosamente) problemas e interrupções de desempenho infrequentes, mas graves e muitos custos adicionais podem essencialmente pagar por soluções baseadas em serviços residentes na nuvem.


A virtualização de armazenamento, por exemplo, oferece inúmeras oportunidades aqui. Enquanto as unidades de disco podem ser virtualizadas como discos de RAM, unidades virtuais mapeadas em armazenamento baseado em rede e até mesmo integradas como hierarquias de armazenamento de nível único que se estendem para o Sistema IBM / 38 de quase 40 anos atrás, acreditamos que as implementações baseadas na nuvem de não apenas backup, mas também primário, o armazenamento se tornará mais comum, pois as redes com fio e sem fio fornecem um piso de desempenho de 1 Gbps - uma capacidade já comum em Ethernet, Wi-Fi 802.11ac e uma das próprias definições das próximas implantações 5G .

E falando de redes, mesmo estas estão sendo virtualizadas em um grau crescente, com a rede como um serviço (NaaS) agora uma opção viável e até desejável em muitos casos. Essa tendência acelerará com a adoção contínua da virtualização das funções de rede (NFV), que é pelo menos inicialmente de maior interesse para operadoras e operadores, especialmente no espaço celular. Significativamente, a virtualização de rede cria uma oportunidade real para as operadoras expandirem sua gama de serviços, aumentar a capacidade e aumentar seu valor e até mesmo a adesão aos clientes organizacionais.


Também é provável que, nos próximos anos, um número crescente de organizações de usuários finais aplicará o NFV em suas próprias redes e até mesmo em redes híbridas de operadoras / organizacionais (novamente, observe o fator de adesão aqui). Entretanto, as VLANs (802.1Q) e as redes privadas virtuais (VPN) adicionam seus próprios amplos benefícios às muitas aplicações e benefícios da virtualização contemporânea.


A virtualização se estende por toda a TI

Mesmo com a ampla gama de tecnologias de virtualização poderosas e capazes disponíveis, é, em última análise, a economia da virtualização funcional de larga escala que reúne o negócio. A natureza competitiva do modelo de negócios de serviços com base em nuvem em rápida evolução significa que a despesa operacional tradicional e intensiva em mão-de-obra incorrida pelas organizações de clientes provavelmente diminuirá ao longo do tempo, à medida que os prestadores de serviços aproveitem suas próprias curvas de experiência, desenvolvam novas economias multiclientes de escala e oferecem preços mais baixos para organizações de usuários finais simplesmente como resultado da concorrência no mercado.

Também é fácil aumentar a confiabilidade e a resiliência, empregando vários fornecedores de serviços na nuvem de forma totalmente redundante ou em modo hot-standby, eliminando a possibilidade de pontos únicos de falha. Nós vemos os elementos da despesa de capital dos orçamentos de TI cada vez mais evoluindo para despesas operacionais, passando esse tempo em provedores de serviços, em vez de mais equipamentos, instalações e funcionários locais. Agradecemos novamente o poder dos microprocessadores de hoje, os avanços na arquitetura de sistemas e soluções e, novamente, a melhoria dramática no desempenho de LANs e WANs (incluindo wireless), quase todos os elementos da TI hoje podem, de fato, ser virtualizados e até implementados como serviços on demand, escaláveis ​​e baseados na nuvem.

Embora tenha sido frequentemente descrito como tal, a virtualização em si não é uma mudança de paradigma. O que a virtualização, em qualquer uma das formas, é permitir que as atividades de TI em uma ampla gama de requisitos e oportunidades - como discutimos aqui - sejam realizadas de forma mais flexível, eficiente, conveniente e produtiva. Com base na estratégia de virtualização de grande parte da TI em serviços baseados em nuvem, a virtualização é melhor hoje considerada como um modelo operacional alternativo com vantagens econômicas que evitam a necessidade de implementações tradicionais.

Esta crescente virtualização da TI organizacional é, de fato, garantida graças a uma inversão essencial, e, novamente, fundamentalmente econômica, do modelo operacional de TI que rastreia suas raízes até o início da computação comercial. Nos primeiros dias da computação, nossos interesses estavam necessariamente focados em elementos de hardware caros e muitas vezes sobrecarregados, como mainframes, cujos custos intrínsecos motivaram as incursões iniciais na virtualização acima mencionada. À medida que o hardware se tornou mais barato, mais poderoso, mais econômico e quase padronizado, o foco mudou para aplicativos que funcionavam em ambientes essencialmente padronizados e virtualizados, desde PCs até navegadores.

O resultado líquido dessa evolução é o lugar onde chegamos hoje. Enquanto os computadores e a computação costumavam estar no cerne da TI, mudamos para o foco na informação e disponibilizamos essas informações a qualquer hora e em qualquer lugar. Esta "infocêntrica" ​​é a ética e a motivação geral que impulsionou a evolução da era móvel e sem fio própria - obter a informação que os usuários finais precisam (literalmente) suas mãos, onde e quando for necessário.

Então, o que começou como uma maneira de fazer um uso mais eficiente de um mainframe lento e caro evoluiu para o que agora está em vias de se tornar a estratégia dominante para definir o futuro da própria TI. Nenhuma inovação em TI teve um impacto maior do que a virtualização - e, com a mudança para infraestrutura virtualizada na nuvem, estamos realmente apenas iniciando.

Artigos por categoria

Receba nossa newsletter

Agradecemos sua inscrição!

Promoção Bitdefender
Licenças Microsoft
Simples IP VoIP
bottom of page