window.dataLayer = window.dataLayer || []; function gtag(){dataLayer.push(arguments);} gtag('js', new Date()); gtag('config', 'UA-66399486-1'); La virtualisation | NETWORKVM

La virtualisation

By NETWORKVM -
-Introduction
-Le principe
-Bénéfices
-Editeurs et solutions
-Mécanismes ajoutées



Introduction:
Les technologies de virtualisation sont en train de bousculer totalement le paysage informatique. Cette technologie permet à un ordinateur physique, originalement destiné à exécuter un seul système d’exploitation, d’héberger et exécuter en parallèle plusieurs instances de systèmes d’exploitation différents. Nous allons maintenant aborder ce concept plus en détail.



-Le principe:


Sur toute machine physique, une couche hardware est présente. Cette couche représente l’ensemble des périphériques matériels nécessaires au bon fonctionnement de l’ordinateur. Il existe de nombreux types de périphériques, tels que le processeur, la mémoire, les cartes réseau et les disques durs, et pour chaque périphérique, il existe de nombreux constructeurs différents. Le schéma suivant illustre L’architecture classique, composée de deux couches :
La couche matérielle, représentée par un serveur, caractérise l’ensemble des périphériques matériels.
La couche logicielle, qui comprend le système d’exploitation et les applications.





                  
Les constructeurs de périphériques informatiques, incluent dans leurs produits des technologies brevetées dont ils sont les propriétaires, il en résulte un véritable problème, à savoir que pour un type de périphérique, une carte réseau par exemple, ayant une même fonction, en l’occurrence connecter la machine au réseau, deux modèles de constructeurs différents seront bel et bien différents pour le système d’exploitation. Pour faire fonctionner l’un ou l’autre, le système d’exploitation aura besoin du pilote adéquat.
Un pilote est un ensemble d’instructions qui indiquent au système d’exploitation comment utiliser le périphérique matériel. Si un type de périphérique est remplacé, alors le système d’exploitation ne reconnaitra ce périphérique qu’en présence du pilote du nouveau constructeur.
Les technologies de virtualisation ajoutent une nouvelle couche à l’architecture classique en lieu et place du système d’exploitation. Cette couche est appelée Hyperviseur.
Un hyperviseur opère entre la couche matérielle et les différents conteneurs qui lui sont ajoutés. Chaque conteneur, également appelé machine virtuelle, contient une instance d’un système d’exploitation et une ou plusieurs applications. La couche de virtualisation simule des périphériques virtuels pour chaque machine virtuelle et s’occupe de faire le lien entre les périphériques virtuels et les périphériques physiques.
Un hyperviseur peut faire tourner simultanément de nombreux systèmes d’exploitation de tous types (Windows, Linux, Unix/BSD …), qui plus est, pour chaque machine virtuelle, un jeu de pilotes génériques est spécifié. Ainsi quelle que soit la couche matérielle sur laquelle l’hyperviseur est installé, les machines virtuelles fonctionneront sans avoir besoin du pilote du constructeur. Et un changement de matériel n’aura aucune incidence sur les machines virtuelles.

Le schéma suivant illustre le principe de fonctionnement d’une architecture virtuelle, composée de trois couches :
La couche matérielle, représentée par un serveur, caractérise l’ensemble des périphériques matériels.
La couche logicielle qui est composée de l’hyperviseur(ESX) en lieu est la place du système d’exploitation de l’architecture classique.
Les différents conteneurs comprenant un système d’exploitation et des applications.

NOTE : les schémas précédents illustrent le principe de fonctionnement d’une architecture virtuelle basée sur les solutions de l’éditeur VMware. Le principe de fonctionnement est similaire quel que soit l’hyperviseur installé. Nous verrons plus loin sur les différents éditeurs et les solutions qu’ils proposent.
La virtualisation est au cœur du principe du cloud computing, qui consiste en une agrégation de toutes les ressources disponibles pour former un nuage et qui permet l’allocation de ces ressources aux différents services. Dans le cas présent, l’hyperviseur agrège les ressources physiques et les répartit aux différentes machines virtuelles.

-Bénéfices:

Les bénéfices dégagés par l’utilisation des technologies de virtualisation sont multiples, nous décrirons ici les principaux.
Consolidation : La virtualisation permet au service informatique d’optimiser l’utilisation de ses ressources physiques en utilisant le principe des machines virtuelles. Plus tard dans ce document, nous verrons qu’il n’est pas rare d’observer des machines physiques dont l’utilisation n’excède pas 10% de leurs capacités réelles.

Réduction du TCO (Total Cost of Ownership) : Les dépenses en matériel informatique sont une problématique en entreprise. En effet si un matériel est amorti sur 5 ans, une fois amorti, le serveur arrive en fin de vie et à besoin d’être remplacé. Ce cycle de vie est considérablement réduit par la recherche et le développement conduisant à une innovation rapide dans le secteur informatique. La loi de Moore, vérifiée depuis 1973, stipule que la puissance des processeurs double tous les 18mois, le matériel est donc en plus de souvent être sous-utilisé, rapidement obsolète.

Continuité d’activité : Au travers des fonctionnalités introduites par la virtualisation, que nous aborderons par la suite, il est possible d’améliorer la continuité d’activité en améliorant considérablement la tolérance de panne, la haute disponibilité.

Optimisation de la qualité de service : Déployer un serveur opérationnel est une tâche lourde dans une architecture classique, impliquant de nombreux acteurs et demandant beaucoup de temps. La virtualisation met en place des processus facilitant cette opération et le déploiement de nouvelles machines virtuelles ne nécessite plus que quelques minutes.

-Editeurs et solutions

Le marché des solutions de virtualisation est un marché extrêmement concurrentiel. Parmi les principaux acteurs composant ce marché, nous détaillerons les offres des trois principaux éditeurs, à savoir Vmware, Citrix et Microsoft.



Citrix : Citrix à rejoins le marché de la virtualisation en 2007 suite à l’achat de XenSource, une compagnie ayant développé son propre hyperviseur. L’offre de virtualisation de Citrix contient différents produits, Citrix a également noué de solides partenariat avec l’éditeur Microsoft permettant de faciliter l’intégration de ses solutions de virtualisation au sein d’une architecture Microsoft.



Microsoft: Microsoft est arrivé sur le marché de la virtualisation récemment, avec son Hyperviseur baptisé Hyper-V qui se présente sous la forme d’un rôle disponible avec les dernières éditions des systèmes d’exploitation de la gamme serveurs de la firme, à savoir Windows 2008 Server.




VMware: VMware est probablement le plus vieux et le plus gros éditeur sur le marché de la virtualisation. Filiale du groupe EMC et fondée en 1998, cette compagnie propose une gamme de produits et services complète associée à la virtualisation d’architectures x86.

-Mécanismes ajoutées:

Les différentes solutions des éditeurs énumérés précédemment présentent certains mécanismes en commun. Ces mécanismes, que nous qualifierons de mécanismes à forte valeur ajoutée, constituent l’un des principaux attraits pour ces technologies. Nous allons maintenant définir ces différents mécanismes et en quoi ils sont synonymes de valeur ajoutée pour l’entreprise.

Migration de serveurs à chaud

Le mécanisme de migration de serveurs à chaud consiste à permettre à l’administrateur de déplacer ses machines virtuelles d’un hôte vers un autre sans interruption de service. Dans le cadre d’une architecture classique, ce mécanisme consisterait à réaliser une copie carbone d’un serveur, puis à l’appliquer sur un autre. Cela implique une interruption de service et généralement des problèmes liés à la couche hardware qui, différente de l’originale, peut-être entrainer erreurs ou d’incompatibilités.
Dans une architecture virtuelle, ces barrières sont levées par l’utilisation de pilotes hardware génériques indépendants du matériel du serveur hôte. Ce mécanisme, illustré sur le schéma ci-dessous, facile les opérations de maintenance des serveurs dans la mesure où il est possible de libérer totalement un serveur hôte de ses machines virtuelles pour réaliser une mise à niveau matérielle par exemple.

Haut disponibilité de l'infrastructure
Le mécanisme de migration à chaud présenté ci-dessus représente la pierre angulaire de la haute disponibilité de l’infrastructure. En effet dès lors qu’une panne survient sur l’un des serveurs hôtes de l’infrastructure, il est possible de définir des actions automatiques pour garantir la continuité de service. Ces actions consistent principalement à isoler le serveur hôte défaillant en migrant les machines virtuelles qu’il héberge sur le reste des serveurs sains de l’architecture disposant de ressources suffisantes pour garantir une qualité de service suffisante.
L’administrateur peut ainsi définir différentes actions à réaliser comme le déplacement des machines virtuelles vers de nouveaux serveurs hôtes, l’arrêt des machines virtuelles supportant une interruption de service de manière à optimiser l’allocation des ressources disponibles sur les serveurs restants. Le schéma ci-dessous illustre ce principe.

Gestion des ressources énergétiques

Si nous avons vu précédemment que le mécanisme de migration à chaud permet de garantir une automatisation des procédures à appliquer en cas de panne matérielle sans influer sur la disponibilité des serveurs, il introduit également la possibilité de mieux gérer les ressources énergétiques de l’infrastructure.
Concrètement, l’infrastructure est capable de répartir intelligemment les ressources disponibles entre les différentes machines virtuelles. Dans le cas où les serveurs hôtes disposeraient de ressources non-utilisées, l’infrastructure réagit en repositionnant automatiquement les machines virtuelles pour garantir une utilisation optimale de la ressource. Les serveurs libérés de leurs machines virtuelles sont positionnés dans un état d’hibernation en attendant une nouvelle montée en charge ou un besoin supplémentaire en ressources pour se réveiller. Ce mécanisme est illustré:


Gestion des sauvegardes

Un autre point fort de l’infrastructure virtuelle face à une architecture classique est la gestion des sauvegardes. Dans une architecture classique, il n’est pas rare de voir cohabiter de multiples solutions différentes, sur des supports différents (stockage en réseau, bande magnétique …). Cela induit la mise en place de procédures différentes selon le cas de figure face auquel l’administrateur se trouve confronté lors de la restauration d’une sauvegarde.
La virtualisation permet de gérer de manière intelligente les mécanismes de sauvegardes, en effet les machines virtuelles se présentant sous la forme de fichier, leur sauvegarde s’en trouve facilitée. Le mécanisme de snapshot illustre à lui seul la facilité déconcertante avec laquelle il est possible de réaliser une copie de sauvegarde. De même, la restauration d’une sauvegarde ultérieure d’une machine virtuelle ne nécessite pas plus de quelques minutes.



Gestion du réseaux

Autre grand avantage de la virtualisation, la gestion du réseau se trouve considérablement facilitée. Les serveurs devenant virtuels, les appareils d’interconnexion sont supprimés et remplacés par une couche logicielle faisant office de commutateur. Ce commutateur virtuel permet d’interconnecter les machines virtuelles des différents serveurs hôtes et comporte la plupart des mécanismes de gestion avancée du réseau comme la norme 801.1q.




























Articles suivant: ESXi-5

Tags: