La virtualisation consiste à émuler les fonctionnalités matérielles pour exécuter un système informatique virtuel à partir d’une couche d’abstraction. Plusieurs types de virtualisation existent :
Le premier avantage de la virtualisation se résume en la réduction des coûts (parc informatique, câbles, salles…) tout en optimisant les capacités des postes de travail. Cependant, les environnements virtuels sont automatiquement plus complexes ; leur gestion est à considérer différemment. Plusieurs défis sont donc à relever. En voici un condensé accompagné des solutions adéquates.
Ces différents systèmes virtuels sont tout aussi vulnérables qu’un ordinateur physique. La première source de vulnérabilité est de l’ordre humain : phishing, mots de passe faibles, téléchargements dangereux, etc.
Le défi est de rendre l’infrastructure de virtualisation la plus sûre possible et capable de lutter contre l’hyper-jacking et le guest-hopping. Le logiciel appelé hyperviseur, abus de langage pour nommer le système d’exploitation hôte, est en effet le seul point de défaillance de la sécurité.
L’hyper-jacking se résume en l’installation d’un hyperviseur malveillant pouvant prendre le contrôle total d’un serveur. Le comble est que les mesures de sécurité habituelles sont inefficaces puisque le système d’exploitation est incapable de savoir que la machine est compromise.
Le guest-hopping, saut d’invité ou saut de machine virtuelle, est une autre menace tout aussi sérieuse et réaliste. Les vulnérabilités des systèmes d’exploitation sont mises à profit pour permettre l’installation de logiciels malveillants ou des assauts distants. Les machines virtuelles les plus faibles deviennent des portes d’entrée pour accéder à d’autres.
Seules les mesures proactives, comme le durcissement de l’environnement (accès sécurisé) et l’isolement de chaque machine virtuelle, sont efficaces contre ces attaques.
Allez plus loin en lisant Comment sensibiliser les équipes à la sécurité informatique ?
Maintenant que les bonnes mesures de sécurité ont été adoptées, la répartition des ressources informatiques est un autre pilier de l’optimisation de la virtualisation. On distingue :
La bonne optimisation de la virtualisation dépend essentiellement de comment sont partitionnés les systèmes. Une mauvaise répartition des ressources peut entraîner un accès limité aux ressources répondant aux besoins des utilisateurs. Elle peut aussi être à l’origine d’une sous-exploitation du serveur ou de la puissance de calcul de l’infrastructure virtuelle.
Les problèmes de répartition des ressources interviennent généralement au début de la transition vers la virtualisation. À l’aide de votre logiciel de virtualisation (Oracle VM VirtualBox, Microsoft Hyper-V, VMware vCenter…), assurez une bonne répartition des ressources virtuelles.
La technologie de virtualisation offre la possibilité de créer des machines virtuelles autant qu’on le souhaite. Obtenir ainsi de multiples postes de travail et serveurs virtuels sans augmenter la taille de votre parc informatique est un luxe, mais au risque parfois d’une prolifération de machines virtuelles.
Le challenge consiste ici à bien mesurer les besoins réels de votre entreprise, car la propagation excessive de systèmes virtuels peut entraîner :
Dans ce dernier cas, le partitionnement des ressources informatiques est mis à mal ; des machines virtuelles ne sont pas exploitées alors qu’elles utilisent une part de la puissance de calcul des processeurs.
Le meilleur moyen de parer à ce problème est de réaliser une estimation exacte des postes virtuels nécessaires et d’assurer le provisionnement ultérieur en fonction des besoins. Vous pouvez aussi assurer une surveillance permanente afin d’identifier les machines virtuelles inutilisées, celles sous-exploitées ou surexploitées afin d’ajuster la quantité.
La surveillance des performances des serveurs virtuels est différente de celle d’un serveur physique. Dans un monde uniquement physique, les capacités d’une machine physique sont exploitées par un seul système d’exploitation. La virtualisation entraîne une division des ressources physiques en fonction du nombre de machines virtuelles.
Il ne suffit pas de suivre les chiffres démontrant l’exploitation des composants de l’infrastructure informatique (CPU, GPU, RAM, périphériques de stockage). Lorsqu’une machine hôte dispose de 50 machines virtuelles, chacune d’elles utilise les ressources physiques ainsi partagées.
La seule solution est de suivre individuellement les performances de chaque machine virtuelle. Cette tâche est complexifiée si vous procédez à une migration en direct des machines virtuelles.
Un outil comme VMmark permet de créer des comparatifs (benchmark) pour surveiller l’utilisation des ressources.
Une mauvaise répartition des ressources et un mauvais suivi des performances peuvent générer un effet « goulot d’étranglement ». Il survient lorsque les utilisateurs concentrent leur demande en ressources.
Ce challenge de la virtualisation est d’autant plus difficile lorsque les configurations des machines physiques proposent une capacité de calcul trop faible, une mémoire vive (RAM) trop juste ou un espace disque insuffisant.
Le plus difficile est de situer la source du problème générant un goulot d’étranglement.
Les causes étant nombreuses, les solutions le sont aussi.
Les solutions de virtualisation constituent un moyen extraordinairement pratique et économique pour s’adapter à l’évolution d’une entreprise sans devoir acheter de nouveaux équipements. Migrer vers les technologies de virtualisation demande cependant une bonne planification des capacités nécessaires. Sinon, vous risquez ce que nous avons vu ci-dessus.
La planification de la capacité induit de facto une surveillance permanente de l’infrastructure virtuelle. Il est en effet nécessaire d’identifier les besoins en ressources en temps réel, mais aussi sur une période de temps à venir.
Il existe des outils de gestion et de planification de la capacité des machines virtuelles. Ils permettent, en outre, de :
Migrer vers la virtualisation, c’est comme migrer vers le cloud, ça ne s’invente pas et même en suivant les bonnes étapes vous pourrez remarquer que les choses ne fonctionnent pas aussi bien que prévu.
Découvrez nos outils phares à utiliser dans une transformation cloud !
En effet, les systèmes hérités et les nouveaux logiciels et programmes virtualisés peuvent ne pas être compatibles. Le véritable challenge ici est de rendre compatibles entre eux tous les programmes virtualisés.
Exploitez les forces de votre solution de virtualisation pour détecter les dernières versions et procéder aux mises à jour nécessaires. Le fournisseur de machine virtuelle peut aussi proposer des solutions de contournement pour assurer le bon fonctionnement de l’ensemble.
L’utilisation des logiciels est le plus souvent soumise à une licence. Traditionnellement, une licence est accordée pour un poste de travail physique. Or, la virtualisation permet de multiplier le nombre de postes de travail virtuels sur une seule et même machine.
Défi
De nombreux éditeurs de logiciels ignorent carrément ce problème et se cantonnent au domaine physique. D’autres proposent des licences basées sur l’utilisation maximale des ressources ou sur le nombre d’instances en cours d’exécution. Exemples :
La conformité des licences est pourtant un point essentiel pour assurer un bon environnement virtuel. Or, le piège est d’utiliser une seule et même licence sur plusieurs machines virtuelles sous couvert qu’elles sont rattachées à un seul ordinateur physique.
Prenez le temps d’examiner et de comprendre les règles de licence d’utilisation des logiciels que vous employez. Généralement, chaque machine virtuelle nécessite une licence.
L’augmentation du nombre d’ordinateurs virtuels ou du nombre de serveurs virtuels induit la multiplication de disques virtuels où sont sauvegardées les données.
Bien qu’un disque virtuel se place sur des disques durs physiques, leur accès n’est possible que depuis les machines virtuelles les utilisant. L’accès est donc difficile et les mises à jour logicielles fréquentes sont compliquées à mettre en place.
Utilisez des outils comme Windows Server Backup. Ils permettent de faciliter le processus d’évolutivité et de mise à jour logicielle et d’accès des sauvegardes.
© 2023 Groupe Ozitem Mentions légales Politique de confidentialité