Le spécialiste européen de la formation certifiante en informatique et management pour les entreprises

Six risques liés à la virtualisation selon le Gartner

60% des serveurs virtualisés qui remplaceront les serveurs physiques d'ici 2012 seront apparemment moins bien sécurisés. Cette situation est préoccupante, toutefois cette proportion devait descendre à 30% d'ici 2015. C’est ce qu’indique le Gartner dans une étude Intitulée « Adressing the Most Common Security Risks in Data Center Virtualization Projects » qui pointe sur les six risques les plus fréquents dans une démarche de virtualisation.

« Intrinsèquement, la virtualisation ne pose pas de problème » explique Neil MacDonald de Gartner, en revanche, la plupart des workloads (combinaison de l'environnement système et des applications qui tournent dessus) virtualisés sont déployés de manière non sécurisée. Un problème dû à la fois à l'immaturité des outils et process, mais aussi à la formation limitée des agents techniques, des revendeurs et des consultants.

Les recherches menées par le Gartner indiquent par ailleurs qu'à la fin de l'année dernière, seulement 18% des workloads ont été virtualisés et que cette proportion devrait atteindre 50% d'ici 2012. Cela dit, avec cette augmentation certains problèmes de sécurité devraient commencer à se poser.

Pour Gartner, la question de la sécurité doit être prise de manière inhérente au projet de virtualisation, depuis le début. Le cabinet note par exemple qu'en 2009, 40% des projets de déploiement de virtualisation ont été menés sans la participation des responsables de sécurité de la DSI.

C’est dans un tel contexte que le Gartner identifie les six risques les plus fréquents liés à la mise en œuvre d’un projet de virtualisation et formule des recommandations pour les surmonter.

1/ La problématique de la sécurité n’est pas intégrée dès le début du projet de virtualisation
On vient de la voir, 40 % des projets sont lancés sans même prendre en compte les problèmes de sécurité, une amélioration par rapport au 50 % constatés un an plus tôt mais qui reste insuffisante. En général, les responsables des projets expliquent que la virtualisation ne change pas les questions de sécurité et qu’ils possèdent les compétences nécessaires pour sécuriser les différentes couches du système, du serveur aux applications. Mais cette position ignore l’existence même des les nouvelles couches logicielles de virtualisation. Il existe des risques liés au niveau physique et au niveau virtuel.
Les risques qui ne sont pas documentés ne peuvent pas être pris en compte, rappelle le Gartner. Avant même d’acheter de nouveaux produits de sécurité, il faut procéder à l’extension des processus de sécurité existants. Les opérationnels devront profiter du projet de virtualisation pour revisiter l’organisation de la sécurité et la mettre à jour. Dans certains cas, il sera nécessaire de changer l’organisation, les process et les produits de sécurité.

2/ Un compromis au niveau de la couche de virtualisation peut entraîner un compromis au niveau de l’ensemble du système
La couche de virtualisation représente un élément important du nouveau système d’information. Comme tout logiciel, les logiciels de virtualisation présentent des vulnérabilités et des failles qu’il faudra découvrir et auxquelles il faudra apporter des réponses. Etant donné le côté stratégique de la couche de virtualisation, les hackers en ont déjà fait une cible privilégiée. Il faut également prendre en considération tous les morceaux de codes qui sont téléchargés à ce niveau (drivers, plug-ins et plus tous les logiciels de tierce-parties)
Le Gartner recommande de considérer la couche de virtualisation comme la plus importante dans le stack des systèmes x86 et faire en sorte qu’elle soit la plus légère possible afin de limiter les possibilités d’attaques tout en interdisant toutes les modifications de configuration non autorisées. Parmi les recommandations pratiques, le Gartner conseille de scanner le système régulièrement pour s’assurer que les patches ont bien été appliqués. Egalement d’installer l’hyperviseur dans une mémoire flash ou un système de stockage non volatile pour réduire le risque de d’altération. Ou encore de demander aux vendeurs de solutions de sécurité de procéder à des tests au moment du développement.

3/ Le manque de visibilité et de contrôle sur les réseaux virtuels créés pour les communications de machine virtuelle à machine virtuelle masque les mécanismes existants de sécurité
Pour plus d’efficacité dans la communication entre VM, la majorité de plates-formes de virtualisation inclut la possibilité de virtualiser les couches réseau afin de permettre aux VM de communiquer directement. Ce trafic n’est pas visible par les protections de systèmes réseaux tels que les systèmes de prévention d'intrusion (IPS). Il conviendra donc d’installer des IPS ou pare-feu virtuels  à l’intérieur des VM afin d’inspecter le trafic.

4/ Les charges de travail auxquels sont attachés différents niveaux de confiance sont consolidés dans un même serveur physique sans la séparation nécessaire
Les DSI commencent à virtualiser ce qui est facile à faire, mais peuvent aller bien au-delà. Ce n’est pas nécessairement un problème. Mais cela peut en devenir un lorsque des charges de travail relevant de niveaux de sécurité différents sont placer toutes sur un même serveur sans les précautions de séparation nécessaires. On peut par exemple installer des DMZ virtuels.
Le Gartner recommande de traiter les PC virtualisés sur le serveur  comme non sécurisés et de les isoler du reste du système physique. Et de ne pas se contenter de VLAN pour effectuer ces opérations de séparation.

5/ Manque de contrôle et d’outils d’accès aux différentes couches de virtualisation
Quand plusieurs serveurs physiques sont consolidés dans un seul serveur, il y a plusieurs domaines risquant une perte de séparation des tâches (SOD ou Segregation of Duties). Les accès doivent être sérieusement contrôlés. Cela est compliqué dans la mesure où il existe de nombreuses voies d’accès, par exemple via un navigateur, une console d’administration, de scripts, d’une interface de commande ligne, d’outils d’administration… Le Gartner conseille de sécuriser la couche de virtualisation avec autant de soin qu’on le ferait pour un système d’exploitation. Il faut favoriser les plates-formes de virtualisation qui support un mode d’administration par profil.

6/ Perte de séparation des tâches au niveau du réseau et du contrôle de sécurité
Alors que les serveurs physiques sont consolidés sur une même machine, le risque augmente que des administrateurs de système et les utilisateurs accèdent à des données largement au-delà des privilèges qui leur sont accordés. Un autre sujet de préoccupation à l’attribution des responsabilités au groupe qui configure et supporte le commutateur réseau virtuel. Il y a là un débat de séparation des tâches entre les administrateurs de système et les administrateurs de réseau. (Source ITR Manager)