Site secours pour la tolérance à la panne, pour les services des passeports
Problématique
Absence de site secours
Le bureau des passeports est un ensemble de centres de productions interconnectés dont leurs productivités dépendent du site central de Dieuppeul. Un dysfonctionnent dans ce site central se répercute automatiquement dans les autres sites de production. Le site central constitue un point névralgique pour le bon fonctionnement de notre entreprise. La redondance des services dans une entreprise se fait tant dans le domaine des services que dans le domaine des liens. Dans notre cas les liens sont déjà redondés par la mise en place d’une haute disponibilité des routeurs et la redondance des liens entre les routeurs.
Donc notre principal objectif se trouve dans les services. La plupart des services critiques sont déployées au niveau du site central. Cependant nous notons l’absence de secours du site central. Notre entreprise dispose de services critiques qui sans eux les autres centres ne vont pas fonctionner. Pour assurer la pérennité des services et assurer la continuité de la production, il faut redondé notre site central qui de dispose pas de site secours. Le site central possède des serveurs critiques pour le traitement des données. Ces serveurs sont : le serveur Oracle, le serveur d’hôte central, le contrôleur de domaine et le serveur AFIS.
Chacun de ces serveurs constituent un maillon faible dans notre système. Il faut noter aussi que l’arrêt de certains serveurs comme l’AFIS management constitue un problème crucial et crée des lenteurs dans la reprise d’activité. Donc notre problème est de chercher une solution afin de pérenniser le fonctionnement des centres. L’absence de site secours pour garantir la haute disponibilité des services constitue le principal problème. Nous allons mener une étude pour la mise en place d’un site secours pour la tolérance à la panne des services de notre entreprise.
Absence de redondance du serveur Backup
Pour un bon politique de sauvegarde il faut respecter la règle du 3-2-1 qui consiste à réaliser trois (3) copies des données de l’entreprise qui doivent être stockes sur deux (2) supports différents et une (1) copie situe en dehors de l’entreprise. Dans notre on dispose d’un serveur de backup dans l’entreprise sur des bandes magnétiques. Ces sauvegardes sont journalières et sont dans le site central. Donc l’aspect de sauver dans 2 supports différents n’est pas respecter. Comme on prévoit de redonder les services dans un autre site il est important de régler de problème d’Absence de redondance du serveur backup.
Objectifs et Méthodologies
L’objectif de ce mémoire est de faire une étude sur les technologies de la mise en place d’un Datacenter. Il se basera sur les technologies de virtualisation, du stockage de la synchronisation et de la réplication des données. À travers ces choix technologiques nous allons faire une étude comparative de ces différentes technologies. Cette étude nous permettra de faire un meilleurs choix dans l’utilisation de ces technologies. Nos choix découlerons des besoins dans l’architecture que nous allons proposer. Avec une étude poussée dans notre architecture actuelle avec les différents services critiques nous mènera à la proposition d’une nouvelle architecture avec un site secours et un plan de reprise d’activité en cas de sinistre. Ainsi nous allons proposer et valider une architecture à travers une maquette test. Cependant comme nous ne pouvons pas déployer un test sur une infrastructure en production. Nous allons proposer une maquette test pour gérer la haute disponibilité des services.
Virtualisation
La virtualisation a été brièvement définie dans l’introduction comme le moyen de faire fonctionner sur une seule machine physique plusieurs systèmes d’exploitation ou plusieurs applications. Cet objectif est atteint grâce à plusieurs technologies ayant des buts différents. Il est important de bien définir toutes ces technologies avant d’étudier les projets retenus. Il existe plusieurs catégories de virtualisation : o la virtualisation complète ou hyperviseur de type 2; o la para-virtualisation; o la virtualisation assistée par le matériel; o le cloisonnement. Avant de définir ces technologies, il est crucial de bien saisir le fonctionnement et le rôle d’un système d’exploitation. En effet, comme l’objectif de la plupart des technologies de virtualisation est de faire cohabiter plusieurs systèmes d’exploitation sur la même machine physique.
Fonctionnement d’un système d’exploitation
Le système d’exploitation est un ensemble complexe faisant office de couche d’abstraction entre le matériel et le logiciel. Il est composé d’une multitude de composants, chacun assigné à un rôle spécifique. Parmi les tâches dévolues au système d’exploitation, on retrouve notamment la gestion de la (RAM) et des périphériques (stockage, carte réseau, imprimante, écran, clavier, etc.) Un composant du système d’exploitation est entièrement dédié à la gestion de la mémoire, notamment la réservation et la libération pour les applications et le système d’exploitation. Quand la RAM vient à manquer, le système peut utiliser une partie du disque dur comme extension de mémoire. Toutefois, le système d’exploitation n’a pas le contrôle direct sur la gestion de la mémoire au niveau physique.
Ce rôle est dévolu au processeur. C’est donc par le jeu d’une interaction complexe entre le système d’exploitation (qui gère la RAM au niveau logique) et le processeur (qui gère la RAM au niveau physique) que se déroule l’exécution d’un programme. Les systèmes d’exploitation sont conçus comme s’ils étaient les seuls à accéder au matériel. Cette notion est importante pour les solutions de virtualisation : le système virtuel ne pourra pas accéder au matériel directement, comme s’il était le seul, car c’est le système hôte qui a ce rôle. Il y a donc des solutions de contournement mises en place, qui varient selon les produits et les technologies utilisées.
La virtualisation complète
La virtualisation complété consiste à émuler l’intégralité d’une machine physique pour le système invité. Le système invité « croit » s’exécuter sur une véritable machine physique. Dans ce concept, le logiciel chargé d’émuler cette machine s’appelle une machine virtuelle, son rôle est de transformer les instructions du système invité en instructions pour le système hôte. La machine virtuelle émule donc de manière logique (avec du code) tout le matériel habituel de l’architecture de l’ordinateur cible (Voir le figure 3). Un des gros intérêts de cette technique de virtualisation est de pouvoir émuler n’importe quelle architecture matérielle. On peut donc faire fonctionner les OS que l’on désire indépendamment de l’architecture du système hôte. Figure 2: Diagramme de la virtualisation complète Sources : https://fr.wikipedia.org/wiki/Virtualisation
La para-virtualisation
La para-virtualisation est très proche du concept de la virtualisation complète, dans le sens où c’est toujours un système d’exploitation complet qui s’exécute sur le matériel émulé par M. Niokhobaye DIOUF Page 18 une machine virtuelle. Or, dans cette dernière, les systèmes sont « conscients » du fait qu’ils sont virtualisés. Toutefois, dans une solution de para-virtualisation, le système invité est modifié pour être exécuté par la machine n virtuelle. De ce fait, il pourra collaborer plus étroitement avec le système hôte, en utilisant une interface spécifique, au lieu d’accéder au matériel virtuel via les couches d’abstraction.
La para-virtualisation apporte un gain de performances avéré, du fait que le système invité collabore activement avec la machine virtuelle, il ne se comporte plus comme un système d’exploitation à part entière s’exécutant directement sur du matériel, mais il adapte son comportement pour que les accès au matériel soient transformés en des appels directs à cette dernière. De plus, étant donné que seules les couches de bas niveau du système invité sont été modifiées, toutes les applications qui pouvaient fonctionner dans une architecture de virtualisation complète peuvent aussi être utilisées dans une architecture para-virtualisée. Figure 3: Diagramme de Para-virtualisation Sources : https://fr.wikipedia.org/wiki/Virtualisation
Les systèmes à hyperviseur
L’hyperviseur est en quelque sorte l’évolution logique de la para-virtualisation, si l’on recherche encore une amélioration des performances. Dans les technologies précédentes, le système hôte était le seul à avoir un accès direct au matériel. Avec un hyperviseur, le système hôte partage cet accès avec les systèmes invités.
Au démarrage de l’ordinateur, c’est normalement le système d’exploitation qui prend la main et contrôle le matériel. Dans le cas de l’utilisation d’un hyperviseur, c’est un système minimaliste, l’hyperviseur qui prend le contrôle du matériel. Figure 4: Représentation d’un hyperviseur de type 1 Sources : https://fr.wikipedia.org/wiki/Virtualisation Si les deux technologies vues précédemment (virtualisation complète et paravirtualisation) utilisaient une machine virtuelle pour émuler le matériel, il n’en va pas de même avec un hyperviseur. Chaque système d’exploitation a un accès presque direct au matériel, par l’intermédiaire de l’hyperviseur.
Les techniques de cloisonnement
Une autre pratique répandue dans le domaine de la virtualisation est le cloisonnement. Derrière ce nom se cachent plusieurs technologies visant à séparer fortement les processus s’exécutant sur un même système d’exploitation. Le cloisonnement vise à isoler chaque processus dans un conteneur dont il est théoriquement impossible de sortir. Un processus isolé de la sorte ne saura pas quels autres processus s’exécutent sur le même système, et n’aura qu’une vision limitée de son environnement. Le but principal de cette technologie est d’améliorer la sécurité du système d’exploitation et des applications.
Bénéfices de la virtualisation
Le multi-cœur, le 64 bits, tout comme la gestion d’une quantité très importante de mémoire, sont autant d’évolutions dans la technologie des serveurs ces dernières années. M. Niokhobaye DIOUF Page 20 Installer un seul système d’exploitation sur un serveur qui serait susceptible d’en supporter plusieurs dizaines est devenu aujourd’hui totalement injustifiable. La virtualisation s’avère être une des technologies la mieux à même de tirer parti des processeurs multi-cœurs, puisqu’elle offre un haut niveau déconsolidation, soit la possibilité d’héberger un nombre important de machines invitées sur un serveur hôte.
Un serveur est actuellement considéré comme étant dix à douze fois plus puissant en termes de performances qu’un de ses homologues d’il y a quatre ans. Dès lors, il devient même possible d’envisager la virtualisation de serveurs hébergeant des applications considérées comme stratégiques, telles qu’Oracle ou SAP, moyennant toutefois quelques configurations spécifiques. Les fabricants ont embarqués certaines technologies au niveau du matériel qui permettent de gérer nativement la virtualisation, s’agissant notamment de l’adaptation des processeurs. Les baies de stockage sont capables de s’interfacer avec les API (Application Programming Interface ou interface de programmation) fournies par les constructeurs afin de décharger le serveur hôte de machines virtuelles de certaines tâches liées au stockage.
Certains commutateurs permettent de simplifier la gestion réseau en environnement virtualisé, à l’instar du Nexus 1000vTM10 de Cisco Au vu de ces éléments, la virtualisation peut être considérée comme une alternative non seulement viable mais particulièrement pertinente aux architectures classiques en vigueur au sein de bon nombre de sociétés à l’heure actuelle. Le présent chapitre vise à mettre en exergue les bénéfices octroyés par cette technologie et leurs impacts sur l’entreprise. Nous avons choisi l’option d’aborder les bénéfices octroyés par cette technologie avant d’évoquer les aspects techniques y relatifs, la mise en œuvre, les domaines d’application ou même la construction d’une infrastructure virtuelle. Nous jugeons en effet indispensable que le lecteur soit convaincu de la pertinence de la technologie en question avant de poursuivre sur les aspects susmentionnés.
Liste des abréviations |