Cloud computing et entreprise/Impact sur les infrastructures Telecom

Leçons de niveau 18
Une page de Wikiversité, la communauté pédagogique libre.
Début de la boite de navigation du chapitre
Impact sur les infrastructures Telecom
Icône de la faculté
Chapitre no 7
Leçon : Cloud computing et entreprise
Chap. préc. :Cloud computing et enjeux économiques
Chap. suiv. :Protection des données des entreprises
fin de la boite de navigation du chapitre
En raison de limitations techniques, la typographie souhaitable du titre, « Cloud computing et entreprise : Impact sur les infrastructures Telecom
Cloud computing et entreprise/Impact sur les infrastructures Telecom
 », n'a pu être restituée correctement ci-dessus.


Le passage vers le Cloud Computing impacte fortement le paysage informatique d’une entreprise, et plus particulièrement celui d’une entreprise de taille importante possédant un système d’information vaste et complexe. Nous allons à présent nous intéresser à ces impacts, afin de mieux comprendre les conséquences du Cloud sur les infrastructures télécoms d’une entreprise. Il est important de comprendre que les impacts sur l’infrastructure dépendent du type de Cloud déployé. Les modifications structurelles seront différentes selon si l’entreprise opte pour un Cloud Privé, un Cloud Public ou bien un Cloud Hybride. La problématique principale sera toutefois toujours la même pour l’entreprise : comment intégrer le modèle Cloud au sein de l’infrastructure informatique préexistante de façon optimale ?

Passer au cloud prive : la virtualisation du serveur et du stockage[modifier | modifier le wikicode]

Une entreprise qui opte pour un Cloud Privé doit préparer et adapter son infrastructure informatique existante. Nous allons à présent analyser la virtualisation du datacenter de l’entreprise, étape majeure permettant la mise en place d’un Cloud Privé Interne.

Principe de la virtualisation[modifier | modifier le wikicode]

Les ordinateurs sont normalement conçus pour exécuter un seul système d’exploitation à la fois. Or, cette limitation n’est pas adaptée au fonctionnement d’un datacenter. En effet, un ordinateur qui n’exécute qu’un seul OS à la fois se verra bien souvent sous exploité car les applications de l’entreprise n’utiliseront pas la pleine puissance de celui-ci. Par le biais de la virtualisation, plusieurs systèmes d’exploitation pourront s’exécuter sur ce même ordinateur. Cette virtualisation aura pour conséquence la création de plusieurs machines virtuelles au sein d’un seul ordinateur. Ainsi, chaque machine virtuelle pourra être sollicitée de manière autonome, permettant ainsi d’exploiter pleinement les capacités techniques de l’appareil. Cette virtualisation repose sur une application : l’hyperviseur. Il permet de gérer l’allocation des ressources d’un ordinateur (puissance de calcul, stockage, etc.) sur les différentes machines virtuelles simulées en son sein. Ainsi, les ressources associées à chaque machine virtuelle seront accessibles à distance, via le réseau, et utilisées selon les besoins de chaque collaborateur. Notons que les machines virtuelles stockées sur un serveur sont indépendantes les unes des autres, ce qui permet à plusieurs utilisateurs d’accéder au même serveur tout en utilisant des machines virtuelles différentes (principe du Cloud Computing). Ce principe de virtualisation permet donc d’exploiter la pleine puissance de chaque serveur, afin d’éviter le phénomène de sous-exploitation.

Aujourd’hui, les réseaux dépendent principalement de l’intervention humaine. Ils sont encore trop rigides, peu flexibles. Cette approche nouvelle du réseau va permettre d’éviter la configuration manuelle du réseau par le biais de la virtualisation. En effet, l’intervention manuelle est source d’erreur mais surtout particulièrement chronophage. Le SDN va donc faciliter la gestion de réseau. Il va permettre à l’entreprise de mieux connaître et appréhender ses équipements réseaux, ainsi que d’améliorer le contrôle de ceux-ci et d’optimiser leur utilisation.

La mise en place d’un Cloud Privé interne[modifier | modifier le wikicode]

Une entreprise qui souhaite établir une infrastructure informatique de type Cloud Privé Interne à partir de son infrastructure de départ doit passer par une étape obligatoire : la virtualisation du serveur et du stockage. En effet, le fonctionnement du Cloud Computing repose sur une dématérialisation des infrastructures.

L’impact de ce passage vers une logique Cloud impacte le fonctionnement du datacenter de l’entreprise. La logique « un serveur pour une application » va se voir remplacer par une logique d’unification et de mutualisation des ressources informatiques (puissance de calcul, stockage, etc.). Une fois la dématérialisation et la mutualisation des ressources effectuées, elles seront accessibles via le réseau privé de l’entreprise (LAN, WAN, VPN, MPLS, etc.).

Impact sur l’infrastructure de l’entreprise[modifier | modifier le wikicode]

Nous avons analysé précédemment le fonctionnement de la virtualisation des serveurs, permettant à l’entreprise de dématérialiser ses ressources informatiques afin d’en faciliter et d’en flexibiliser l’accès. Cette virtualisation engendre un impact plus ou moins important selon la taille du parc informatique, et selon le nombre de serveurs visés par cette opération.

Il est important de comprendre qu’une entreprise n’est pas forcément obligée de virtualiser l’ensemble de son parc informatique. L’envergure de l’opération doit être réfléchie et adaptée selon chaque entreprise. L’amplitude de l’opération doit dépendre des besoins métiers afin que l’opération soit réellement utile à l’entreprise. Une entreprise exploitant un secteur d’activité saisonnier n’a pas les mêmes besoins en flexibilité qu’une entreprise possédant un niveau d’activité stable sur l’année. 

La virtualisation du réseau[modifier | modifier le wikicode]

Le fonctionnement du Cloud Computing repose sur la virtualisation de ressources informatiques, et plus précisément la virtualisation du serveur et du stockage. Depuis peu, une troisième étape émerge : la virtualisation du réseau. Cette étape apparaît comme la suite logique de la virtualisation, permettant de créer des réseaux intelligents, automatisés et par conséquent plus adaptés aux solutions Cloud. Tout comme la virtualisation des datacenters, la virtualisation du réseau va fortement impacter les architectures informatiques de l’entreprise.

Afin de développer cette étape de la virtualisation des infrastructures informatiques, un nouveau paradigme d’architecture réseau a été créé: le Software-Defined Network (SDN).

Software-Defined Network (SDN)[modifier | modifier le wikicode]

Ce paradigme repose sur le découplage du plan de contrôle et du plan de données d’un réseau. Ce découplage va permettre de centraliser la gestion des flux en un point afin de pouvoir contrôler l’ensemble du réseau depuis ce point.

Comme l’indique son nom, le SDN correspond à une vision du réseau d’un point de vue logiciel. En effet, il permet de déporter la gestion matérielle du réseau vers une couche logicielle, ce qui permettra de simplifier les tâches de paramétrage, de pilotage, d’évolution, etc.

Pour simplifier, le SDN remplace l’interface manuelle de l’équipement réseau par une interface de programmation.

Aujourd’hui, les réseaux dépendent principalement de l’intervention humaine. Ils sont encore trop rigides, peu flexibles. Cette approche nouvelle du réseau va permettre d’éviter la configuration manuelle du réseau par le biais de la virtualisation. En effet, l’intervention manuelle est source d’erreur mais surtout particulièrement chronophage. Le SDN va donc faciliter la gestion de réseau. Il va permettre à l’entreprise de mieux connaître et appréhender ses équipements réseaux, ainsi que d’améliorer le contrôle de ceux-ci et d’optimiser leur utilisation. 

Avantages

	Améliorer la réactivité du réseau
	Faire face au développement du système d’information
	Automatiser les tâches réseaux (configuration, paramétrage, etc.)
	Réduire les coûts d’exploitation (OPEX)

Automatiser des tâches et améliorer la réactivité[modifier | modifier le wikicode]

L’ajout d’une couche logicielle par-dessus la couche physique du réseau permet de rendre un réseau « programmable ». L’administrateur réseau aura accès à un point de contrôle central lui permettant, via une interface logicielle, de paramétrer le réseau. Ainsi, l’infrastructure du réseau, originellement rigide, deviendra plus souple, plus flexible. L’administrateur aura la possibilité d’automatiser de nombreux paramètres, ce qui rendra de nombreuses tâches bien plus aisées : maintenance, paramétrage du réseau ou encore évolutivité de celui-ci. La centralisation du contrôle et l’interface logicielle permettront d’optimiser le réseau. De plus, pouvoir automatiser de nombreuses tâches permet d’augmenter amplement la réactivité du réseau et de réduire les délais d’approvisionnement (réduire le « time to deliver » des serveurs). 

Faire face au développement du système d’information[modifier | modifier le wikicode]

Le système d’information des entreprises fait aujourd’hui face à de nombreux enjeux : permanente augmentation du trafic, explosion du nombre de données stockées, complexification des protocoles, etc. Afin de faire face à cette nouvelle ère de l’IT et du Big Data, le SDN offre la possibilité d’adapter le réseau aux besoins des applications de l’entreprise. Le calibrage du réseau et des ressources nécessaires est facilité par cette nouvelle technologie.  

Réduire les coûts d’exploitation[modifier | modifier le wikicode]

La réduction des coûts d’exploitation va de pair avec le dernier point que nous avons évoqué, à savoir l’automatisation des tâches. En effet, en automatisant le réseau, l’exploitation de celui-ci en est simplifiée. Les administrateurs systèmes gagnent un temps précieux et  le besoin d’interventions humaines est réduit. Ainsi, il est possible de réduire les équipes de maintenance réseau et de réassigner le personnel superflu sur des tâches différentes, à plus hautes valeurs ajoutées.