François Barre (Celeste) : La disponibilité des serveurs exposés à la vétusté des datacenters

L’intérêt d’une entreprise de placer ses serveurs informatiques dans des datacenters repose d’abord sur des raisons économiques : suppression des coûts des climatiseurs, des onduleurs, de la sécurité d’accès, de l’entretien de la salle etc….

Cependant il s’avère nécessaire de rester très vigilant sur le niveau de qualité du prestataire à qui elle confie ses serveurs. Est-il utile de rappeler que pour la plupart des entreprises le «blocage» de son système d’information signifie un arrêt complet de son activité ?

Limites de fiabilité

Une étude récente a montré que 60% des pannes des serveurs informatiques sont dues à des pannes provenant de l’environnement dans lequel ils sont installés :

  • Coupure du réseau électrique, sans reprise automatique ou suffisante par les onduleurs
  • Panne des climatiseurs, transformant la salle informatique en «sauna»
  • Dépôt de poussière, générant des faux contacts dans les circuits des serveurs

A l’origine beaucoup de datacenter se sont construits à partir de la réfection de bâtiments de bureaux sous prétexte qu’ils possédaient déjà une salle informatique. Cette réhabilitation a conduit à des installations initialement saines, mais qui ont rapidement atteint leurs limites de fiabilité au fur et à mesure de leur « remplissage ».

Faut-il reprendre ses serveurs ?

Au-delà d’un taux d’occupation de 70 %, il est courant de voir apparaître des aménagements qui érodent le niveau de fiabilité d’un datacenter, par exemple :

  • Création de salles privatives mais avec un seul climatiseur ou sans onduleur de secours faute de place
  • Réduction du nombre d’opérations de tests et de maintenance suite à des difficultés d’accès : climatiseurs dans les salles de baies, sur les toits
  • Mauvaise répartition des flux d’air de refroidissement suite à des modifications de l’agencement des salles : suppression ou ajout de cloisons
  • Équipement de nouvelles salles sans dédoublement des compteurs électriques suite à des problèmes de câblage ou de place

Ces modifications disparates ont non seulement entrainé une baisse de la qualité des datacenters, mais ont aussi complexifié l’exploitation au quotidien : multiplication des interventions, difficulté d’accès, absence de solution de substitution lors des interventions. D’ailleurs, il est courant de voir des opérateurs baisser les bras en annonçant la fermeture de leurs vieux datacenters.

Alors que faut-il faire ? Reprendre ses serveurs. Non pas du tout. Il faut simplement garder à l’esprit que l’externalisation de serveurs est un projet qui s’inscrit dans la durée. On ne confie par ses serveurs pour 12 mois. On doit choisir un prestataire capable d’assurer un environnement de fonctionnement uniforme pour les 10 ans à venir quelques soient son taux de remplissage, l’évolution de la technologie des serveurs informatique, ses coûts de fonctionnement ….un datacenter du XXI siècle.

Dans :France, Infrastructure - Réseaux, Tribune Tags: 

Sur le même thème :

Nicolas Aubé (Celeste) : Résoudre la fracture des infrastructures numériques en régions Nicolas Aubé (Celeste) : Résoudre la fracture des infrastructures numériques en régions
Nicolas Aubé (Celeste) : Cloud : vers une explosion de la chaîne de valeur de l’IT Nicolas Aubé (Celeste) : Cloud : vers une explosion de la chaîne de valeur de l’IT
Frédérique Dofing (Celeste) : Entreprises : Pourquoi vous devez passer à la fibre optique Frédérique Dofing (Celeste) : Entreprises : Pourquoi vous devez passer à la fibre optique
François Barre (Celeste) : La qualité d’un datacenter est liée à l’optimisation de sa consommation électrique François Barre (Celeste) : La qualité d’un datacenter est liée à l’optimisation de sa consommation électrique

Laisser une réponse

Submit Comment

© IT Pro News. Tous droits réservés. XHTML / CSS Valide.
Fièrement propulsé par Theme Junkie.