Cela fait des années que nous constatons une surcapacité et une sous-utilisation dans les datacenters. Jusqu’à récemment, il n’était pas rare que je visite un site ayant une charge nominale de 10 méga volts-ampères (MVA) avec une charge informatique de seulement 2 MVA. Il était encore plus fréquent de constater une utilisation des serveurs inférieure à 10 %, non seulement sur des machines ou des racks isolés, mais sur des systèmes informatiques entiers.
Au sein des communautés de l’efficacité énergétique et de l’optimisation, nous avons consacré des années à essayer de faire en sorte que les clients disposent de la taille adéquate dès le premier jour, en mettant en œuvre des stratégies de croissance modulaire et en veillant à ce que les infrastructures physiques essentielles, telles que l’alimentation et le refroidissement, correspondent étroitement à la demande finale de la charge informatique. Même lorsque nous le faisions, souvent les besoins des équipements informatiques étaient surestimés, créant un écart entre les projections de la conception et la réalité.
Avec l’évolution du datacenter d’entreprise traditionnel, disposer d’un seul serveur ou processeur dédié à une seule application n’est tout simplement plus envisageable. Le passage à des plates-formes davantage définies par logiciel a également permis une meilleure utilisation des machines virtuelles et des systèmes de type réseau. Lorsque j’ai commencé chez IBM, nous aurions appelé ces systèmes des mainframes.
L’une des principales raisons pour lesquelles nous constatons ce manque d’utilisation est que les systèmes ont été conçus et construits pour répondre aux besoins les plus importants d’un client, le jour le plus chargé, avec une capacité supplémentaire intégrée, au cas où. Ces clients avaient également un système redondant, au cas où. Les sites e-commerce, par exemple, s’intéressaient aux grands événements commerciaux tels que les ventes Black Friday, Cyber Monday ou les Soldes d’hiver. Ces retailers devaient planifier les pics de charge, bien que la plupart du temps ils sont loin d’opérer à ces niveaux-là.
Ce scénario de surcapacité/sous-utilisation peut également être comparé à une voiture. La plupart sont conçues pour rouler à 180 kilomètres par heure (mph), mais dépassent rarement les 120 et passent la majeure partie de leur vie à rouler entre 0 et 60 km/h. De plus, les sites présentant un bon niveau de redondance sont comme quelqu’un qui fait un voyage et qui peut choisir entre deux voitures.
Les très grands acteurs de datacenter, les hyperscalers, exploitent essentiellement des flottes de camions avec des performances de supercar. Ils sont définis à 100 % par des logiciels. Ils utilisent une plate-forme matérielle presque identique, une pour le traitement et une pour le stockage, dans chaque datacenter qu’ils possèdent. Cela signifie des dizaines de milliers de processeurs et de dispositifs de stockage connectés au réseau, et qui fonctionnent efficacement comme un seul ensemble. La perte d’un seul site ne provoque qu’une baisse mineure des performances et non une perte de service.
Saviez-vous que lorsque vous effectuez une recherche Google, votre appareil envoie cette demande à trois datacenters différents situés dans différentes zones géographiques ? Le datacenter qui remporte la course vous fournit le résultat. Si l’un de ces sites est hors ligne, il en reste encore deux de disponibles ! Les réseaux que nous utilisons pour transmettre toutes ces données sont toujours les mêmes, mais avec encore plus de capacités réelles intégrées dès le premier jour.
Il est très coûteux de placer des câbles dans le sol et sous la mer. Lors de la planification de nouveaux itinéraires, le fournisseur de réseau planifie généralement pour 10 ans ou plus dans l’avenir. À mesure que la demande augmente, ces fournisseurs n’ont plus qu’à activer une connexion de fibre inutilisée pour ajouter de grandes quantités de capacité instantanée.
En substance, les plates-formes logicielles, les datacenters qui les prennent en charge et les réseaux qui connectent le tout sont conçus pour offrir des niveaux de capacité très élevés avec des niveaux de redondance encore plus élevés.
Tout cela signifie que lorsqu’il y a une demande soudaine et urgente, comme les ventes du Black Friday ou une nouvelle vidéo YouTube de Ed Sheeran, l’écosystème entier lève simplement la tête et dit : « Tenez ma bière ».
Les demandes sans précédent que nous voyons maintenant avec la migration massive des professionnels et des étudiants faisant du télétravail sont sans précédent, mais peut-être pas en termes de capacité maximale. Alors que le volume des amplis dans le film Spinal Tap est arrivé jusqu’à 11, le réseau mondial de datacenters n’en est encore qu’à neuf. Ce niveau de capacité n’est pas inhabituel, ce qui l’est, c’est son maintien pendant une période de temps prolongée.
Dans un communiqué de presse récent, le directeur de la technologie de BT a déclaré que le réseau britannique, bien qu’extrêmement occupé, n’était pas proche de sa capacité maximum. Il a dit que le trafic de pointe survient généralement le dimanche soir pendant quelques heures. Aujourd’hui, ce pic est constant et plus élevé qu’il n’a jamais été.
Bien sûr, il y a des goulots d’étranglement, la nécessité d’ajuster certains services, et certaines personnes à l’extrémité la plus faible de la périphérie des réseaux bénéficieront de performances plus médiocres. Heureusement, cela n’est pas révélateur de l’écosystème dans son ensemble.
L’élasticité de l’écosystème entier est plus que capable de faire ce qu’on lui demande de faire. Je sais par expérience personnelle que tout le monde examine de très près les goulots d’étranglement et s’efforce de les développer rapidement. L’essentiel de cette expansion nécessaire et urgente consiste à mettre online les équipements en place ou à réorienter le matériel redondant.
Lorsqu’une nouvelle capacité est requise, elle est fournie en quelques jours. En raison de l’évolution des installations d’entreprise mentionnée ci-dessus, il existe une grande quantité d’espace de datacenter disponible.
Nous sommes très occupés en ce moment, ici chez Vertiv, mais rassurez-vous. D’après ce que je peux voir, notre secteur est mis à l’épreuve, mais il obtient la note A+.