TOOLinux

Le journal du Libre

Gaspillage sur le Cloud : pourquoi plus grand ne rime pas toujours avec meilleur

mardi 11 février 2020

Une utilisation inefficace des ressources crée du gaspillage, et ce gaspillage peut être coûteux. Les opérations informatiques à grande échelle ne font pas exception à cette règle. Les charges de travail étant de plus en plus souvent transférées et traitées dans le Cloud, le gaspillage de la puissance de calcul y est devenu un problème.

Pour éviter ce gaspillage, il est essentiel d’adopter la bonne stratégie lors de la création de l’architecture des applications et de surveiller l’efficacité des applications tout au long de leur fonctionnement. Cet article détaille ce qui doit être pris en compte.

Le gaspillage sur le Cloud se produit lorsque les entreprises achètent plus de capacité de stockage qu’elles n’en ont réellement besoin. Gartner a récemment découvert qu’en 2019, les entreprises du monde entier ont payé 14,1 milliards de dollars pour des ressources de stockage Cloud inutilisées. Alors que 12,9 milliards de dollars ont été payés en 2018, les coûts vont continuer d’augmenter pour atteindre environ 21 milliards de dollars d’ici à 2021. Cela signifie que 35 % des dépenses mondiales en matière d’infrastructure Cloud sont inutiles.

Ressources inutilisées

L’une des principales raisons de cette situation est le progrès technologique. Plus il y a de données et d’applications dans le Cloud, plus le risque de gaspillage est grand, car il devient de plus en plus difficile d’en garder la trace. Pour chaque nouvelle application créée ou remaniée dans le Cloud, de nouvelles ressources sont nécessaires, qui ne peuvent pas toujours être adaptées aux exigences de l’application. En outre, les hébergeurs doivent garantir contractuellement à leurs clients qu’ils peuvent fournir une capacité de calcul maximale à tout moment dans leurs data centers, par exemple pour les environnements de développement, de démonstration, de test ou de formation. L’idéal serait que les utilisateurs réduisent les capacités Cloud dont ils ont besoin à court terme, une fois une tâche terminée, mais peu le font.

Instance de Cloud surdimensionnées

C’est assez similaire pour le PaaS. De nombreux vendeurs de PaaS ne proposent aucun moyen de désactiver efficacement leurs services à leurs clients lorsqu’ils n’en ont pas besoin. Et puis, surtout en ce qui concerne l’IaaS, il y a aussi le facteur humain. Pour éviter les problèmes lors du développement de logiciels, les développeurs mettent en place des instances Cloud surdimensionnées. L’une des raisons de cette situation est que les exigences physiques peuvent rarement être planifiées avec précision. Cela représente particulièrement un danger si la personne qui détermine la portée des scénarios est inexpérimentée et préfère donc surcompenser. À cela s’ajoute le manque de clarté des prix de certains fournisseurs de stockage Cloud. Bien que la majorité des fournisseurs facturent à l’heure ou à la minute, les prix sont souvent structurés de manière très différente et ne sont pas transparents.

Les entreprises qui n’ont pas l’expérience nécessaire du Cloud courent un risque beaucoup plus grand de choisir la mauvaise taille d’instance et d’effectuer des ajouts inutiles. Cependant, il existe depuis longtemps des fournisseurs qui soutiennent les nouveaux clients, en offrant des services professionnels justes et des conseils sur l’architecture Cloud. Selon une étude récente, 40 % (Source : RightScale 2019 State of the Cloud Report) des instances sont trop grandes, d’au moins une taille. Cependant, il n’est pas facile de déclasser simplement les instances. La meilleure approche consiste à choisir des fournisseurs d’IaaS qui rendent les ressources librement sélectionnables.

La baisse du retour sur investissement et l’augmentation des coûts

Les effets négatifs des déchets sur le Cloud sont complexes. Si les entreprises ne peuvent pas utiliser pleinement les capacités Cloud achetées, le retour sur investissement est réduit en raison de coûts inutilement élevés. Et cela déclenche une réaction en chaîne : si les bénéfices sont réduits, les entreprises peuvent investir moins, ce qui a un impact négatif sur la viabilité future, du point de vue du client.

Pour les fournisseurs de stockage Cloud, la situation est encore pire. Dès que les capacités des serveurs existants sont réservées mais restent inutilisées ou que les utilisateurs du Cloud ne couvrent les pics de charge élevés que pendant une période limitée, les opérateurs Cloud doivent prévoir des serveurs supplémentaires en stock. Cela entraîne une augmentation des coûts pour tous les clients, qui doivent payer la facture pour les investissements dans les data centers. Le fait que les entreprises utilisent des Clouds multiples dispersés dans le monde entier augmente aussi indirectement les coûts. Une telle stratégie de multi-Cloud est en principe logique, mais de nombreuses entreprises ne parviennent pas à garantir une utilisation et une rentabilité maximales. Il reste encore à trouver un moyen vraiment efficace de gérer les plateformes multi-Cloud. Il faut également tenir compte des aspects écologiques. Les serveurs et l’infrastructure des centres de données ont besoin de beaucoup d’électricité, sans parler du processus de production des équipements techniques, gourmand en énergie et en ressources.

A cela s’ajoute le terrain nécessaire à la construction de nouveaux datacenters. Les fournisseurs de Cloud durable se concentrent sur l’utilisation d’énergies renouvelables et sur l’exploitation des potentiels d’efficacité - par exemple par de nouvelles approches en matière de refroidissement, de compression des serveurs dans des racks et des compartiments, de mise en réseau définie par logiciel ou de virtualisation particulièrement efficace des ressources Cloud.

Comment éviter le gaspillage sur le Cloud ?

Il est souvent trop long d’arrêter les machines virtuelles, ou trop difficile pour les utilisateurs du Cloud de passer à des coûts informatiques flexibles au lieu de tarifs forfaitaires prévisibles. Le coût du surdimensionnement s’élève à environ 5,3 milliards de dollars par an. Pour éviter cela, il faut se concentrer sur la commande de la quantité exacte de machines virtuelles réellement nécessaires - et dans un but précis. L’automatisation de l’infrastructure Cloud par le biais d’une mise à l’échelle verticale en temps réel et déclenchée par des leviers définis augmente la rentabilité. Ainsi, le nombre de machines virtuelles exécutant une application dans le Cloud s’ajuste automatiquement pour répondre à la demande actuelle. En effet, les capacités requises et les coûts associés peuvent varier considérablement en fonction de l’application. Il n’est pas recommandé de transférer vers le Cloud exactement la même quantité d’espace de stockage que celle dont disposait votre propre data center.

Créer et sensibiliser aux déchets sur le Cloud

Les utilisateurs doivent d’abord avoir une vue d’ensemble complète des coûts de logiciels et d’infrastructure qui sont encourus lors de l’utilisation de solutions sur site par rapport aux solutions en Cloud. Pour cela, il existe des outils d’administration de data centers qui donnent aux utilisateurs une bonne vue d’ensemble.

Mieux encore, les utilisateurs devraient choisir un fournisseur de services Cloud qui offre des prix clairs dès le départ. En outre, l’évolutivité granulaire des ressources Cloud, complétée par des interfaces d’administration conviviales et des interfaces clairement définies pour une infrastructure composite automatique, est utile. La puissance de calcul est une ressource précieuse. Cependant, nous devons encore apprendre à l’utiliser efficacement en environnement Cloud.

[1] https://devops.com/cloud-waste-to-hit-over-14-billion-in-2019/
[2]RightScale 2019 State of the Cloud Report

- Mark Neufurth (Directeur de la stratégie, IONOS)