TOOLinux

Le journal du Libre

5 tendances dans la gestion des données en 2019

mardi 11 décembre 2018

Les données ont bouleversé le monde. Chaque processus – qu’il s’agisse d’une interaction avec un client ou d’une manipulation d’un employé – laisse une trace faite de données. La quantité de données générées par les personnes et les machines croît dix fois plus vite que la quantité de données d’entreprise. Et les données machine à elles seules augmentent cinquante fois plus vite en volume que les données d’entreprise.

La façon dont nous utilisons les données change chaque jour, ce qui offre d’innombrables possibilités d’améliorer l’agilité et l’efficacité opérationnelle d’une entreprise. Dans ces circonstances, il est essentiel que les grandes entreprises prennent conscience de l’importance de la gestion intelligente des données (« Intelligent Data Management »). Ce n’est qu’ainsi qu’elles conserveront une longueur d’avance sur leurs concurrents et offriront de meilleurs services à leurs clients. Les entreprises doivent absolument tenir compte des cinq tendances suivantes en 2019.

1. L’utilisation du multi-cloud est de plus en plus populaire

Une étude de McKinsey & Company a montré que le flux de données vers l’Asie a été multiplié par au moins 45 depuis 2005. Le trafic de données en provenance de grandes régions telles que l’Amérique du Nord et l’Europe a considérablement augmenté : de 100 à 500 Gbps et moins de 50 Gbps en 2005, respectivement, à 5 000 à 20 000 Gbps et 1 000 à 5 000 Gbps aujourd’hui. Les entreprises opérant de plus en plus à l’international et étant chaque jour plus dépendantes de la technologie, l’utilisation croissante du multi-cloud est presque inévitable. IDC estime que d’ici 2021, les clients dépenseront 554 milliards de dollars dans le cloud computing et les services connexes, soit le double de 2016. Les données et les applications sur site ne deviennent pas obsolètes, mais les modèles d’implémentation des données se muent en un mélange de données sur site, SaaS, IaaaS, et dans des clouds gérés et privés. On s’attend à ce qu’une proportion croissante de la charge de travail soit transférée hors site. Même si cette transition prendra plusieurs années, il est important de s’y préparer dès à présent.

2. La pénurie de mémoire Flash s’éloigne et son prix s’améliore également

Dans un rapport publié en octobre 2018, Gartner s’attendait à ce que davantage de mémoire Flash soit disponible, ce qui ne laisserait qu’un léger déficit à la mi-2019. Son prix devrait se stabiliser, en raison de l’augmentation de la production chinoise de mémoire Flash. L’accélération des livraisons et l’amélioration des prix entraînent une utilisation accrue de mémoire Flash pour la récupération opérationnelle – c’est là que les quatorze derniers jours de données sauvegardées et dupliquées sont généralement stockées. Une capacité Flash supérieure conduit également à une utilisation plus importante du montage instantané d’images machine sauvegardées, qu’on appelle aussi « gestion des données de copie ». Les systèmes qui intègrent des fonctions de gestion des données de copie ne se limitent pas à offrir de la disponibilité. Le DevOps, le DevSecOps et le DevTest, les tests de correctifs, les analyses et les rapports sont autant d’exemples de cas d’utilisation de données de sauvegarde et de duplication.

3. L’analyse prédictive se généralise

Le marché de l’analyse prédictive devrait atteindre 12,4 milliards de dollars en 2022. Cela représente une augmentation de 272 % par rapport à 2017, avec un taux de croissance annuel composé (TCAC) de 22,1 %. L’APAC s’attend à ce que le TCAC soit le plus élevé au cours de cette période. L’analyse prédictive basée sur les données télémétriques – principalement des lignes directrices et des recommandations axées sur l’apprentissage machine (ML) – est l’une des catégories qui sont susceptibles de se généraliser. Les prévisions basées sur l’apprentissage machine n’ont rien d’une nouveauté, mais nous allons voir de plus en plus de meilleures pratiques en termes de configurations et de politiques. L’entreprise peut ainsi mieux tirer profit de l’infrastructure que l’informatique a implémentée et dont elle est également responsable. L’analyse prédictive – ou diagnostic – permet de s’assurer que tout continue à fonctionner et de réduire la charge de travail liée à l’optimisation des systèmes. Cela devient vital car les organisations informatiques doivent gérer un environnement de plus en plus diversifié avec plus de données et des niveaux de service plus stricts. Au fur et à mesure que l’analyse prédictive se généralise, les SLA et les SLO augmentent, et les SLE – Service Level Expectations – deviennent bien plus élevés. Cela signifie que nous avons besoin de plus d’aide pour continuer à fournir ce que l’entreprise attend de nous.

4. Un rôle polyvalent – ou généraliste – devient de plus en plus le modèle de gestion des organisations informatiques

Les deux premières tendances étaient axées sur la technologie. Toutefois, l’avenir du numérique reste analogique, puisqu’il repose sur des êtres humains. Il y a une pénurie de talents et les infrastructures sur site sont de plus en plus fusionnées avec le cloud public et le SaaS. Par conséquent, les techniciens ont souvent une expérience variée et tiennent de plus en plus compte des aspects commerciaux. La standardisation, l’orchestration et l’automatisation contribuent à cette évolution. Après tout, les gestionnaires peuvent désormais travailler transversalement au lieu d’avoir à se spécialiser. Ce dernier point reste bien sûr important, mais maintenant que les activités d’une entreprise dépendent de façon croissante de l’informatique, il va sans dire que les talents informatiques doivent savoir ce qui anime l’entreprise et comment apporter de la valeur ajoutée dans chaque domaine informatique.

Malgré ces tendances qui causeront bien des changements dans l’année à venir, deux facteurs importants continueront d’occuper les entreprises du monde entier.

- a. Les frustrations quant aux solutions de sauvegarde patrimoniales
Les trois principaux fournisseurs de sauvegardes traditionnelles sur le marché continueront à perdre des parts de marché en 2019. Le plus grand fournisseur du marché perd même des parts de marché depuis dix ans. Les entreprises quittent les fournisseurs traditionnels et collaborent avec des acteurs plus flexibles et plus dynamiques pour aller de l’avant dans cette ère où règnent les données. Dans une étude de Cognizant, 82 % des managers de l’APAC ont déclaré que les machines intelligentes étaient l’avenir du travail.

- b. Le problème des trois C : coût, complexité et capacité
Ces trois C restent la raison pour laquelle les gens dans les centres de données ne sont pas satisfaits des solutions des autres fournisseurs. En général, celles-ci impliquent des coûts excessifs, une complexité inutile et un manque de capacités, ce qui se reflète dans la vitesse de sauvegarde, la vitesse de restauration et le montage instantané sur une image de machine virtuelle. Ces trois critères clés demeurent la raison pour laquelle les entreprises doivent étendre ou remplacer complètement leur solution de sauvegarde.

5. L’émergence des premiers réseaux 5G crée de nouvelles opportunités pour les revendeurs et les CSP de collecter, gérer, stocker et traiter de plus grandes quantités de données

Nous verrons les premiers appareils adaptés à la 5G arriver sur le marché au début de 2019, aux États-Unis au CES et à Barcelone au MWC. La technologie 5G est probablement celle qui est adoptée le plus rapidement par les entreprises pour la communication de machine à machine et l’Internet des objets. Avec la 4G, les réseaux mobiles grand public ont atteint un niveau tel qu’ils sont assez rapides pour la plupart d’entre nous. En 2019, il faudra que la technologie soit de plus en plus normalisée et testée, et que les dispositifs soient parés pour l’avenir afin d’être adaptés à la technologie dès qu’elle sera disponible pour une utilisation à grande échelle. En outre, l’Europe deviendra une véritable société du Gigabit en 2019. Les revendeurs et les fournisseurs de services cloud seront particulièrement enthousiasmés par les nouvelles opportunités de revenus que leur offrira la 5G ou par l’infrastructure qui la supporte. Le traitement en temps réel de ces grandes quantités de données, à des vitesses plus élevées et avec de nouvelles exigences sur le matériel et les périphériques ainsi que de nouvelles applications pour la gestion des données – tout ceci créera de nouvelles opportunités et favorisera une informatique de pointe.

source : zion