Toolinux Linto.AI OpenPAAS OBM Hubl.IN Linagora

2018 : Data Fabric, Machine Learning, IA et Kubernetes

vendredi 22 décembre 2017

L’entreprise MapR dévoile ses prédictions 2018. C’est de saison. Le marché de la donnée évolue constamment, et le Big Data est désormais associé aux technologies de l’intelligence artificielle et de l’apprentissage automatique entre autres.

Les solutions Big Data seront le centre de gravité des entreprises, notamment grâce à la mise en place d’une « data fabric » globale

Jusqu’ici, le Big Data et les projets bâtis autour étaient isolés, s’agissant dans bien des cas d’applications spéciales ou d’expérimentations qui, au mieux, venaient en complément des systèmes traditionnels. Désormais, le Big Data s’affirme comme une ressource essentielle et les entreprises se muent en entités pilotées par les données. Cette transformation amène tout naturellement les solutions Big Data à devenir le centre de gravité des entreprises, en matière de volume, de stockage et d’accès des données, ainsi que sur les plans opérationnel et analytique.

En conséquence, les entreprises seront plus nombreuses à rechercher des solutions pour la mise en place d’une « data fabric » globale qui rompe les silos. L’objectif est avant tout d’offrir un accès complet aux données provenant de multiples sources et un accès au traitement informatique pour de véritables systèmes multitenant.

L’apprentissage automatique passera du statut « à la mode » à « en production »

De plus en plus, à mesure que les entreprises en tireront de réels avantages, l’apprentissage automatique sera considéré comme une technologie courante, banale. L’intelligence artificielle (IA) continuera de faire l’objet de battage médiatique mais bien d’autres méthodes d’apprentissage automatique fourniront de précieuses insights à des entreprises de différents secteurs.

En outre, nous pourrons certainement constater que les systèmes connaissant le plus de succès sont ceux pour lesquels on se focalise davantage sur la problématique que sur l’outil. Les utilisateurs prendront conscience de l’importance de cerner la question correctement, de se fixer des objectifs atteignables, d’accéder aux données appropriées à grande échelle et de définir un plan réaliste en vue de transformer les résultats de l’apprentissage automatique en actions concrètes.

Les entreprises prendront conscience que 90 % du succès de l’apprentissage automatique dépend de la logistique (plutôt que de l’algorithme ou du modèle)

La capacité de gérer efficacement les données est essentielle au succès des systèmes d’apprentissage automatique dans le monde réel. C’est vrai tout au long du cycle de vie de la donnée, de la gestion en entrée au développement des modèles d’apprentissage automatique, et à leur maintenance continue en production. La bonne nouvelle est que, moyennant une architecture et une planification efficaces, une bonne partie du problème peut être traitée au niveau de la plate-forme plutôt que de l’application, et cela vaut pour un grand nombre de systèmes gérés par différents outils d’apprentissage automatique. En d’autres termes, vous n’aurez pas à élaborer un nouveau plan logistique pour chaque nouveau projet.

Nous croyons à une prise de conscience grandissante de la nécessité d’une logistique efficace pour l’apprentissage automatique, et nous pensons également que la tendance sera à des architectures basées sur les flux et à une « data fabric » globale intégrée au sein de l’organisation générale des entreprises.

L’adoption rapide de Kubernetes va former le socle des déploiements multicloud

Nous prévoyons le succès fulgurant de Kubernetes, mais celui-ci pourrait être si rapide qu’il s’agira sans doute davantage d’une observation que d’une prédiction pour 2018.

Jusqu’à présent, cependant, Kubernetes était quasi unanimement vu comme un moyen d’organiser et d’orchestrer le traitement informatique au sein d’un seul cloud. En 2018, nous nous attendons à ce que Kubernetes soit de plus en plus utilisé par des entreprises de pointe pour l’organisation et l’orchestration du traitement entre plusieurs environnements cloud, qu’ils soient publics ou privés. Le traitement sur site se déplace vers les conteneurs et une orchestration ultra-rapide, mais la véritable révolution se produira lorsqu’il sera possible de planifier les tâches de manière interchangeable partout où cela se justifie.