Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Laurent Martini, Pure Storage : Pourquoi tout le secteur de l’IA doit repenser le stockage

novembre 2017 par Laurent Martini, Country Manager France de Pure Storage

L’intelligence artificielle (IA) est l’une des tendances phares de 2017. Selon une récente étude d’Accenture, elle pourrait accroître de près de 38% la rentabilité des entreprises d’ici 2035, et représenterait actuellement une croissance économique de 14 000 milliards de dollars. Depuis plusieurs années, elle est le soutien de la quatrième révolution industrielle, mue par des machines et des services intelligents, et donne naissance à de nouveaux secteurs d’activité tout en en rendant obsolètes de nombreux autres.

Comprendre les fondements de l’Intelligence artificielle

Les secteurs d’activité ont tout à gagner avec l’IA : en effet, la capacité à transformer les données brutes en intelligence représente la nouvelle monnaie d’échange face à la concurrence moderne. Les projets foisonnent : dans le secteur de la santé, Google est en train de conduire un essai clinique en Inde pour automatiser, via l’intelligence artificielle, le dépistage des rétinopathies diabétiques. Dans le domaine des biens de consommation, Amazon a annoncé le lancement d’une épicerie conceptuelle sans caisse, appelée Amazon Go, qui emploie les mêmes technologies que les voitures automatiques, avec la fusion des données sensorielles et l’IA.

Le big bang de l’IA a été alimenté par l’alliance de trois technologies clés : le deep learning, les unités de traitement graphique (GPU) et le Big data. Le deep learning est un nouveau modèle informatique qui utilise des couches cachées de réseaux de neurones artificiels inspirés du cerveau humain. Un modèle basé sur le deep learning peut créer un logiciel simplement en s’appuyant sur une multitude d’exemples dont il a su tirer des enseignements, là où des experts devaient auparavant le créer manuellement. Un processeur GPU est capable d’exécuter des algorithmes complexes similaires à ceux du cerveau humain. Ces deux technologies ont complètement bouleversé les approches traditionnelles.

L’IA, indissociable du Big data

En seulement deux ans, la quantité de calculs requise par les algorithmes du deep learning a été multipliée par 15, et la puissance de calcul des GPU par 10. Cela nous conduit au troisième pilier de l’AI : le Big Data. Alors que le volume des données non structurées a littéralement explosé, l’innovation du stockage de ces données a cessé il y a plusieurs dizaines d’années. Même si le deep learning et les GPU sont massivement parallèles, les technologies de stockage existantes ne le sont pas : elles ont en effet été conçues pour l’ère, aujourd’hui révolue, du traitement en série. En outre, le fossé entre les capacités de calcul et de stockage ne cesse de s’élargir.
Si les données représentent la monnaie d’échange de la quatrième révolution industrielle, il est déconcertant de penser que le système qui est chargé de les gérer repose sur des composants vieux de plusieurs dizaines d’années. La lenteur du système de stockage freine les performances du machine learning, un peu comme si les ordinateurs essayaient d’aspirer des volumes massifs de données avec une paille trop fine, sans jamais réussir à assécher le puit sans fond des données. D’où la nécessité d’innover et de concevoir une nouvelle plate-forme de données conçue spécifiquement pour l’ère moderne des outils d’analyse intelligents.

De la nécessité d’un système de stockage moderne

Les utilisateurs se lancent souvent dans la voie de l’IA avec un ordinateur unique et puissant qui permet de stocker localement toutes les données sur un système à connexion directe équipé de SSD. Cette configuration répond aux besoins des expériences de deep learning testant différentes structures et différents réseaux. Plus un modèle de deep learning est alimenté en données, plus il révèle son potentiel d’intelligence, dans la mesure où il n’est pas contraint par la faible capacité de l’ordinateur. Le professeur Andrew Ng, de l’Université de Stanford, expert dans le domaine de l’IA, a observé que le deep learning est différent des autres algorithmes : en effet sa précision et ses performances augmentent d’autant plus que l’ensemble des données d’apprentissage est volumineux.

Un modèle qui apprend sur une base de données de 100 To est donc beaucoup plus précis qu’un modèle ne disposant que de 1 To. D’où la nécessité d’une nouvelle génération de systèmes de stockage pour offrir la bande passante nécessaire aux GPU, pour accéder aux schémas d’accès aléatoires des fichiers, les plus petits comme les plus gros.

Si le principal frein qui existait face à l’intelligence artificielle auparavant était la puissance de calcul, la nouvelle frontière réside aujourd’hui dans le stockage. Heureusement les solutions commencent à apparaître pour résoudre cette problématique, mais il est important d’en être conscient pour ne pas faire d’erreur quand on souhaite bâtir son infrastructure pour supporter de tels projets. L’intelligence artificielle va ainsi pouvoir reprendre sa course en avant, tel un coureur s’étant débarrassé des cailloux dans ses chaussures !


Voir les articles précédents

    

Voir les articles suivants