Interview de Louis Capitaine, docteur en mathématique, fondateur de Epoch Intelligence, spécialiste en Intelligence Artificielle.

Podcast Radio :

La Tribune de Stéphane : Louis Capitaine, spécialiste en Intelligence Artificielle

La vidéo de l’interview Webcam est disponible en bas de page

Introduction, Parcours, l’Intelligence Artificielle

Stéphane Lambert : RLP 102.3, aujourd’hui avec Louis Capitaine de la société Epoch Intelligence. Bonjour Louis. Nous nous sommes rencontrés dans un meetup vendredi dernier consacré à la big data et l’intelligence artificielle et vous êtes, me semble-t-il, me semble-t-il mathématicien.

Louis Capitaine : Oui c’est bien ça. J’ai fait une thèse à l’université bordeaux en bio statistiques, donc spécialisée dans ce qu’on appelle aujourd’hui le machine learning, qu’on peut aussi appeler l’intelligence artificielle. Au départ, j’ai fait des études en mathématiques pures. Je me suis ensuite spécialisé en master dans la théorie des probabilités et des statistiques pour enfin rencontrer mon directeur de thèse qui travaillait sur des techniques de type forêts aléatoires qui sont des techniques de machines learning, et m’a proposé de travailler sur des sujets associés aux machines learning dans des problématiques de médecine. Et donc ma thèse est dans le grand champ de ce qu’on peut appeler pour les techniciens les forêts aléatoires. Ensuite une fois terminé ma thèse, j’ai monté une société qui s’appelle Epoch Intelligence et qui fait notamment aujourd’hui de la recherche et développement pour des entreprises et des institutionnels. On fait aussi de la formation en assez haut niveau pour des ingénieurs et des chercheurs, pour les former aux techniques modernes justement de science des données, machine learning, intelligence artificielle, et modélisation.

S.L.: D’accord : donc, une fac de mathématiques à Bordeaux I, donc le Deug TCA/I, c’était comme ça à mon époque lorsque j’y étais 🙂

L.C. : Puis une licence de maths pures.

S.L.: J’avais arrêté aux exponentielles de matrices 🙂

L.C. : Après, une maîtrise de math, deux ans de plus, qu’on appelle aujourd’hui le master modélisation statistique et stochastique. Donc il y a deux voies, une voie qui est plus analyse de données et une autre voie qui est un peu plus théorique, qui s’appelle analyse stochastique, et moi j’ai choisi la voie un peu plus théorique.

S.L. : Très bien. Donc maintenant qu’on a vu que vous étiez effectivement de la matière grise sensibilisée aux problématiques d’intelligence artificielle pour la médecine… L’intelligence artificielle, qu’est-ce que cela signifie réellement aujourd’hui dans la vie de tous les jours ainsi qu’au niveau technique ? Est-ce que vraiment l’on a passé un cap ? Est-ce que la réalité rejoint les livres d’Isaac Asimov ? Vers quoi va-t-on, en quoi est-ce utile, en quoi est-ce dangereux, bref, concrètement aujourd’hui, ou en est on, qu’est-ce que l’IA aujourd’hui ?

L.C. : Énormément de développements ont été faits récemment en intelligence artificielle. C’est d’ailleurs un domaine qui est assez récent finalement. C’est un domaine qui a à peu près soixante-dix ans de recherches, si on ne compte pas les développements mathématiques antérieurs. Effectivement aujourd’hui ce que l’on appelle l’intelligence artificielle regroupe effectivement les statistiques, les mathématiques, la programmation, et c’est un mélange de toutes ces disciplines. L’intelligence artificielle aujourd’hui, il y a un petit peu la manière fantasmée de le penser, qui est l’idée d’avoir une intelligence artificielle qui mimerait ce qu’on pourrait appeler le sens commun humain, c’est-à-dire une espèce d’intuition, lorsqu’on a un phénomène, et une décision une espèce de méta décision de ce qu’il faudrait faire dans n’importe quelle situation donnée. Alors cela, nous n’y sommes pas encore. Il y a des chercheurs qui y travaillent, on peut notamment citer Yann LeCun, le très grand chercheur français qui est à l’origine du grand succès des réseaux de neurones modernes. Il a inventé en fait des techniques qui permettent de mettre aujourd’hui les réseaux de neurones au premier plan sur le plan de la recherche. Yann LeCun reparle aujourd’hui de ce qu’on appelle l’intelligence artificielle générale, et c’est un peu l’idée qu’en a le grand public : cette espèce d’IA qu’on pourrait mettre dans un robot qui pourrait exécuter toutes les tâches de la vie quotidienne. En réalité aujourd’hui l’IA n’en est pas à ce stade-là. Aujourd’hui l’IA est cloisonnée à des tâches bien particulières dans lesquelles on va entraîner un modèle pour faire quelque chose. Donc typiquement, par exemple, faire de la reconnaissance d’objets, de formes. Globalement, qu’est-ce que c’est qu’une tâche d’intelligence artificielle ? Ce sont des entrées, des variables explicatives, et une sortie. Donc l’idée, c’est de trouver le lien qui peut exister entre les variables explicatives et la sortie. Et lorsqu’on est capable de trouver ce lien-là, de pouvoir ensuite faire une généralisation.

Globalement pour donner un exemple assez précis : j’ai par exemple des patients qui sont atteints de maladie d’Alzheimer : on récupère des coupes de cerveau sur des patients qui sont atteints de la maladie d’Alzheimer, et d’autres qui ne sont pas atteints par cette maladie d’Alzheimer. Ce qu’on aimerait faire, c’est apprendre le lien qu’il y a entre les différentes coupes d’IRM de cerveau et l’apparition ou non de la maladie d’Alzheimer pour que plus tard, lorsqu’on connaît ce lien, pouvoir extrapoler sur un nouveau patient et lui faire passer une IRM à partir directement de cette IRM afin de déterminer si oui ou non il a la maladie d’Alzheimer, s’il est à risque de la développer plus tard, et quand la développer. Ça, c’est typiquement les problématiques d’IA qu’on est capable de faire aujourd’hui, avec des performances très grandes.

Globalement, l’IA qu’est-ce que c’est, c’est une tâche de prédiction, et d’apprentissage. Donc j’ai des entrées, j’ai des sorties, et je veux prédire le lien qui existe entre les deux. On n’en est pas aujourd’hui à essayer d’avoir une IA qui va, à partir d’un contexte global généralisé que l’on a pas posé en cadre spécifique, pouvoir déterminer ce qu’elle doit faire par elle-même. Ça c’est ce qu’on appellerait plutôt le sens commun humain. Nous n’y sommes pas encore, et c’est plutôt ce qu’on appellerait l’intelligence artificielle généralisée, telle que la pense globalement le grand public. Aujourd’hui quand on fait de l’intelligence artificielle, ont fait apprendre des modèles, et parfois même des modèles qui sont extrêmement simples. Globalement, on est capable pour cette problématique sur Alzheimer, d’apprendre ça avec une régression qu’on appelle une régression l’on appelle logistique. Alors c’est un petit peu plus compliqué, on parlerait pour les techniciens de régression logistique pénalisée, mais globalement c’est une régression logistique. Et on le voit bien d’ailleurs dans le rapport qu’avait publié Cédric Villani : lui dans sa définition de l’intelligence artificielle, c’est tout ce qui est capable d’apprendre une relation. C’est donc une définition extrêmement large qui englobe notamment la régression logistique, et qui englobe des régressions linéaires. Faire une régression linéaire, c’est déjà faire de l’IA dans ce cadre de définition.C’est de l’IA certes très basique, mais c’est faire de l’IA. Et aujourd’hui, des intelligences artificielles extrêmement complexes qui sont capables de faire de la reconnaissance d’individus sur des caméras surveillance, c’est en fait un empilement de plusieurs tâches spécifiques qui s’imbriquent les unes dans les autres. Et c’est souvent ce que j’explique lorsque suis en formation : j’explique à des chercheurs : « si vous voulez faire une IA extrêmement complexe, décomposez votre problème en plein de petits problèmes d’apprentissages. Résolvez-les les uns à la suite des autres »

S.L. : Bonjour Monsieur Descartes

L.C. : Voilà, exactement : plein de problèmes simples, on les empile et ensuite cela résout un problème extrêmement complexe. Et même avec des outils mathématiques très simples comme la régression linéaire, je le dis tout le temps, on peut résoudre des problèmes très compliqués, comme par exemple justement de la détection d’individus qui passent dans une caméra surveillance. Ca, ça se fait par exemple avec des techniques très simples. Des techniques matricielles, d’ailleurs.

Intelligence Artificielle

Deux Grand Axes d’Intelligence Artificielle

S.L. : Donc en fait, on va dire qu’il y a deux grands axes actuellement d’Intelligence Artificielle : Il y a celle qui fait un peu fantasmer, ou l’on parle de test de Turing, de conscience de soi, de synchronicité et autres. On a vu quelques modèles émerger chez Google, chez quelques big GAFAM qui travaillent sur ceci. Mais dans l’application concrète de tous les jours, il s’agit plutôt de modèles qui font des tâches répétitives sur des gros volumes.

L.C. : Tout à fait.

S.L. : Il faut de la puissance de calcul pour cela, pour une grosse base de donnée : on sait que par exemple ne serait-ce que mettre en Database un péage d’autoroute, au bout de deux à trois mois, cela prend un volume énorme. Et si vous voulez commencer à faire des filtres sur des critères, vous commencez à avoir des temps de réponse qui se comptent en minutes. Donc je suppose que lorsqu’on commence à nourrir un engin, une machine, avec des données comme des codes génétiques, de l’adn et autres pour faire la prédiction, ou lorsque j’ai entendu qui a beaucoup été utilisé pour les radios (les radios x , X-Ray, les radiologues sont assistés par des outils comme ça), il faut vraiment beaucoup de puissance. Alors aujourd’hui, comment est-ce que cela fonctionne : ce sont des tests si/oui, si/oui (if/else), ce sont des switchs case ? Comment ça fonctionne derrière ?

L.C. : Alors : je vais pouvoir parler de quelque chose qui va peut-être aller à contre-courant de ce qui est souvent dit ; c’est une problématique qui est moderne. En fait, globalement, quand on voulait faire une analyse ou une étude, on prenait des experts du domaine en question, on les mettait dans une pièce, et on leur demandait « qu’est-ce qu’il faut qu’on mesure ».Donc les experts disaient : pour tel type de problématique, il faut mesurer telle variable, telle variable, etc . Donc il y avait peu de variables à mesurer. On avait aussi peu d’observations, donc des bases de données assez faible. Donc globalement, le paradigme ancien était dire « les données que j’ai, c’est globalement de l’information ». Aujourd’hui, c’est complètement différent. Avec la digitalisation du monde, la miniaturisation de l’informatique, les capacités de stockage qui explosent, les faibles coûts de stockage, et bien on peut tout mesurer. Nous sommes capables de tout mesurer, c’est pour ça aussi que l’on est capable de séquencer tout le génome d’un être humain.

S.L. : Séquencer un génome prend plusieurs heures encore actuellement. Nous sommes passes de plusieurs jours à plusieurs heures.

L.C. : Exactement. Je crois qu’on peut aller entre une et deux heures pour séquencer le génome d’un être humain aujourd’hui avec certaines techniques. Et donc avoir accès à plusieurs dizaines de milliers de gênes. Donc il y a plusieurs gènes qui sont mesurés plusieurs fois lorsqu’on fait ces techniques-là. Donc on a des doublons, ce qui fait qu’ en règle générale on a entre trente mille et quarante mille variables. Mais l’idée, aujourd’hui, est de dire que finalement, dans ce cadre-là, j’ai beaucoup plus de variables à stocker que je n’ai d’observation dans la réalité. Par exemple, pour une image en FULL HD, si j’observe chaque pixel, cela correspond à plus de dix millions de variables explicatives. Et si je compte le rouge, le bleu, et le vert qui sont codées dans ces trois couleurs, nous sommes à peu près à trente-six millions de variables explicatives. C’est énormément d’informations. Et pour avoir une base de données de trente-six millions d’images en full hd, ça va commencer à faire des grosses basses de données.
L’idée du nouveau paradigme c’est de dire qu’en fait, j’ai beaucoup plus de données que je n’ai d’informations. Donc aujourd’hui j’accède a beaucoup de données, mais ces données-là ne reflètent pas un rapport de un pour un
par rapport à l’information qui est disponible. Donc en fait l’idée de ces nouvelles techniques et dans ces nouvelles méthodes, c’est de dire « comment je vais faire pour essayer de capturer l’information qui est utile dans cette masse gigantesque de données ». En fait nous allons à contresens de l’idée qu’il faut tout mesurer et qu’il faut tout stockées. En réalité, ce qu’il faudrait faire, c’est tout mesurer puis extraire seulement l’information qui est importante. Et à partir de ce moment-là, on se rend compte qu’en fait l’information qui est importante réside dans un espace de toute petite dimension.

S.L. : Modèle 80/20, on se focalise sur le plus utile.

L.C. : Typiquement un Pareto. Mais en fait on est même pas dans des rapports de loi de Pareto. On est même au-delà de cela. Si redonne l’exemple des
patients atteints la maladie d’Alzheimer : on a mille patients qui sont atteints de la maladie d’Alzheimer, et on a des images de taille 208 pixels par 176 pixels. Donc à peu près 36 000 pixels. Donc 36 000 variables en niveaux de gris. Et bien, si j’entraîne nos modèles, on va sélectionner les pixels les plus importants et donc les variables les plus importantes pour expliquer la présence ou l’absence de la maladie. Avec seulement 200 pixels sur l’image, 200 régions du cerveau, j’arrive à prédire avec 98.5 % des cas si oui il a la maladie Alzheimer, ou non. Donc en réalité, cela représente à peu près 0.6 % ou 0.5 % des variables qui ont été mesurées. Donc le phénomène que j’observe (l’activation ou non de la maladie d’Alzheimer), réside en fait dans un espace de bien plus petites dimensions. Il y a donc une quantité de données que je peux restreindre drastiquement, et que je peux compresser.

Réseaux Neuroneaux class=

Intelligence Artificielle : Restreindre, Optimiser, Prédire

S.L. : Cela veut dire que pour chaque tâche qu’on dédie à l’IA, il faut qu’on la forme la forme, et il faut qu’un humain à côté face un focus, une restriction de recherche, pour chaque champ de recherche.

L.C. : Oui. En fait pour chaque problème, on peut entraîner un modèle à faire cette tâche elle-même. C’est-à-dire que l’on peut entraîner un modèle à dire « Je veux que toi-même tu ailles me récupérer quelles sont les variables importantes, qu’elle est justement l’information, les variables qui portent l’information sur la variable d’intérêt, qui moi m’intéresse a priori. ». Et donc en cela c’est extraire l’information, c’est comme extraire une aiguille d’une botte de foin. C’est exactement ça et le métier aujourd’hui d’analystes des données de mathématicien résident beaucoup dans le fait de retrouver ses structures de petite dimension. Et globalement ce qui se passe, ça résulte en une réduction énorme de la dimensionnalité et donc du poids de ces bases de données. Et donc on entend beaucoup que les données aujourd’hui seraient l’or noir du 21ᵉ siècle. En réalité je dirais pas que c’est exactement les données. Les données, c’est du brut. Les données transformées par contre c’est de l’or noir. C’est cela le véritable or du 21ᵉ siècle : le fait d’avoir extrait de ces données brutes l’information qui a réellement de l’importance.

S.L. : D’accord, donc il y a encore une intelligence qui montre le cap, qui dit on va chercher dans ces réseaux-là, et qui demande une automatisation, laquelle permettra de dépasser ses propres capacités. Alors, est-ce qu’il y a des modèles d’IA qui existent déjà ? Je suppose qu’à chaque fois, on ne code pas tout à la main, qu’il y a des modèles qui ont été mis en place, des outils qu’on utilise… Concrètement, comment ça fonctionne ? Il y a install.exe ? Un apt-get ? 🙂

Alors globalement, cela dépend de la manière dont on code, si on fait du C++… Nous on code beaucoup en Julia, avec des packages.

S.L. : Julia, un langage extrêmement à la mode actuellement.

L.C. : Voilà, développé par le MIT.

S.L. : Conseillé pour ses optimisations mémoires.

L.C. : Exactement. Très conseillé pour les optimisations mémoires, et très conseillé pour la parallélisation massive et donc l’utilisation sur des serveurs de calcul notamment sur GPU, donc sur multi GPU, sur des serveurs gigantesques avec beaucoup de CPU aussi pour la parallélisation massive. C’est utilisé exactement comme du python ou du R : on a des packages qu’on installe à l’intérieur de Julia et dans ces packages, on a des méthodes, des modèles qui sont déjà implémentés. Un modèle qu’est-ce que c’est : c’est un modèle qui est posé, comme un modèle linéaire par exemple, avec une pénalisation pour parler par exemple du modèle Lasso, du modèle Ridge, des choses comme ça… Et, on a ce modèle, et on veut résoudre un problème, qui est globalement un problème d’optimisation. Globalement l’IA, c’est simplement trouver un problème d’optimisation. C’est résoudre, trouver le minimum d’une fonction.

S.L. : C’est la réduite de Jordan de la Data:)

L.C. : Exactement:) C’est exactement ça 🙂 Et donc faire de l’IA, c’est souvent juste poser des méthodes de descente de gradient, de méthode de Newton, pour trouver en fait des minimums de fonction qui ont été posés avant. Tout ce qu’on fait, c’est optimiser des fonctions. Ça désacralise beaucoup le domaine, qui est de dire qu’en réalité globalement, faire de l’IA, c’est résoudre, trouver, faire une optimisation d’un problème. Globalement, les IA les plus performantes, par exemple une méthode lasso, n’ont pas de solution analytique. On ne peut pas écrire mathématiquement la solution, donc il faut l’approximer. Et dans ce cas-là, on a des méthodes pour approximer cela. Et donc ce qui est fait dans ces packages-là, c’est une méthode de prédiction qui va tenter approximer la solution.

S.L. : Et la effectivement, on rentre dans les solutions qu’on peut proposer à l’industrie. On est plus sur un petit chat pour demander de créer une image par rapport à des mots-clés, ou alors que penses-tu de la philosophie. Non non : on va arriver, on va dire vous avez une base de données avec par exemple vingt années de ventes, on va essayer de prédire à l’avance ce qui est saisonnier, qu’est-ce qui peut se dérouler, qu’est-ce qui va être par exemple en fonction de la météo ou de certains critères etc. Et là, il y a un modèle qu’on va enrichir qui va s’enrichir de l’historisation de ce qui s’est passé pour faire des prédictions et aider l’entreprise à s’adapter à ce qui peut éventuellement arriver face à elle.

L.C. : Exactement. C’est exactement ça.

S.L. : Et là il y a un modèle économique, effectivement.

L.C. : Il y a totalement un modèle économique, et il y a même des passerelles entre des domaines qui normalement, où on n’aurait pas idée au premier abord que l’on puisse avoir les mêmes modèles qui s’appliquent. Par exemple, je vais prendre un exemple très simple, qui est celui de l’analyse de survie. L’analyse de survie, c’est l’idée pour une maladie de pouvoir modéliser le temps de survie d’un patient. Est-ce qu’un patient va survivre, combien de temps va-t-il survivre, et ainsi de suite, à partir de ses variables explicatives. Et bien, les modèles qui sont déployés,par exemple les modèles de coq, des modèles de survie, et bien on peut les transférer dans l’industrie pour essayer de faire ce qu’on appelle la maintenance prédictive. Donc ainsi déterminer quand est-ce que, sur une chaîne de production, certains composants vont devenir défaillants, et pouvoir les changer avant qu’ils cassent. Donc faire de la maintenance prédictive en appliquant des méthodes de type survie qui sont appliquées globalement dans la médecine aujourd’hui. Et il y a plein de passerelles comme cela qui permettent en fait d’utiliser des modèles qui ont été développés dans un domaine pour les utiliser dans un modèle complètement différent. C’est ça qui est très beau dans les maths en fait : c’est la généralité qui en résulte.

Langage Julia

Faire Avancer la Science

S.L. : Concrètement aujourd’hui, l’IA a-t-elle déjà permis des avancées scientifiques ?

L.C. : Oui, l’IA aujourd’hui a permis des avancées énormes. Je vais parler par exemple dans tout ce qui est médical. Aujourd’hui lorsque je travaillais par exemple à l’INSERM sous la direction du professeur Rodolphe Thiébaut et Robin Genuer, mes deux anciens directeurs de thèse, on travaillait sur des problématiques de patients qui avaient le VIH. Et donc typiquement, on essayait de déterminer quels étaient les gènes qui s’activaient lorsqu’on donnait un vaccin pour déterminer comment allait être la réponse vaccinale après l’injection du vaccin, comment est-ce qu’un patient allait réagir. Cela permet de faire plein de choses : cela permet de déterminer quels sont les gènes qui sont responsables, qui réagissent a un vaccin. Déjà c’est très important, parce que cela nous permet ensuite d’aller sur certains types de vaccins ou non. Mais cela permet aussi de déterminer si un vaccin va être utile ou non à partir de l’expression des gènes d’un patient. Cela permet aussi de faire ce qu’on appelle de la médecine personnalisée. C’est très à la mode aujourd’hui, mais on y va vraiment, c’est-à-dire de déterminer à partir des caractéristiques d’un patient quel est le traitement optimal qu’il faut lui donner, et non de partir d’une grille établie très générale qui s’appliquerait à la population entière, mais plutôt de spécialiser à partir de l’IA à partir de l’intégralité des gènes exprimés du patient, quel est le traitement optimal. Ça c’est très important aujourd’hui.

S.L. : Dans certains hôpitaux en Asie (j’ai vécu en Asie quelques années), dans le vraiment haut de gamme des hôpitaux internationaux, vous avez la prise de sang, et le docteur est conseillé en temps réel par son ordinateur qui dit en fonction de ce qui se passe sur la prise de sang, et de ce qu’on voit, nous vous suggérons telle ou telle chose. Et effectivement, il y a moins d’erreurs humaines.

L.C. : Oui. Exactement. Et il y a aussi des IA qui sont complètement automatisées, qu’on peut implémenter à l’intérieur d’un pacemaker pour analyser en temps réel le rythme cardiaque d’un patient.

S.L. : Des arythmies et ce genre de choses.

L.C. : Exactement. Déterminer quand il y a des des valeurs aberrantes, c’est-à-dire quand le cœur s’emballe… On peut le mettre dans des dispositifs qui analysent le taux de glycémie en temps réel, et qui peuvent être connectés. On peut mettre une puce 5G qui permet d’être connecté et d’alerter les secours lorsqu’il y a un problème, lorsqu’un patient par exemple va faire un arrêt cardiaque, ou lorsqu’un patient va faire une hyperglycémie, une crise de glycémie, des choses comme ça. Et même la prévoir, la prédire à l’avance, et envoyer sur le téléphone une alerte disant « vous devriez aller voir les secours ou votre médecin, parce qu’il y a potentiellement un problème et un risque grave d’avoir un accident. ».

Intelligence Artificielle

Les Limites Physiques de l’Intelligence Artificielle

S.L. : Alors la limite de l’IA aujourd’hui reste tout de même la puissance de calcul. Il y a des limitations qu’on n’arrive pas à dépasser. On sait que les microprocesseurs sont limités en fréquence, même si par jeux d’instruction, on va doubler les actions. On sait que la vitesse de lecture et d’écriture est limitée physiquement. Alors, ce n’est peut-être pas votre terrain de prédilection, mais est-ce que vous avez regardé un peu ce qui passe au niveau du quantum ?

L.C. : Je n’ai pas du tout regardé ce qui se passait au niveau de l’informatique quantique. Mais globalement, ce que je pourrais dire par rapport à cette limitation du monde physique de l’IA, c’est aussi ce qu’en disait Yann LeCun, ce chercheur à l’université de New York qui travaille à la division intelligence artificielle de Facebook. C’est un peu le ver des réseaux de neurones. L’idée d’un réseau de neurone est de calquer le réseau neuronal d’un être humain, et de se dire que si j’arrive à reproduire et à calquer le réseau neuronal d’un être humain, peut être arriverais-je à m’approcher le plus possible de ce que l’on appelle le sens commun.

S.L. : Découper une IA en sous Ias et leur faire communiquer uniquement les éléments essentiels les uns pour les autres.

L.C. : Voilà, exactement, comme l’idée d’avoir un cortex préfrontal, et ainsi de suite. Vous voyez, ce genre de choses. Et bien lui, il faisait la comparaison en disant : les modèles les plus perfectionnés aujourd’hui ont tant de neurones dans le réseau de neurones, des neurones qui sont imbriqués, et il comparait ça avec le nombre de neurones qu’il y a dans un cerveau humain. Et il disait qu’en fait le rapport entre les deux est de plusieurs milliers de fois le nombre de neurones qu’il pourrait y avoir pour atteindre le cerveau humain. Donc selon lui aujourd’hui, la véritable limitation, c’est effectivement cette limitation physique, qui est de dire lorsqu’on aura atteint des capacités de calcul gigantesque, on pourra peut-être mimer la structure d’un cerveau humain. Cela dit, ce type de modélisation ne permet pas de s’approcher de choses que fait le cerveau humain, par exemple l’apprentissage par ses pairs : le fait qu’une IA puisse apprendre par le langage d’une autre IA. Une communication d’une IA nia sur une autre, pour pouvoir apprendre.

S.L. : C’est une spécificité humaine, la transmission du savoir inter-générationnel et autres….

L.C. : Exactement. Et aujourd’hui, il y a plein de domaines qui sont cloisonnés comme ça. Par exemple, il y a des chercheurs en intelligence artificielle qui ne font que de la recherche sur le langage, et qui font de la recherche justement pour faire de l’apprentissage sur le langage. Aujourd’hui, on n’est pas capable de faire communiquer ces différents domaines de recherche. On peut citer par exemple les trois plus grands domaines : réseaux neuronaux, apprentissage renforcé (l’idée d’apprendre pas à pas avec des expériences par échec ou succès), et le dernier très grand domaine, l’apprentissage sur le langage. Ces trois-là, nous ne sommes pas aujourd’hui capables de les unifier. Et pour revenir à la question initiale de Yann LeCun, il y a effectivement une limitation énorme du hardware qui est disponible aujourd’hui. Et si selon lui on arrive à atteindre des capacités de calcul qui permettront justement de calquer le cerveau humain, peut-être pourra-t-on atteindre ce que l’on appelle le sens commun.

En IA, le sens commun, c’est l’intuition humaine. C’est l’intuition qu’on développe globalement de par une expérience, de par l’expérience des choses qui se passent. Si je vous montre par exemple un film qui se déroule, quelques minutes d’un film et que je coupe, vous êtes capable d’avoir l’intuition de ce qui va se passer sur les deux ou trois prochaines secondes. Et ça, c’est très marrant parce que les IA d’aujourd’hui sont absolument incapables de le faire. C’est quelque chose qu’elles sont absolument incapables de réaliser. Cela dit, si vous donnez a une IA une l’image d’un stylo qui tombe, le tout début d’un stylo qui tombe, la hauteur etc, elle est capable de déterminer de manière absolue comment le stylo va tomber, dans quelle position, et ainsi de suite. Vous lui donnez toutes les informations, centre de gravité, la masse, la répartition de la masse et ainsi de suite. Cela dit un être humain n’est pas du tout capable de faire ça. Et le sens commun, ce qu’on appelle le sens commun d’un être humain, c’est que si je montre le début d’un stylo qui tombe a l’être humain, celui ci va dire : « bah, il va tomber, et il va tomber à peu près par là ». Le sens commun d’un être humain, et ce qu’il faut toucher du doigt, c’est de dire « eh bien le stylo tombe ». Une IA ne va pas faire ça. Elle va dire le stylo tombe, et il tombe ici exactement. Et il faut que l’IA détermine à la vue de seulement cette petite vidéo, qu’elle puisse dire que c’est un stylo qui va tomber. Le sens commun humain, c’est de dire « il y a un stylo qui tombe », et non de faire tous les calculs et d’être une super machine.

Epoch Intelligence

Conclusion, Projets, Contact

S.L. : Donc, Louis Capitaine d’Epoch Intelligence, juste pour conclure en quelques secondes : vous avez des projets intéressants actuellement ? Je crois que vous allez en Égypte ?

L.C. : Oui tout à fait ! Donc là, nous allons en Égypte pour deux raisons : pour voir un client sur la formation, et aussi pour prendre quelques vacances parce que l’année a été très longue, très riche, très chargée. Il y a beaucoup de projets qui s’ajoutent les uns après les autres, notamment des grands projets avec l’office national des forêts sur la cartographie des forêts de France, qui étaient des projets très intéressant avec des données très massives, gigantesques, de plusieurs terras, donc très très intéressant, en partenariat avec l’office national des forêts et l’IGN.

S.L. : Oui, ils sont très demandeurs de cela. J’ai un ami qui avait fait une thèse sur la détection des ponts sur des images satellites. On a besoin de ce genre de choses. Alors, il est possible de vous joindre sur www.epoch-intelligence.fr, me semble-t-il ?

L.C. : Tout à fait.

S.L. : Et vous proposez vos services à des sociétés de quelle dimension, et de quel type, de manière générale ?

L.C. : toutes les dimensions de société. En règle générale, si société a des données et qu’elle a un problème qui est bien établi, un problème plutôt complexe, globalement qui nécessite en fait de faire de la RAD, nous proposons nos services. Donc globalement toutes tailles d’échelle. Ce que je disais, c’est que la plupart des problèmes résident dans un espace de petite dimension donc même si on a assez peu de données finalement, on est toujours capable de mettre des solutions D’IA dans sa société.

S.L. : OK. Salutations, et bonne soirée 🙂