Interview pour Market Research News, avec son aimable autorisation.
MRNews : L’Intelligence Artificielle est le plus souvent définie au travers du tryptique Données / Algorithmes / Intelligence humaine. Vous retrouvez-vous dans cette définition ?
Frédéric Lefebvre-Naré : Cette définition me semble mieux s’appliquer à la Data Science qu’à l’Intelligence Artificielle en tant que telle. Une autre définition courante, qui marche assez bien, dit que l’IA consiste en une capacité de l’ordinateur à faire des choses que l’on croyait seule l’intelligence humaine à même de faire. C’est ce qui alimente cet effet de buzz, le mélange de fascination et de crainte que nous pouvons éprouver vis-à-vis des « machines ». Une interrogation ou une inquiétude sur la complémentarité entre l’intelligence humaine et celles des ordinateurs : est-ce que l’une des deux est englobée par l’autre, intégrée à l’autre ?
L’utilisation de l’IA dans l’univers du Market Research reste aujourd’hui encore très faible, non ?
Je crois que cela évoluera, que nous ne sommes qu’aux prémisses d’une longue histoire. L’IA pourrait « manger » dans les années à venir certains pans du Market Research — « manger » au sens de transformer, de métamorphoser, de compléter aussi.
Ça me rappelle que vers 1993, à l’arrivée du web, un de mes collègues en institut me disait : est-ce que nous devons continuer à demander aux gens des réponses qu’ils ont déjà publiées, que nous pourrions juste chercher en ligne ? 25 ans après, nous continuons à poser des questions, mais nous savons aussi chercher les réponses qui sont déjà là. Nous avons appris à inverser le schéma questions / réponses pour passer à un mode sujets / découvertes. C’est en particulier ce que permet l’outil Net-Conversations, que nous avons développé avec DCap Research.
Quelle est votre vision des principaux champs d’application de l’Intelligence Artificielle dans l’univers du Market Research. Pour quels types de problématiques l’IA peut-elle apporter un vrai « plus » ?
Je distinguerais deux grandes logiques d’application. La première consiste à mieux exploiter des matériaux existants, ce qui nous rapproche de la data science ; comme dans l’exemple de Net-Conversations dont nous venons de parler.
Le second sujet, plus proche d’ailleurs du courant principal en IA, est celui de la prédiction ; en particulier la prévision d’évènements futurs. Elle donne la possibilité d’un apprentissage progressif automatique (machine learning) : on prévoit, on enregistre ce qui se passe réellement pour, pas à pas, corriger le modèle et renforcer son pouvoir prédictif. Lorsque la prévision se base sur quelques variables chiffrées, on reste dans le champ de l’économétrie. Mais si l’on veut faire tourner des boucles de prévision mobilisant un très grand nombre de variables, par exemple un film ou un enregistrement sonore, on a besoin de techniques d’Intelligence Artificielle.
En poursuivant cette projection dans le futur, voyez-vous d’autres champs de progrès possibles autour de l’IA ?
Les choses vont tellement vite que toute projection dans le futur peut être vite ridiculisée !
Mon sentiment personnel est que le potentiel de l’IA pour analyser des textes reste aujourd’hui très sous-exploité. Léon Bottou, de Facebook Research, dans une conférence à Jussieu en mars dernier, rappelait la citation célèbre de Frederick Jelinek : « chaque fois que je vire un linguiste, la performance de mon système de reconnaissance de la parole s’améliore ». C’est une provocation, bien sûr, mais je crois qu’il y a une vérité profonde ici. Nous sommes encore trop respectueux du langage humain, de ses structures, et ça nous freine. Le sens de l’histoire est de renoncer à formaliser nous-mêmes, humains, ces structures tellement complexes, et de faire confiance à l’ordinateur pour les trouver, parce qu’elles sont bien là, fruit, d’ailleurs, de l’intelligence humaine.
A contrario, je suis moins optimiste sur ce qu’on arrivera à faire des données « de parcours », c’est-à-dire de séquences d’événements successifs dans le temps. Des militants anti-Linky sont convaincus qu’à partir du moment où l’on enregistre 48 fois par jour la consommation d’électricité d’un logement, on serait capable de connaître tous les faits et gestes des habitants : mais même avec 1000 points enregistrés, ça resterait très difficile et très peu fiable ! Les mêmes militants peuvent d’ailleurs trouver tout à fait normal de garder sur eux un smartphone qui signale à leur opérateur et à Google leur position, peut-être 10000 fois par jour. Mais même ces données très détaillées sont peu employées ; la position actuelle et récente est utilisée dans beaucoup d’applications, oui ; mais qui sait faire grand’chose de l’historique ?
Extraits publiés avec l'aimable autorisation de MRNews.