ARTIFICIAL INTELLIGENCE GOES BILINGUAL – WITHOUT A DICTIONARY

Automatic language translation has come a long way, thanks to neural networks—computer algorithms that take inspiration from the human brain. But training such networks requires an enormous amount of data: millions of sentence-by-sentence translations to demonstrate how a human would do it. Now, two new papers show that neural networks can learn to translate with no parallel texts—a surprising advance that could make documents in many languages more accessible.

“Imagine that you give one person lots of Chinese books and lots of Arabic books—none of them overlapping—and the person has to learn to translate Chinese to Arabic. That seems impossible, right?” says the first author of one study, Mikel Artetxe, a computer scientist at the University of the Basque Country (UPV) in San Sebastiàn, Spain. “But we show that a computer can do that.”

Most machine learning—in which neural networks and other computer algorithms learn from experience—is “supervised.” A computer makes a guess, receives the right answer, and adjusts its process accordingly. That works well when teaching a computer to translate between, say, English and French, because many documents exist in both languages. It doesn’t work so well for rare languages, or for popular ones without many parallel texts.

By signing up, you agree to share your email address with the publication. Information provided here is subject to Science’s privacy policy.

The two new papers, both of which have been submitted to next year’s International Conference on Learning Representations but have not been peer reviewed, focus on another method: unsupervised machine learning. To start, each constructs bilingual dictionaries without the aid of a human teacher telling them when their guesses are right. That’s possible because languages have strong similarities in the ways words cluster around one another. The words for table and chair, for example, are frequently used together in all languages. So if a computer maps out these co-occurrences like a giant road atlas with words for cities, the maps for different languages will resemble each other, just with different names. A computer can then figure out the best way to overlay one atlas on another. Voilà! You have a bilingual dictionary.

The new papers, which use remarkably similar methods, can also translate at the sentence level. They both use two training strategies, called back translation and denoising. In back translation, a sentence in one language is roughly translated into the other, then translated back into the original language. If the back-translated sentence is not identical to the original, the neural networks are adjusted so that next time they’ll be closer. Denoising is similar to back translation, but instead of going from one language to another and back, it adds noise to a sentence (by rearranging or removing words) and tries to translate that back into the original. Together, these methods teach the networks the deeper structure of language.

There are slight differences between the techniques. The UPV system back translates more frequently during training. The other system, created by Facebook computer scientist Guillaume Lample, based in Paris, and collaborators, adds an extra step during translation. Both systems encode a sentence from one language into a more abstract representation before decoding it into the other language, but the Facebook system verifies that the intermediate “language” is truly abstract. Artetxe and Lample both say they could improve their results by applying techniques from the other’s paper.

In the only directly comparable results between the two papers—translating between English and French text drawn from the same set of about 30 million sentences—both achieved a bilingual evaluation understudy score (used to measure the accuracy of translations) of about 15 in both directions. That’s not as high as Google Translate, a supervised method that scores about 40, or humans, who can score more than 50, but it’s better than word-for-word translation. The authors say the systems could easily be improved by becoming semisupervised–having a few thousand parallel sentences added to their training.

In addition to translating between languages without many parallel texts, both Artetxe and Lample say their systems could help with common pairings like English and French if the parallel texts are all the same kind, like newspaper reporting, but you want to translate into a new domain, like street slang or medical jargon. But, “This is in infancy,” Artetxe’s co-author Eneko Agirre cautions. “We just opened a new research avenue, so we don’t know where it’s heading.”

“It’s a shock that the computer could learn to translate even without human supervision,” says Di He, a computer scientist at Microsoft in Beijing whose work influenced both papers. Artetxe says the fact that his method and Lample’s—uploaded to arXiv within a day of each other—are so similar is surprising. “But at the same time, it’s great. It means the approach is really in the right direction.”

Matthew Hutson

L’IA EST-ELLE VRAIMENT CRÉATIVE ?

Parmi les nombreuses prouesses de l’intelligence artificielle qui sont régulièrement montées en épingle, celles qui touchent à la création ou à la modification de contenus sont les plus intrigantes. La magie du deep learning produit des images, des vidéos, de la musique et même des textes inédits. Les traditionnels élans anthropomorphiques associent des qualités créatives à des logiciels qui appliquent machinalement des algorithmes et sont eux-mêmes le résultat de longues itérations de chercheurs et développeurs. On en vient bien rapidement à confondre l’intelligence des individus qui créent et exploitent ces outils d’un nouveau genre et celle des outils qui la mettent en valeur. C’est l’objet de ce papier que d’examiner ces avancées récentes de l’IA et d’en évaluer le potentiel créatif.

Comme pour la notion même d’intelligence artificielle, celle de créativité pourrait donner lieu à quelques exercices sémantiques sans fin. Qu’est-ce donc que la créativité ? Je ne suis pas en mesure d’étaler une érudition philosophique que je n’ai pas. Nous nous contenterons de faire appel à Wikipedia pour rappeler que la créativité est la capacité d’un individu ou d’un groupe à imaginer ou construire et mettre en œuvre un concept neuf, un objet nouveau ou à découvrir une solution originale à un problèmeBref, la créativité consiste surtout à sortir des clous !

Cette définition reprend celle de la chercheuse anglaise Margaret Boden qui est une référence en la matière avec son ouvrage Creative Minds Myths and Mechanisms (1990 et 2004). Elle insiste sur le côté multi-facettes et multi-domaines de la créativité humaine dont toute personne est douée d’une manière ou d’une autre. Et aussi sur la différence entre la nouveauté pour le créateur et dans sa dimension historique globale. Quelqu’un qui réinvente quelque chose d’existant dont il n’a pas connaissance est tout de même créatif !

La créativité “computationnelle” a même sa conférence annuelle, l’International Conference on Computational Creativity (ICCC), dont vous pouvez consulter les volumineux actes de l’édition 2017 qui s’est tenue en juin à Atlanta ainsi que ceux de l’édition 2016 qui avait lieu à Paris. C’est assez ardu et comme dans tous les champs de l’intelligence artificielle, le croisement de celui-ci et de la créativité y sont abordés en toutes petites pièces détachées.

Avec cet éclairage en tête, nous allons faire un tour d’horizon pratique des performances créatives de l’IA récemment mises en avant puis les décortiquer pour comprendre ce qui les sépare ou non de ces notions humaines de créativité. En général, ces performances s’appuient sur des réseaux neuronaux génératifs aussi bien convolutionnels (CNN, Convnets) que récurrents (RNN, LSTM) qui sont capables d’extrapoler des contenus à partir de contenus existants, ou qui combinent divers contenus existants pour en créer de nouveaux.

Création graphique

Les réseaux de neurones génératifs font des progrès réguliers dans leur capacité à associer plusieurs contenus. Typiquement, comme dans le cas suivant, une photo peut-être associée à une texture particulière comme des feuilles, et elle sera “peinte” avec cette texture. Le résultat est innovant et créatif ? Oui, comme toute forme de patchwork graphique. On voit dans les exemples comme le dernier que certains fonctionnent mieux que d’autres. C’est le choix du créatif que de le mettre en avant après avoir testé plusieurs textures.

Generation textures

Le procédé est extensible à l’application, non pas d’une simple texture, mais d’un style de peinture complet, reprenant le principe du pastiche. L’approche est toujours saisissante lorsque les exemples sont bien choisis comme ci-dessous, avec du Picasso ou du Gauguin. N’oublions pas un biais des chercheurs qui tentent diverses approches et présentent celles qui fonctionnent en éliminant les combinaisons qui n’ont pas été satisfaisantes. Est-ce que ce genre de création sort des clous ? Pas tant que cela. Picasso sortait des clous, pas l’IA qui transpose son style dans un personnage de dessin animé !

Copie style graphique

Voici un autre exemple, issu de A Neural Algorithm of Artistic Style de Leon Gatys, Alexander Ecker et Matthias Bethge (2015). Des techniques aussi sophistiquées que le fameux sfumato de Léonard de Vinci semblent reproductibles avec cette méthode. On peut aussi se débarrasser du sfumato dans le processus (vidéo) !

Peinture generative

Dans chacune de ces réalisations, les contenus d’origine proviennent d’artistes humains ou de photos. L’IA est donc un bon outil pour combiner diverses sources d’existant. Le contenu résultant est-il pour autant véritablement original ? Génère-t-il un nouveau style de peinture ? Pas vraiment puisqu’il applique un style existant. On pourrait sans doute combiner plusieurs styles pour en créer un qui soit réellement nouveau. C’est ce que permet en théorie Pikazo, une application iOS qui sert à combiner de manière créative plusieurs photos et peintures.

Le deep learning est aussi utilisé dans la création graphique ou la création de sites web. C’est ce que réalise le site de création de sites web Wix (vidéo). Il s’est entrainé en analysant le style de nombreux sites web et leur performance (SEO, trafic) pour en déduire empiriquement les paramètres d’un bon site, le tout, en fonction de plusieurs milliers de professions (source). L’outil de création de sites web va également exploiter l’ensemble des textes et visuels disponibles sur la société pour bâtir une maquette de site. La création du site est guidée par l’utilisateur qui va tout de même choisir de attributs de sa marque pour influencer le design généré et ses couleurs dominantes. Le danger de ces outils ? Ce n’est pas une surprise : il risque de faire converger les sites créés vers un design voisin.

Une approche voisine est proposée pour l’instant de manière expérimentale par Adobe (source). Le tout s’intègre dans l’Adome Experience Manager CMS (outil de création de site) et exploite Adobe Sensei, la plateforme logicielle qui intègre les briques d’AI de l’éditeur. Cette IA est focalisée sur l’ajustement des contenus graphiques, pour mieux cadrer les illustrations.

Logojoy

Enfin, citons LogoJoy, un service en ligne de création de logos. La méthode est un peu bourrine : l’utilisateur sélectionne d’abord cinq styles qui lui plait, indique le nom de sa société puis son slogan et enfin, choisi une couleur et cinq icones qui correspondent à son service. A partir de là,le système génère un logo (démo). Ce n’est pas très créatif puisque le logo associe la nom de la société, son slogan et tout ou partie des icones sélectionnées. C’est encore une technique de mash-up. Mais, si cela se trouve, le résultat est aussi bon qu’avec une bonne part des créateurs traditionnels de logos.

Ces différentes solutions ont un point commun : elles s’appuient sur des réseaux de neurones qui sont entrainés avec des volumes d’images plutôt raisonnables vis à vis des réseaux de neurones de reconnaissance d’images. Il n’est pas nécessaire d’ingérer 100 millions d’images pour créer des pastiches de peintures. Quelques milliers suffisent d’après ce que l’on peut lire dans les articles de recherche associés !

Création musicale

La musique est le second sujet de prédilection de la créativité par l’IA après les arts graphiques. Cela fait au moins trois décennies que diverses expériences ont été menées pour composer automatiquement de la musique en tirant parti de l’apprentissage basé sur des bibliothèques de musiques existantes.

L’offre logicielle actuelle est plutôt abondante dans la création musicale à base d’IA. Elle est souvent issue de laboratoires de recherche, comme l’IRCAM français,  mais certaines offres commerciales sont disponibles, également avec une importance contribution française.

Citons par exemple :

  • Orb Composer du Toulousain Hexachords qui génère de la musique orchestrale. Voici un exemple d’accompagnement musical d’un documentaire, un exemple convenable, ce genre de musique étant surtout une musique de fond. Ce n’est évidemment pas du niveau de la Bataille de Carthage de Gladiator par Hans Zimmer !
  • OMax est un logiciel open source provenant de l’IRCAM qui accompagne en temps réel un musicien en live. Comme dans le cas présent, l’IA a un repère à suivre.
  • Issu de l’UMPC (Université Pierre et Marie Curie), le projet Flow Machines combine des styles musicaux à des mélodies, une sorte d’équivalent des pastiches vus en peinture. Voici un exemple inspiré des Beatles. Là encore, on s’appuie sur de l’existant.
  • Le français AIVA génère de la musique classique et symphonique en exploitant 15 000 partitions de compositeurs classiques et du deep learning à base de renforcement et de création aléatoire (stochastique). Cf à leur sujet Will the Next Mozart be a Robot? de Dom Galeon (novembre 2017).
  • L’Anglais Jukedeck compose automatiquement de la musique d’accompagnement de vidéos. C’était un finaliste du concours de startups de LeWeb en décembre 2014. C’est aussi ce que propose l’Américain Amper Music qui fournit même son service sous forme d’API en cloud.
  • Le logiciel open source allemand Ludwig sert à créer de l’accompagnement musical d’une mélodie fournie par l’utilisateur (exemple).
  • Dans le même genre, l’Américain Humtap (vidéo) génère automatiquement un accompagnement musical en exploitant une simple mélodie que vous chantez à votre mobile ou votre PC. C’est plutôt bluffant et très efficace ! Et vous êtes la première source d’inspiration.

Humtap

  • L’Américain Popgun.ai (2017) utilise le deep learning pour apprendre les bonnes règles musicales à partir de compositions humaines pour enrichir des compositions existantes. La démonstration de leur prototype Alice est sympathique (vidéo) mais pas forcément facile à mettre en pratique.

Popgun

  • Amper Music (2014, $4M) est un site en ligne, pour l’instant gratuit, qui compose automatiquement de la musique via de l’IA (vidéo). Il faut tout de même le paramétrer pour indiquer ses souhaits en termes d’instruments, de tempo, de style et de durée. C’est pratique pour créer des compositions qui vont alimenter les vidéos de démonstration de startups, et éviter les habituelles musiques d’ukulélé qui les accompagnent régulièrement. Le service a publié son premier album complet en aout 2017.
  • Google est aussi de la partie avec son projet de recherche Magenta qui aide les musiciens à être créatifs en combinant toutes les formes de deep learning imaginables (vidéo). Cf How Google is making music with artificial intelligence de Matthew Hutson (aout 2017).

Toutes ces initiatives sont à la recherche du même Graal : la génération de musique qui tape à l’oreille et aux émotions, qui se retient, qui devient éventuellement un “hit”. Mais elles n’y parviennent pas encore. Le chercheur de la BBC Armand Leroi avait essayé de découvrir l’ADN des hits de la musique pop. A force de machine learning et d’analyse de plusieurs décennies de pop music, il avait identifié des évolutions temporelles dans les tendances dans le rythme et l’accompagnement, mais sans parvenir à découvrir la sauce magique des hits (cf The secret science of pop de Armand Leroi, qui date de début 2017).

BBC

Toutes ces solutions logicielles ont en commun le fait qu’il s’agit d’outils. Le discernement musical reste une affaire humaine. Ne serait-ce que pour que les compositions et leur interprétation véhiculent un maximum d’émotions. Or on ressent l’absence d’émotion en écoutant la majorité des créations musicales issues de l’IA qui sont générées automatiquement. Seules celles qui ont été sélectionnées et retravaillées par des oreilles averties ont une chance de nous toucher. Pour l’instant.

Création vidéo

La création de vidéo à base d’IA est moins courante et beaucoup moins impressionnante que la musique à créée par de l’IA. L’un des exemples les plus connus est celui de la startup israélienne Wibbitz (2011, $11,8M) avec sa solution qui génère automatiquement des vidéos d’actualité à partir de contenus textuels et de scrapping de contenus vidéos. La dose d’IA de cette solution n’est cependant pas bien documentée.

Plus récemment, Intel a contribué à la création d’un clip vidéo pour une chanteuse chinoise, Chris Lee. D’un point de vue pratique, la contribution de l’IA est liée à la construction en 3D du visage du chanteur et à l’ajout d’effets spéciaux dessus comme des gouttes d’eau ruisselantes. La créativité dans cette affaire reste dans les mains des équipes qui ont créé ce clip (détails vus sur Ubergizmo).

Face2Face

Ce système rappelle d’ailleurs le projet de recherche face2face des Allemands et Américains Justus Thies, Michael Zollhofer, Marc Stamminger, Christian Theobalt et Matthias Nießner (vidéopapier) datant de 2015. Il permet de transposer les mimiques d’une personne filmée avec une simple caméra 2D sur un autre visage, Daniel Craig ou Barack Obama dans les démonstrations de ce projet de recherche. Comme on sait aussi générer des voix synthétiques à partir de l’échantillonnage d’une voix connue, par exemple chez Lyrebird, nous ne sommes pas loin de la possibilité de créer avec de l’IA de véritables “fake videos” de personnes connues ou inconnues.

Création textuelle

Le deep learning est aussi capable de générer des textes. La plupart du temps, la créativité est loin d’être au rendez-vous. C’est le cas pour ces outils de génération de dépêches d’agences de presse qui mettent en forme des informations quantitatives issues, par exemple, de résultats financiers d’entreprises ou de compétitions sportives. Les systèmes se sophistiquent un tant soi peu lorsqu’ils exploitent aussi les données historiques associées. Les outils de ce genre sont légion et sont notamment proposés par Automated InsightsTextomaticNarrative ScienceLabSenseSyllabs, Retresco et Yseop.

La créativité semble pointer du nez dans des expériences de génération de fictions. C’est le cas avec ce récent projet du MIT Media Lab qui a permis de générer des histoires d’horreur basées sur l’analyse de 140 000 histoires. Un nombre qui rappelle les 150 000 parties de jeu de Go qui avaient servi à entrainer les premières versions d’AlphaGo qui s’en est ensuite passé dans sa dernière mouture. J’explique dans Les conséquences pratiques d’AlphaGo Zero (novembre 2017) pourquoi cela ne s’applique qu’aux problèmes à règles discrètes simples. Dans la pratique, ce système de génération de texte est assisté par des auteurs.

Un certain Max Deutsch s’est attaqué à un des besoins les plus fondamentaux de la jeunesse mondiale en créant de nouveaux chapitres des livres de Harry Potter à base de réseaux de neurones. Les données d’entrainement ? Et bien, tous les Harry Potter, pardi ! Le résultat ? Au moins, les phrases sont bien plus correctes que n’importe quel tweet de Donald Trump, avec moins de prises de tête du type covfefe pour en comprendre le contenu ! Max Deutsch s’est aussi amusé à rédiger avec la même méthode des scènes de Star Wars. Ces films ne sont cependant pas très créatifs, reprenant des trames assez classiques, notamment bien documentées dans le très ancien “The hero with 1001 faces” de Joseph Campbell (1949).

Deep Writing Harry Potter

L’IA peut aussi servir à améliorer des textes exitants. WordAi est une startup qui fournit un outil de réécriture de vos textes pour les rendre lisibles par de vrais gens ! Le travail réalisé relève de la reformulation d’expressions existantes. D’autres produisent des résumés automatiques de textes en extrayant les expressions les plus pertinentes d’un document. Je n’ai cependant pas encore mis la main sur un outil qui démarketinginserait un texte trop marketing.

Tout ces outils ne sont pas encore très créatifs et restent cantonnés à la production de textes courts. C’est ce qu’explique Walter Frick dans Why can’t AI write this article (yet) (HBR, juillet 2017). Même s’il évoque la création d’un scénario par une IA (vidéo associée).

La prochaine étape créative résiste dans la capacité des outils de l’IA à faire preuve d’humour. Celui-ci est décryptable au niveau de ses composantes élémentaires, comme dans la création d’analogies. Cela a démarré avec des IA capables de déterminer la présence d’humour dans des textes. Une vingtaine de travaux de recherche sur l’humour de l’IA ont été publiés dès 2012 (AAAI) et leur bibliographie remonte aux années 1990 !

La capacité à reconnaitre l’humour et à en faire preuve est un domaine de recherche pas si futile que cela. Il est exploré pour alimenter les robots doués de capacités de conversation et d’empathie. Cf It’s hard work being funny—especially for robots de Daniela Hernandez (2016).

Hanson Robot Les Echos Web Summit

Le robot Sophia de Hanson Robotics (ci-dessus) qui a obtenu la citoyenneté en Arabie Saoudite en octobre 2017 constituait une grosse foutaise symbolique. Il fait preuve de zéro humour et empathie ! Ce d’autant plus qu’il n’était même pas évident qu’il ait pu faire autre chose que débiter des “talking points” préparés à l’avance dans les conférences où il intervenait. Il générait cette impression au Web Summit de Lisbonne début novembre 2017 (repris ci-dessous dans Les Echos). Au passage, personne n’a remarqué que ce robot n’était qu’un buste incapable de se mouvoir dans l’espace. Le projet Sophia est mené par Ben Goertzel, un spécialiste de l’IA très investi depuis plus d’une décennie dans le développement d’AGI (intelligence artificielle générale).

Robot Dance

Les robots donnent aussi lieu à des tentatives de les rendre créatifs dans leur capacité à se mouvoir et notamment à danser. C’est le travail du projet “Creative Robot Dance with Variational Encoder” d’une équipe de chercheurs italiens présenté lors de l’ICCC 2017, avec des exemples réalisés à l’aide du robot Nao de Softbank Robotics (vidéo d’exemples).

Création d’objets

Les réseaux de neurones génératifs sont aussi capables de créer des objets artificiels en mélangeant plusieurs styles à façon. C’est une variante des outils de création graphique vus au début de cet article. L’éditeur de logiciels de CAO Autodesk s’est lancé là-dedans avec une évolution de sa solution Dreamcatcher annoncée en 2017 et prévue pour 2018.

Autodesk Dreamcatcher

Créativité scientifique

Le prochain Graal de la créativité de l’IA sera de l’appliquer à la recherche scientifique. A ce stade, c’est encor un sujet en devenir. Les chercheurs peuvent évidemment s’appuyer sur des applications de machine learning et de deep learning pour orienter leurs travaux.

Nous en avons un exemple classique en biologie moléculaire. Le machine learning permet d’identifier la corrélation entre mutation génétiques et apparition de cancers divers. Cela permet de faire de la médecine prédictive et d’anticiper l’émergence de pathologies. Reste à les traiter ! Et il faut rentrer dans le lard de la biologie pour trouver comment s’attaquer aux cellules malignes, à leur membrane ou à leur génome. Tout le travail reste à faire et il est très lourd.

Les limites des systèmes d’IA actuels bâtis sur le machine learning et le deep learning proviennent de ce qu’ils ne gèrent pas de logique formelle et d’IA symbolique. C’est un domaine où heureusement de nombreux chercheurs sont actifs. Un jour viendra peut-être où le raisonnement automatisé permettra de découvrir quels chemins de recherche privilégier par la logique et en s’appuyant aussi sur les données disponibles.

Créativité dans la résolution de problèmes

Dernier sujet, la créativité dans la résolution de problèmes complexes auxquels sont notamment confrontés les entreprises. Comment innover ? Quels nouveaux produits créer et commercialiser ? Comment optimiser son mix marketing ? Quelle politique économique mener dans un pays ? Comment négocier avec une autre entreprise ou un autre pays dans les affaires ou la politique ? Comment attirer les talents dans son entreprise ?

A ce jour, les solutions à base d’IA pour résoudre ce genre de problème sont périphériques. Ce sont le plus souvent des outils qui fournissent ou mettent en forme des donnée qui aident à circonscrire ces problèmes ou à simuler des scénarios. La combinaison des idées en environnement d’information incomplet est généralement l’affaire des idées humaines et autres groupes de travail.

Les processus créatifs peuvent s’appuyer sur des données et de l’IA pour réaliser des simulations et valider des hypothèses. Mais alimentés par les données du passé, ces outils peuvent-ils vraiment anticiper le futur ? De tels outils auraient-ils été d’une quelconque aide à Steve Jobs et les équipes d’Apple lorsqu’elles ont créé l’iPod, l’iPhone ou l’iPad ? Et une IA pourrait-elle inventer la danse moonwalk de Michael Jackson, via un processus identique ou différent de celui qui a mené ce dernier à la créer ?

So ?

Nous avons exploré d’un point de vue pratique les performances de quelques solutions d’IA dans divers domaines comme la création graphique, musicale ou textuelle.

A chaque fois, sont mises en jeu des bribes de créativité et d’aide à la créativité. Ces outils fonctionnent avec une assistance humaine et sont rarement entièrement autonomes. L’IA n’est pas créative en tant que telle. Elle fournit des outils qui assistent l’Homme dans sa créativité. La créativité humaine est encore le résultat de la réutilisation et de la combinaison de l’existant à partir d’une palette qui s’élargit sans cesse. Mais elle intègre des éléments de contexte, d’audience et aussi, la capacité à véhiculer des émotions et de s’adapter à des audiences.

C’est l’Homme qui fait preuve de discernement et qui fait le tri de ce que les outils de l’IA peuvent produire. Les exemples publiés par les chercheurs sont d’ailleurs très souvent triés sur le volet, générant une sortie de biais positif de perception de leur créativité. Les choix restent humains. C’est la thèse défendue par Magaret Boden dans Artificial Creativity, Why computers aren’t close to being ready to supplant human artists en 2015, qu’elle détaille également dans Creativity and Artificial Intelligence:  a contradiction in terms?.

Ce que l’on appelle “l’IA” est généralement issue de la “collaboration” entre humains et de l’IA. On joue sur les mots par sensationnalisme au lieu d’évoquer l’exploitation d’outils. C’est une anthropomorphisation sémantique de l’outil comme si on disait que le marteau du sculpteur ou la peinture du peintre étaient “créatifs”. Ceci ressort bien de la belle série d’articles excellemment documentés produits en juin 2017 par l’Allemand Thomas Euler : “Will the Next Pop Cultural Icon Be an AI? A Guide Through Computational Creativity” (partie 1partie 2partie 3partie 4). Il y traite de la créativité dans la musique, l’écriture, les arts graphiques, la publicité, la vidéo et les jeux vidéo. J’en ai tiré bon nombre des exemples d’IA citées ici même et qui montrent à chaque fois que l’IA est un outil et rarement plus que cela.

La créativité requiert une capacité et une volonté à sortir des clous et des contraintes existantes. Les grands créatifs ne suivent pas la moyenne. Ils font avancer l’état de l’art. Ils ont un côté rebelle et incompris, au moins à leurs débuts. Or les outils de l’IA fonctionnent par entrainement avec des données existantes. Ils font converger la créativité vers la moyenne et l’existant et permettent rarement de s’en éloigner. Cette moyenne n’est pas naturellement atypique. Une voiture générée par une IA alimentée par les voitures existantes et des sondages ressemblerait à une berline des plus classique et lisse. C’est une limitation sur laquelle planche l’équipe américaine du projet “CAN: Creative Adversarial Networks – Generating “Art” by Learning About Styles and Deviating from Style Norms” (vue dans les actes de l’ICCC 2017). Ils veulent faire apprendre des styles à une IA puis à l’aider à sortir de leur cadre (exemples ci-dessous). Le tout fait encore appel aux fameux réseaux de neurones génératifs de type GAN (Generative Adversarial Networks).

New style GAN

On peut aussi jouer au jeu du réductionnisme de la créativité et la décortiquer en composantes isolées. Mais souvent, on le fait a posteriori, comme en remontant aux sources d’inspiration de Steve Jobs dans sa passion pour le design et la simplicité. La créativité vient aussi de la connaissance physique du monde que les solutions de l’IA ressentent mal, dans le meilleur des cas avec des images 2D en 224×224 pixels, la résolution couramment utilisée par les réseaux de neurones convolutionnels de reconnaissance d’images.

Il ne faut évidemment jamais dire jamais. Une bonne part des créations humaines sont triviales et faiblement innovantes au regard de l’existant. Et la détection et l’analyse des émotions humaines est à la portée des objets connectés et de l’IA. Ce sont des domaines où l’IA fera certainement des progrès significatifs dans les années à venir. L’IA créative et rebelle ferait son apparition en devenant “générale”, voir même avant, sur des sujets ad-hoc. A ceci près que ce stade est considéré comme étant dangereux par ses effets de bord incontrôlables. Nous avons donc intérêt à nous contenter d’IA faiblement créative jouant simplement le rôle d’outils de travail pour les créatifs de tout poil.

Une bonne part des prouesses créatives de l’IA d’aujourd’hui provient des laboratoires de recherche. Comme pour toutes ces révolutions technologiques des décennies passées, l’IA créative prend déjà rapidement la forme de solutions et briques fonctionnelles prêtes à l’emploi avec des interfaces naturelles. Ce sont les startups, les Adobe, Autodesk et consorts qui les démocratisent. Il ne faudra pas être BAC+12 pour maitriser les nouveaux outils issus de l’IA ! L’IA fera cohabiter une rosace de compétences allant de la maitrise des couches basses les plus techniques jusqu’aux briques utilisateurs faciles d’emploi.

A court et moyen terme et avec le recul, je me rend compte que la question posée dans le titre n’est finalement pas la bonne. Elle serait plutôt de savoir à quelle vitesse et comment les créatifs vont s’emparer des capacités de l’IA pour être à la fois plus imaginatifs et plus productifs, deux notions que certains n’aimeront pas forcément mettre en regard. L’histoire du numérique a montré que la rapidité de ce processus variait selon les métiers. Les auteurs, maquettistes et graphistes se sont rapidement appropriés les logiciels de traitement de texte (Wordperfect, Word), ceux de mise en page (Pagemaker, Xpress), et de création graphique (Illustrator, Photoshop, Inkscape). Ont suivi les outils de création vidéo (Premiere, FinalCut, …). Les photographes professionnels ont été un peu plus longs à la détente lors du passage au numérique de leur métier au milieu des années 2000. C’était à la fois lié à leur conservatisme et aux progrès graduels des appareils photo reflex numérique par rapport à leurs équivalents argentiques.

Est-ce que l’IA va changer de manière radicale les méthodes d’apprentissage et les pratiques créatives de ces différents métiers ? Difficile à dire, sauf à adopter le catastrophisme ambiant du “tous foutus”. J’ai l’impression que ce changement ne sera pas bien plus radical que lors de l’apparition ces dernières décennies de nombre de nouveaux outils numériques (interface graphique, interface Web, mobile, réalité mixte). Il faudra juste vivre avec son temps et avec les outils de son temps !

L’INTELLIGENCE ARTIFICIELLE DE FACEBOOK VA T-ELLE REMPLACER VOTRE PSYCHOTHERAPEUTE ?

Woebot est une intelligence artificielle, un chatbot comme il en existe des dizaines. Cependant, Woebot a été créé dans le but de jouer le rôle de psychothérapeute du réseau social Facebook. Après quelques mois d’existence, celui-ci semble fonctionner mais il y a également une face plus sombre.

Lorsque l’on réfléchit aux métiers qui pourraient disparaître avec l’avènement de l’intelligence artificielle, celui de psychothérapeute n’arrive pas dans les premiers de la liste, loin de là ! Et pourtant, Woebot a tout du psy idéal pour adolescents en perdition car formé aux thérapies comportementales et cognitives (TCC).

Les TCC consistent à s’adresser au patient déprimé en tentant de corriger les mauvaises représentations que ce dernier se fait de sa propre personne. Il est question de remodelage cognitif, une façon de redonner de la confiance au patient. Cette méthode utilisée par les psychothérapeutes et donc par le chatbot Woebot, va à l’encontre de celle employée par les psychanalystes, qui eux cherchent à comprendre les raisons altérant le jugement du patient.

En psychothérapie, le protocole est donc le pilier et le thérapeute n’est rien ou presque. La méthode est machinale et standardisée, visant à inviter le patient à avoir un comportement plus positif afin de regagner de la confiance et du bonheur. Une étude parue en juin 2017 dans la revue The Journal of Medical Internet Research Mental Health, à laquelle 70 étudiants ont participé, montre que des échanges avec le chabot Woebot durant deux semaines portent davantage leurs fruits qu’une consultation d’e-book.

Le robot peut être un meilleur thérapeute dans certains cas où la personne, ne faisant pas face à un autre humain, libérerait un peu plus sa parole et se confierait plus facilement. Le chatbot est en effet incapable d’avoir des expressions faciales ou un ton de voix pouvant déstabiliser le patient. Cependant, si certaines gènes peuvent disparaître, d’autres peuvent arriver, telle qu’une sorte de dépendance affective du patient face au chatbot.

Il est également « étonnant » que Facebook se soit lancé dans ce type d’activité sans avoir eu l’intention de financer des centres destinés à traiter les problèmes de dépression des étudiants, si la motivation était réellement de leur venir en aide. Rappelons que Facebook collecte des données à revendre et si les publications et autres contenus postés par les utilisateurs incarnent ces données, les informations recueillies par Woebot constituent de nouvelles données à exploiter.

DONNEES PERSONNELLES : LE REGLEMENT EUROPOEEN OBLIGE LES UNIVERSITES A SE PENCHER SUR LEUR DATA

L’entrée en vigueur, en mai 2018, du règlement européen sur la protection des données questionne les établissements d’enseignement supérieur sur la collecte, le stockage et l’utilisation de leurs informations numériques. L’enjeu est de taille : il s’agit de conserver leur souveraineté numérique. Un dossier aux répercussions tant techniques que politiques.

Universités et écoles produisent des données en continu, qui se comptent en pétaoctets, l’équivalent de milliers de disques durs personnels. Ces gisements d’informations liés à la recherche, à la pédagogie ou encore à l’administration doivent entrer en conformité avec le nouveau RGPD (Règlement général sur la protection des données) applicable au 25 mai 2018 partout dans l’Union européenne.

Publié en avril 2016, le texte relatif « à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données » vise à unifier le cadre juridique pour l’ensemble des pays de l’UE. Il renforce certains droits (portabilité des données personnelles, dispositions spécifiques pour les personnes mineures) et fixe de nouvelles règles, en obligeant notamment les établissements à nommer un Délégué à la protection des données et à documenter l’ensemble des traitements de données personnelles, en visant entre autres ceux de données considérées comme sensibles par la production d’études d’impact sur la vie privée.

Cette évolution de la réglementation intervient alors que la production des données est en constante augmentation. « Dans quelques années, les systèmes d’information devront traiter un volume de données un milliard de fois plus important qu’aujourd’hui. Ce tsunami oblige toutes les structures à s’organiser », analyse Olivier Kempf, chercheur en sciences politiques à l’Iris (institut de relations internationales et stratégiques).

Pour ce dernier, le nouveau Règlement européen sur la protection des données est un « signe fort », qui donne à voir cette protection comme une « garantie pour les libertés individuelles ». Reste à développer une culture de la donnée et une prise en considération par les organisations de leur responsabilité dans la collecte, le stockage et l’utilisation de leurs données.

LE STOCKAGE DES DONNÉES, UNE QUESTION POLITIQUE

Dans ce contexte, se pose la question cruciale de la souveraineté – la part d’indépendance numérique – des établissements d’enseignement supérieur. Faut-il externaliser ou non l’hébergement des données produites ? Pour bon nombre d’universités, le choix est fait : il faut garder les données dans un data center sur le campus. Une tendance justifiée par « une volonté politique, celle de favoriser l’indépendance numérique », selon Marie-Ange Rito, directrice du pôle numérique de l’université de Bourgogne.

Le data center de cet établissement abrite « tous les services nécessaires pour les personnels, les enseignants-chercheurs et les étudiants, soit 97 applications métiers, un cloud et l’hébergement du site de l’université et des 300 sites satellites des composantes ». L’infrastructure permet le déploiement du septième cluster de calcul – regroupement d’ordinateurs destiné tant à la recherche qu’à l’enseignement – de France.

Pour Marie-Ange Rito, héberger les données chez un prestataire était impensable : « Il y a un manque de lisibilité dans les offres de data centers et des doutes sur l’intégrité de nos données. » Le prix à payer pour déployer la solution d’hébergement des deux pétaoctets de l’université de Bourgogne ? 4 millions d’euros.

Dans quelques années, les systèmes d’information devront traiter un volume de données un milliard de fois plus important qu’aujourd’hui. Ce tsunami oblige toutes les structures à s’organiser.
(O. Kempf)

À l’inverse, le choix d’externaliser l’hébergement des données a été la solution retenue par Arnaud Saint-Georges, DSI (directeur des services informatiques) de l’université de Rennes 2. « En 2016, l’un de nos deux data centers devait être rénové, pour un coût estimé de 500.000 euros. Nous avons alors cherché des solutions alternatives. » À commencer par un prestataire privé du big data, avant de se raviser : « nous voulions garder la main sur nos données et nous nous posions la question de la pérennité de ce service« .

C’est alors que le DSI de Rennes 2 découvre l’opportunité de mutualiser l’hébergement des données avec un autre établissement d’enseignement supérieur – dont le DSI ne souhaite pas dévoiler le nom – situé sur le campus Beaulieu, à quelques kilomètres de là. Cette solution sera choisie pour un coût annuel de 40.000 euros, soit le coût de la location assurant des standards de sécurité et d’infrastructure.

UN PASSAGE OBLIGÉ VERS LE CLOUD ?

Autre tendance : le cloud, encouragé par de très nombreux prestataires. « Certains partenaires du privé, comme Microsoft, proposent pour des coûts proches de zéro d’héberger les données de mon établissement, assure un CIL (correspondant informatique et libertés) d’une université de l’Ouest, qui souhaite garder l’anonymat. Et cet argument du prix pèse dans la décision de la direction. » Pour l’heure, le projet d’externalisation est encore à l’étude.

Si toutes les données sont traitées et stockées dans un pays avec un niveau de protection suffisant au sens du RGPD, l’offre est recevable.
(T. de Gueltzl)

« La question du cloud, ce n’est pas de savoir si nous l’utiliserons ou pas, mais quand nous l’utiliserons » souligne Olivier Kempf. En moyenne, chaque année, les universités voient augmenter leur volume de données traitées d’un peu plus d’un tiers. Ce développement rapide rend les offres d’externalisation de l’hébergement intéressantes pour certains services liés à la pédagogie.

Sur le sujet, l’avocat Thomas de Gueltzl, spécialiste du numérique, se veut clair : « Si toutes les données sont traitées et stockées dans un pays avec un niveau de protection suffisant au sens du RGPD, l’offre est recevable. Mais il faut rester vigilant sur le degré d’importance de certaines données contenant beaucoup d’informations sensibles. Et les établissements doivent s’assurer auprès du prestataire de l’intégrité des traitements, qui doit respecter strictement la sécurité et l’accès aux informations. »

SENSIBILISER LES PERSONNELS

Au vu du développement du stockage à distance, tout établissement d’enseignement supérieur pourrait anticiper les besoins et avoir une offre cloud répondant aux principes du RGPD. La menace, si l’établissement ne prend pas les devants, est de laisser une trop grande autonomie aux utilisateurs, qui risquent d’utiliser des services soumis à d’autres législations. Par exemple, travailler avec son smartphone ou son ordinateur personnel et partager un document via un outil en ligne augmente potentiellement la « surface d’attaque », soit les biais possibles pour une intrusion dans un système d’information.

Quoi qu’il en soit, qu’il s’agisse d’un stockage des données dans le cloud ou en data centers, les obligations légales pour les établissements restent les mêmes. La CNIL le rappelle : l’employeur est « responsable de la sécurité des données personnelles de son entreprise, y compris lorsqu’elles sont stockées sur des terminaux dont il n’a pas la maîtrise physique ou juridique, mais dont il a autorisé l’utilisation pour accéder aux ressources informatiques de l’entreprise. »

Pour prendre en compte ces enjeux, Marie-Ange Rito plaide pour une première étape radicale : « empêcher l’utilisation des applications de gestion sur les terminaux personnels« . Mais au-delà de cette étape, la sensibilisation des personnels à la question ne pourra se faire sans investissement, plaide la directrice du pôle numérique, qui suggère notamment la mise à disposition de smartphones ou d’ordinateurs, au préalable sécurisés par la direction du numérique. De quoi porter le sujet sur le terrain politique et pousser les établissements à faire de la protection et de la valorisation de leurs données un véritable axe de développement stratégique.

BIENTOT UN IMPLANT CEREBRAL QUI BOOSTE LA MEMOIRE ?

Des chercheurs de l’Université de Californie du Sud (USC) ont récemment démontré l’utilisation d’un implant cérébral pour améliorer la mémoire humaine. Le dispositif pourrait également avoir des implications majeures pour le traitement de l’une des maladies les plus meurtrières au monde.

Bientôt vers un humain amélioré ? De Elon Musk au MIT, en passant par le département américain de la Défense pour la recherche d’implants cérébraux, il semble que ce ne soit qu’une question de temps avant que ces appareils ne soient prêts à être utilisés pour étendre nos capacités naturelles. Côté mémoire, des chercheurs de l’Université de Californie du Sud (USC) ont récemment testé un implant sur le cerveau de vingt volontaires qui portaient des électrodes cérébrales implantées pour le traitement de l’épilepsie. Cet implant aura permis de booster la mémoire à court terme des participants d’environ 15 %. La mémoire de travail a quant à elle été boostée d’environ 25 %. Les résultats de cette étude ont été énoncés lors de la réunion de la Society for Neuroscience à Washington ce mardi.

Chaque fois que nous recevons un stimulus du monde extérieur, une série de signaux électriques complexes traversent plusieurs régions de l’hippocampe, le centre de la mémoire du cerveau. L’implant imite simplement ce que l’hippocampe fait naturellement. Ce faisant, il stimule les capacités de mémorisation des individus. Tandis que cette « prothèse de mémoire » pourrait être utile pour les étudiants entassant des tests ou ceux d’entre nous qui ont du mal à se souvenir des noms, cet appareil pourrait, plus important encore, avoir des applications pour les personnes qui souffrent de perte de mémoire, comme les patients atteints de démence, ou de la maladie d’Alzheimer. Car ces problèmes risquent d’empirer.

L’âge est en effet le plus grand facteur de risque pour la maladie d’Alzheimer. La plupart des personnes souffrantes sont en effet âgées de plus de 65 ans. Avec les progrès continus de la médecine, ce segment de la population augmente encore et toujours de façon spectaculaire et, d’ici 2030, 20 % des citoyens devraient avoir plus de 65 ans. Cette augmentation du nombre de personnes souffrant de démence peut être coûteuse sur le plan financier et émotionnel. En 2016, le coût total des soins de santé et des soins de longue durée pour les personnes atteintes de démence et de la maladie d’Alzheimer était estimé à 236 milliards de dollars, rien qu’aux États-Unis. Par ailleurs, selon l’Association Alzheimer, plus la déficience cognitive est sévère, plus le taux de dépression est élevé.

Bien sûr, d’autres tests sont nécessaires avant que ce nouveau dispositif ne puisse être approuvé comme traitement contre la démence ou la maladie d’Alzheimer, mais s’il peut aider ces patients à retrouver une partie de leur fonction de mémorisation perdue, les patients eux-mêmes, mais également leurs familles, et même l’économie en général pourraient être soulagés.

PUB DU FUTUR : L’ANALYSE DES EMOTIONS, UN RISQUE DE MANIPULATION ?

Par Fabien Soyez

Les émotions sont la clé qui permettra aux publicitaires d’adapter leurs messages le plus finement possible. Pour les analyser, la reconnaissance faciale et des techniques de neuromarketing sont de plus en plus utilisés outre-atlantique. Avec le risque, réel, de nous laver le cerveau…

Pour rendre leurs publicités plus efficaces, les spécialistes du marketing et les annonceurs tentent depuis plusieurs années déjà de décrypter nos émotions. Savoir si vous êtes heureux, surpris, triste, confus, en colère ou inquiet lorsque vous regardez une pub permet de la retravailler afin de corriger son impact et de renforcer sa mémorisation. Grâce aux neurosciences cognitives, et à l’étude de la façon dont fonctionne notre cerveau, les publicitaires comptent bien s’adresser à votre système lymbique, siège des émotions, afin d’agir sur vos achats – qui sont dans 80% des cas irrationnels.

L’arme du neuromarketing

Face à un consommateur émotionnel, les publicitaires dégainent ainsi une arme redoutable : le neuromarketing. Cette discipline, interdite en France, qui utilise les neurosciences à des fins marketing et communicationnelles, permet d’étudier les réactions du système nerveux face à des stimuli. Depuis plus de 10 ans, pour le compte d’entreprises diverses (Coca Cola, McDonald, Facebook, Disney…), les spécialistes en neuromarketing utilisent l’imagerie par résonance magnétique fonctionnelle (IRMf) et l’électroencéphalographie (EEG) pour observer la façon dont le cerveau d’un consommateur cobaye réagit aux émotions suscitées par une publicité.

Pour détecter les émotions, d’autres techniques reposent sur des technologies biométriques ou sur l’intelligence artificielle et le Big Data. Cette « informatique affective« , l’un des nouveaux champs de recherche du MIT notamment (au sein de l’Affective Computing Group), repose sur l’idée d’étudier les émotions en les détectant, en les synthétisant et en les modélisant. Dans cette optique, les capteurs, la reconnaissance faciale, le traitement du langage naturel (NLP) et la reconnaissance vocale permettent de « capturer les changements physiques liés aux états émotionnels », explique Hubert Guillaud du site Internet Actu.

Comme nous en parlions récemment, la détection et l’analyse des visages permet aux annonceurs d’étudier les « microexpressions » révélatrices des sentiments d’une personne, afin de proposer ensuite une publicité ultra-ciblée. Emanation de l’Affective Computing Group du MIT, la startup Affectiva, spécialisée dans la mesure de l’émotion, propose par exemple depuis 2015 un logiciel, baptisé Affdex, capable d’analyser (en direct) les nuances de nos expressions faciales (les changements musculaires), afin de déduire les émotions d’une personne filmée par webcam, en train de regarder un spot publicitaire à la TV ou sur Internet. Ses algorithmes, qui se sont entraînés sur plus de 4 millions de vidéos de visages, sont utilisés par des entreprises comme Coca Cola et Kellogg’s, mais aussi par des cabinets d’étude, comme Millward Brown et IPG Media Lab.

Des panneaux publicitaires « intelligents » munis de caméras et de capteurs sont actuellement capables de détecter (à son insu) l’âge et le sexe d’un consommateur, afin de lui proposer de la pub ciblée. Pour l’heure, ils ne savent pas encore « lire » les émotions, mais avec un logiciel comme celui d’Affectiva, autant dire que cela ne saurait tarder…

https://i0.wp.com/www.cnetfrance.fr/i/edit/2017/10/affectiva1.png

Détecter les « réactions inconscientes »

D’autres logiciels permettent d’analyser les émotions sur des photos – la firme Emotient, rachetée par Apple en 2016, propose par exemple un « Google des émotions », RealEyes, qui permet de détecter les réactions « inconscientes » des utilisateurs pris en photo – car « plus les gens ressentent, plus ils dépensent ». L’analyse de textes (sur les réseaux sociaux et les blogs, et plus généralement partout sur Internet) via des algorithmes de NLP permet aussi d’analyser les « sentiments » d’un client – la startup française Q° emotion propose par exemple d’analyser les avis des consommateurs, afin de « débusquer les émotions qui se cachent derrière les mots. »

Pour finir ce catalogue d’exemples, sachez que Facebook, épinglé en mai 2017pour avoir tenté de déterminer les émotions d’utilisateurs (via des algorithmes) pour « aider les spécialistes du marketing à comprendre comment les gens s’expriment sur le site », envisage d’utiliser la caméra de votre smartphone ou de votre ordinateur pour analyser vos émotions lorsque vous consultez tel ou tel contenu – afin de proposer ensuite des pubs ciblées à ses clients, très probablement. Un « véritable champ de mines éthique », selon CBInsights.

Sachez également que vos bracelets connectés, qui permettent de surveiller votre santé, pourraient fort bien être utilisés pour « quantifier » vos émotions – c’est en tout cas ce que propose Datakalab, laboratoire de conseil en neuromarketing, en analysant les battements cardiaques ou la température du corps. A noter, enfin, que des startups, comme Beyond Verbal, proposent des technologies de reconnaissance vocale capables de détecter les nuances émotionnelles d’une voix… afin d’analyser l’état d’esprit de son propriétaire, évidemment.

https://i2.wp.com/www.cnetfrance.fr/i/edit/2017/10/10178.jpg

« La clé de toutes les manipulations »

Même si la reconnaissance des émotions par l’IA et les neurosciences n’est pas encore 100% efficace, l’idée de voir nos émotions analysées et utilisées par les annonceurs pour ajuster leurs messages soulève d’importantes questions éthiques. La protection de la vie privée se pose, en premier lieu, puisque les systèmes utilisés pour lire notre humeur – sans notre consentement – collectent forcément des données. Selon Datakalab, Affectiva et les autres, les données utilisées sont toujours anonymes, ou anonymisées, et ne sont pas stockées.

Mais au-delà de la vie privée, c’est le risque d’être manipulé qui inquiète le plus. « Les émotions sont le chaînon manquant qui peut permettre aux grandes plateformes d’affiner encore l’indexation, le séquençage de l’ensemble de nos comportements, afin d’instrumentaliser toujours davantage ce qui, dans nos interactions, est de l’ordre du pulsionnel et non du rationnel », explique Olivier Ertzscheid, maître de conférences en sciences de l’information, dans Culture Mobile, en abordant le cas Facebook. « La clé de toutes les manipulations, qu’elles soient commerciales ou politiques, est d’être capable de jouer sur les émotions des gens pour mieux les influencer », ajoute-t-il.

Les publicités persuasives et manipulatrices sont tout autour de nous, depuis bien longtemps – mais avec l’analyse des émotions, elles risquent d’être encore plus dangereuses. « Le marketing en soi est manipulatoire. Il faut regarder à quelle fin ces techniques sont utilisées. Si une entreprise les utilise pour faire une communication plus intelligente et répondre aux attentes du consommateur, ça ne pose pas de problème », selon Michel Badoc ( prof à HEC et auteur de « Comment les neurosciences éclairent les décisions d’achat du consommateur » ). En revanche, quand l’idée est surtout de gagner de l’argent…

Le neuromarketing, couplé à la publicité émotionnelle, est une arme extrêmement puissante, qui peut s’avérer très dangereuse : il n’y a qu’à revoir le reportage de Cash Investigation consacré à ce sujet, en 2012, qui nous montrait des enfants totalement conditionnés pour aimer McDonald’s. Comme le rappelle le philosophe Bernard Stiegler, le neuromarketing est avant toute chose « un business », au service de « la captation de l’attention des individus, pour piloter leur comportement par les mécanismes les plus primaires qui existent, ceux du cerveau reptilien ».

Certes, le marketing consiste depuis toujours à influencer les consommateurs – mais avec les neurosciences, il n’y a qu’un pas vers le lavage de cerveau. Pour l’instant, cette pratique est interdite en France, et nos publicitaires assurent ne pas y recourir. Mais jusqu’à quand ? Et devons-nous, de toute façon, les croire sur parole ?

DOUZE MYTHES DE L INTELLIGENCE ARTIFICIELLE

Par Olivier Ezratty, expert FrenchWeb

 

Depuis 2015, la vague de l’intelligence artificielle bat sont plein dans l’écosystème numérique et bien au-delà. C’est même déjà devenu un sujet politique. Nous sommes bombardés d’annonces sensationnelles à répétition et des prospectivistes professionnels nous dépeignent un futur parfois utopique et le plus souvent dystopique à l’image d’une bonne partie de la science fiction.

La réalité d’aujourd’hui sur laquelle ils s’appuient est souvent travestie et exagérée. L’IA est parée de capacités qu’elle n’a pas encore et n’est pas prête d’avoir. On est en pleine construction d’une vision mythique de l’IA, basée sur des mécanismes de propagande de l’innovation que j’avais eu l’occasion de décrire en 2014 dans une série de six articles. Ces mécanismes sont amplifiés par la communication marketing des fournisseurs tels qu’IBM et Google qui embellissent toujours la mariée, par une stratégie de la sidération, par la difficulté de vérifier les faits avancés ou la fainéantise intellectuelle ambiante, et par l’absence généralisée de connaissances techniques sur l’IA, même chez la majorité des spécialistes du numérique.

Le phénomène est notamment lié à l’appellation même de l’IA, lancée en 1955 par John MacCarthy lorsqu’il proposa la tenue d’un summer camp pour l’été 1956 au collège de Darmouth dans le New Hampshire. C’était une appellation marketing créée pour faire parler d’elle et l’effet s’en ressent encore aujourd’hui. A tel point que les débats sont sans fin pour définir la nature même de l’intelligence humaine et celle que les machines peuvent acquérir. On en vient parfois à qualifier d’IA ce que les machines ne peuvent pas encore faire. Dès que la magie des tours de l’IA d’aujourd’hui est révélée, pour certains, ce n’est plus de l’IA!

Vous entendez aussi les mêmes arguments jusqu’à la lie. IBM Watson est le Rémy Bricka de l’IA qui sait tout faire, DeepMind AlphaGo symbolise l’intelligence de la machine, le dernier futur-processeur d’Intel Loihi imite le cerveau humain (avec 130 000 neurones…), les voitures autonomes sont pour tout de suite et des solutions marketing miracles vont même prédire à l’avance ce que vous allez désirer et acheter. Bref, l’IA incarne un déterminisme futur prêt à défier toute forme de sérendipité, de hasard et de libre arbitre pour ce qui concerne votre petite vie monotone.

Trop souvent, les études de cas sont bien enjolivées comme avec ce fonds d’investissement Deep Knowledge Venture de Hong Kong et Londres qui nommait en 2014 une IA à son board, dénommée VITAL ! Elle devait servir à identifier les projets les plus prometteurs dans lesquels investir. Le logiciel est ainsi facilement passé de membre du board à CEO de l’entreprise ! Son modèle est en tout cas récursif car ce fonds a investi dans Transplanetary, une startup spécialisée dans la recommandation d’investissements dans les industries spatiales, avec son logiciel SPOCK (Space Program Ontologically Computed Knowledge). Il y a aussi ces solutions d’IA “precogs” qui pourraient prédire les heures et lieux des crimes à Londres alors, que dans la pratique, il s’agira de déterminer les risques de récidives de suspects en garde à vue (source). Et c’est à Durham, qui est à plus de 300 km de Londres ! A chaque annonce, il faut quasiment tout vérifier !

Enfin, les prévisions vont bon train sur la disparition des emplois : jusqu’à 50% d’ici 2025 sachant que des études récentes sont descendues à 7% en net. En oubliant au passage qu’une bonne part de la disparition de métiers ne vient pas spécifiquement de l’IA mais de l’automatisation et du transfert du travail vers… les clients, comme pour les caisses automatiques dans la distribution ou dans une bonne part de l’économie collaborative.

La suprématie des GAFAMI est souvent montée en épingle, érigée en barrière insurmontable pour les autres innovateurs. On vous rabattra les oreilles avec la création de valeur de Whatsapp vs celle de PSA et la comparaison du nombre de salariés (55 vs plus de 200000). Et tant qu’à faire, d’ici même pas 10 ans, nos cerveaux seront directement connectés aux “IA”. La preuve : Neuralink et Facebook y travaillent ! Pas la peine de résister !

Ces prospectivistes diablement efficaces dans leur communication sont rarement des spécialistes de l’IA au sens scientifique du terme. Et quand ils le sont, les exagérations subtiles s’accumulent sur leurs fonctions. L’exemple le plus connu est celui de l’empereur des prévisions et le prince consort de la singularité Ray Kurzweil qui est présenté selon les jours comme dirigeant toute la R&D, toute la recherche ou toute l’ingénierie de Google, alors qu’il ne dispose que d’une petite équipe d’une vingtaine de personnes et ne dirige ni Google Brain ni Deep Mind qui sont les deux principales entités de recherche de Google dans l’IA. C’est totalement anecdotique mais fait partie de la manière on enjolive les choses pour faire passer ses messages ampoulés sur l’IA.

A force de ne parler que du futur, on en oublie le présent ! Cette société de l’IA du spectacle créé une atmosphère délirante qui devient perturbante pour les entreprises. Certes, elle va les titiller, éventuellement leur faire peur et peut-être aiguiser leur intérêt. Elles se demandent surtout comment intégrer l’IA dans leur stratégie et ont besoin de revenir sur terre, à des choses pratiques et faisables.

L’IA constitue bien une évolution majeure des outils numériques. Il faut en appréhender les enjeux et les opportunités. Ceux-ci n’ont rien de sensationnel. Le potentiel de l’IA est énorme pour les entreprises de tous les secteurs d’activités mais encore faut-il conserver la tête sur les épaules pour l’appréhender posément. Les technologies d’aujourd’hui sont déjà suffisamment riches pour être créatifs et innovants ! Pas besoin d’en faire des tonnes ! Par ailleurs, l’automatisation à outrance a des limites qu’il faut évaluer. Les entreprises doivent conserver un minimum de visage humain et ne pas passer leur temps à se cacher derrière des logiciels !

Voici donc l’heure du défouloir avec quelques-uns de ces nombreux mythes sur l’IA. Cet inventaire n’est évidemment pas complet et libre à vous d’en ajouter !

1) Les algorithmes de l’IA n’auraient pas évolué en 20 ans

Un lieu commun voudrait que les algorithmes de l’IA n’évoluent pas et que tous les progrès récents soient essentiellement liés à ceux du matériel et à l’abondance de données exploitables.

Les progrès algorithmiques sont effectivement faibles dans le machine learning car celui-ci s’appuie sur des méthodes de classification, prédiction et segmentation qui datent d’une à deux décennies. Il en va tout autrement du deep learning. Ses bases modernes datent de 2006 et ses techniques n’ont cessé d’évoluer depuis. Rien qu’en 2016, les réseaux de neurones convolutionnels qui servent notamment à la reconnaissance d’images ont bénéficié de nombreuses nouvelles déclinaisons sans compter les réseaux génératifs capables de transformer et générer des images. C’est seulement depuis 2015 que ces réseaux permettent de tagger efficacement plusieurs objets dans une image ou une vidéo.

Le “zoo” des réseaux de neurones est complexe (ci-dessous). Le deep learning requiert des techniques d’assemblage de ces briques qui évoluent sans cesse. Elles visent en général deux objectifs complémentaires : améliorer la performance qualitative des réseaux de neurones, notamment dans la reconnaissance d’objets, et améliorer celle de l’entrainement qui est très couteuse en ressources machines, même avec des GPUs et des processeurs neuromorphiques comme les TPU de Google.

Qui plus est, les travaux de recherche publiés dans les grandes conférences internationales de l’IA sont très nombreux, ce que l’on peut constater dans les récentes conférences IJCAI de 2017 et NIPS de 2016. Nombre de travaux portent sur le traitement du langage et le raisonnement automatisé. Celui-ci s’appuie sur de nombreuses variantes de réseaux de neurones dits récurrents et à mémoire.

Les réseaux de neurones à mémoire qui servent surtout au traitement du langage (reconnaissance, traduction, génération) ont de nombreuses déclinaisons avec notamment : Stacked RNN (RNN empilés), MARNN (Memory-Augmented Recurrent Neural Networks), LSTM (Long Short Term Memory), les GRU (Gated Recurrent Units), BLSTM (Bidirectionnal Long Short Term Memory), BPTT (BackProp Through Time) et RTRL (Real Time Recurrent Learning) dont je vous épargne les détails. Ils permettent surtout de tenir compte du contexte dans lequel les objets comme des mots sont détectés pour analyser le sens d’une phrase. L’un des points clés de ces réseaux est leur capacité à mémoriser des contextes

Tous ces travaux de recherche ont une particularité : ils sont exploitables assez rapidement car ils sont publics et relativement facilement reproductibles avec les outils open source du marché tels que TensorFlow ou Torch.

2) L’IA se résumerait au machine learning et au deep learning

Le deep learning est monté en épingle comme la solution miracle à tous les problèmes que l’IA cherche à résoudre. Le “deep” du deep learning est à prendre au premier degré : ses réseaux de neurones sont profonds car multicouches. Cela ne les rend pas nécessairement profonds du côté de l’intelligence même si leur fonctionnement relève d’une forme de biomimétisme du cortex visuel. Seulement voilà, l’intelligence humaine ne fonctionne pas exactement comme les réseaux de neurones du deep learning actuels ! Ces réseaux n’ont qu’une vue statistique et chiffrée des objets qu’ils analysent. Elle n’est ni sémantique ni analytique. Le deep learning est-il l’aboutissement ultime de l’IA ? Non, il ne sert qu’à résoudre certaines classes de problèmes, tout du moins avec l’état de l’art actuel.

Le vaste champ de l’IA comprend d’autres techniques, notamment autour de l’IA symbolique, de la programmation logique et des moteurs de règles. L’actualité les a mis en sourdine en raison du tintouin autour du deep learning. Mais celui-ci a des limites. Les meilleures solutions d’IA intègrent et assemblent souvent plusieurs techniques différentes.

Il faut d’ailleurs y intégrer le vaste domaine des réseaux d’agents qui servent à assembler les briques des solutions d’IA. On les utilise aussi bien pour construire des chatbots que pour piloter des robots.

3) La donnée serait la principale composante de l’IA

Les données sont une des trois composantes clés des solutions d’IA avec la puissance des machines et des algorithmes. Mais elles ne font pas tout. Il s’agit d’une véritable triade. Sans les trois éléments, l’IA ne produit pas grand chose. Certaines études portant sur un seul type de réseau de neurones montrent qu’une IA avec plus de données est plus efficace qu’une IA avec un meilleur algorithme. Mais l’algorithme de départ est déjà bon !

La performance des algorithmes joue un rôle clé dans la qualité des résultats dans le deep learning, et surtout dans leur performance, notamment la rapidité de la phase d’entrainement des modèles. Parfois, comme pour analyser des électrocardiogrammes (ECG), il peut aussi être nécessaire d’associer une bonne demi-douzaine de méthodes différentes pour produire un diagnostic complet !

Pour ce qui est de la reconnaissance des images, il faut distinguer le temps d’entrainement et le pourcentage de bonnes reconnaissances. Les progrès des algorithmes visent à améliorer l’une comme l’autre. La taille des jeux de données est en effet critique pour bien entrainer un modèle. Si l’algorithme utilisé n’est meilleur que dans la vitesse d’entrainement, ce qui est souvent le cas dans des variantes de réseaux de neurones convolutionnels, alors, la performance de la reconnaissance ne changera pas lors de l’exécution du modèle entrainé. Par contre, avec plus de données d’entrainement, celui-ci sera plus long.

Donc, comme illustré dans mon petit schéma ci-dessus, il faut à la fois de meilleurs jeux de données et de meilleurs algorithmes pour que l’entrainement soit aussi rapide que possible et que les résultats génèrent ensuite le moins d’erreurs possible.

4) L’IA se formerait instantanément

Le temps d’entrainement d’un système mono-fonction de deep learning se compte au minimum en heures ou en jours, voire en semaines, comme pour la reconnaissance d’images pour l’interprétation d’imagerie médicale. Qui plus est, l’IA ne s’entraine pas toute seule. Elle requiert beaucoup d’itérations avec de l’intervention humaine.

La notion de systèmes auto-apprenants dans le machine learning est une vue de l’esprit. Les data scientists doivent faire de nombreux tests et de la supervision pour choisir les bons modèles statistiques de segmentation, classification ou prédiction ! Pour les réseaux de neurones du deep learning, ils doivent réaliser des tests pour en dimensionner les grandes caractéristiques et évaluer leur efficacité avec les jeux de données disponibles. Les itérations peuvent être très longues et laborieuses si les jeux d’entrainement et de tests sont importants. Elles peuvent durer plusieurs jours, ce qui est bien plus long qu’une compilation de code ou l’exécution immédiate de la plupart des codes interprétés utilisés dans le monde du web.

Par contre, il est vrai qu’une fois qu’un modèle de machine learning ou de deep learning a été entrainé avec succès, son exécution opérationnelle est alors très rapide. Dans le cas du deep learning, c’est assez simple à comprendre : un réseau de neurones convolutionnel de reconnaissance d’images peut comprendre des millions de paramètres qu’il faut ajuster en faisant des tests pour chaque objet de la base de test. Cela génère une combinatoire de calcul immense. Lorsque le modèle est entrainé, il suffit de charger les variables en question qui ne bougent plus et de faire passer l’objet à reconnaitre au travers du réseau de neurones devenu ainsi statique. Et comme il s’agit de logiciel, le coût de réplication et d’exécution de la solution est en effet très faible.

Nous avons au bout du compte un entrainement laborieux et une exécution effectivement peu couteuse. Cela explique la présence de noyaux neuromorphiques dans les derniers processeurs mobiles (Kirin 970 pour Huawei et A11 Bionic Neural Engine pour les iPhone 8 et X) : ils sont peu puissants (1 à 2 TFlops/s) mais ne servent qu’à l’exécution de réseaux de neurones déjà entrainés sur serveurs avec des moyens bien plus importants, comme pour la reconnaissance d’images ou de la parole.

On oublie aussi que la majorité des solutions d’IA, comme celles de l’exploitation d’imagerie médicale, s’appuie sur des bases de connaissances qui sont le résultat de longues recherches scientifiques réalisées par des milliers de spécialistes. Quand AlphaGo gagne contre le champion du monde, il exploite aussi 150 000 parties des meilleurs joueurs du monde. Cette connaissance d’origine humaine a mis du temps à se construire. L’IA est souvent un “free rider” qui exploite cette longue accumulation.

Un jour peut-être, certaines IA seront capables d’interagir avec le monde physique et d’accumuler des connaissances de haut niveau basées sur l’expérimentation. Aujourd’hui, ce principe commence à être opérant avec des robots qui apprennent à se mouvoir par apprentissage itératif. L’équivalent intellectuel n’est pas encore là, notamment dans la faculté de raisonner par analogies. Mais des chercheurs et des startups y travaillent !

5) L’IA serait quasiment gratuite

L’IA serait aussi gratuite et abondante. Elle apparait gratuite dans les services en ligne grand public qui sont financés par la publicité. Avec ou sans IA d’ailleurs. C’est le cas des modèles économiques bifaces où l’utilisateur n’est pas l’acheteur. Et ce n’est pas spécifique à l’IA.

De son côté, l’IA en cancérologie n’est pas encore commercialisée gratuitement ! Et pour cause, les sociétés qui en proposent doivent la monétiser et elles ne peuvent pas le faire directement auprès des patients car cela relèverait d’un exercice illégal de la médecine. Qui plus est, comme nous le verrons plus loin, ces solutions ne font pas encore des miracles. Les questions de biologie ne se traitent pas uniquement avec des statistiques ! Ces solutions aident les spécialistes dans les diagnostics et les prescriptions mais ne les remplacent pas encore.

Enfin, l’IA n’est pas du tout gratuite du côté du cloud et des data centers qu’elle nécessite pour son fonctionnement. Un serveur Nvidia DGX1 coute la bagatelle de $129K ! Certes, ces machines bénéficient de la dimension économique de la loi de Moore et leur prix baisse régulièrement. Mais au gré de cette baisse, les besoins matériels des solutions d’IA augmentent et l’ensemble s’équilibre.

Par contre, lorsqu’un logiciel ou une IA peut remplacer une activité humaine, il est fréquent qu’elle soit moins chère que cette dernière et surtout dans les pays développés où le cout du travail est élevé. L’IA n’a pas besoin d’être gratuite pour être compétitive. Si elle est 10 fois moins chère qu’un équivalent humain, c’est déjà une révolution ! C’est d’ailleurs l’argument marketing qui est utilisé par les fournisseurs de solutions de Robotics Process Automation, qui visent à automatiser les fonctions bureaucratiques qui font appel à une multitude d’applications métiers. Elles commencent à être émerger aux USA dans la banque et l’assurance.

6) IBM Watson remplacerait les cancérologues

En fait, pas encore ! IBM a beaucoup communiqué sur des déploiements d’IBM Watson for Oncology, mais derrière un marketing puissant qui a démarré il y a quelques années, les déploiements significatifs ne sont pas encore là pour permettre une mesure réelle des bénéfices. Et ceux-ci sont généralement surévalués. Cf IBM pitched its Watson supercomputer as a revolution in cancer care. It’s nowhere close de Casey Ross., septembre 2017, qui décrit bien la situation.

C’est explicable par au moins trois phénomènes :

  • Les bases de connaissances sont biaisées ! Dans How to Make More Published Research True, John Ioannidis expliquaient en 2014 que 85% des ressources des chercheurs sont gaspillées et leurs résultats publiés sont faux ou exagérés. Dans Raise standards for preclinical cancer research, Glenn Begley et Lee Ellis indiquaient en 2012 que 90% des résultats de 53 études majeures dans le domaine du cancer n’étaient pas reproductibles. Donc, si elles sont utilisées par Watson, il ne peut pas en sortir grand-chose d’utile ! Voire, cela peut même être dangereux. Enfin, dans Believe it or not: how much can we rely on published data on potential drug targets?, Florian Prinz, Thomas Schlange et Khusru Asadullah indiquaient en 2011 que 79% des résultats de 67 travaux de recherche en cancérologie et cardiologie n’étaient pas reproductibles chez Bayer. Qui plus est, les recherches qui donnent lieu à des résultats négatifs sont bien moins publiées que celles qui sont concluantes. Ce sont toutes ces études qui alimentent Watson for Oncology ! Le biais statistique qu’elles induisent n’est pas marginal. Il est potentiellement énorme et à même d’influer sur la qualité des résultats alors que des données fausses à quelques % n’auraient qu’un impact limité !

  • Les cancers sont des maladies plurifactorielles complexes. Les échantillons de patients pour lesquels on dispose du génotype et du phénotype complets ne sont pas toujours suffisamment représentatifs d’un point de vue statistique pour que l’on puisse en tirer quelque chose pour chaque patient. L’une des approches actuelles est de créer des immunothérapies ciblées autologues, personnalisées en fonction de chaque patient. Ce sont des approches très couteuses, jusqu’à $400K par an de traitement. Et Watson ne contribue pas du tout à en baisser le prix.
  • Les projets à base d’IBM Watson démarrent lentement en phase pilote. Le processus est laborieux, sachant que les praticiens ne sont pas bien rapides pour changer leurs habitudes, même aux USA.

Par contre, IBM Watson et de nombreux concurrents sont très efficaces dans l’analyse d’imagerie médicale, qui ne requiert pas de maitriser des paramètres biologiques complexes comme en cancérologie. Il faut donc faire la part des choses entre le diagnostic qui peut faire appel à des analyses génomiques ou à de l’imagerie médicale et à la prescription automatisée et optimale au cas par cas qui est plus difficile à automatiser compte-tenu des données disponibles.

7) Les progrès de l’IA seraient plus qu’exponentiels

Selon Laurent Alexandre (UE MEDEF 2017), l’IA verrait sa productivité multipliée par 100 chaque année. Selon quelle unité de mesure ? Ni l’IA ni la loi de Moore n’évoluent aussi rapidement, même avec les processeurs neuromorphiques et les GPU. Il en va de même sur l’aspect fonctionnel.

Les progrès dans le matériel sont pourtant bien significatifs. Entre les deux dernières générations de GPU Nvidia (Pascal V100 de 2016 et Volta GV100 2017), le gain de performance brut dans les calculs liés au deep learning vont d’un facteur 1,8 à 9,3. C’est lié à l’utilisation de multiplicateurs de matrices dans cette nouvelle génération de GPU, une technique que l’on ne trouvait jusqu’à présent que dans les processeurs neuromorphiques.

Dans la pratique, l’entrainement d’un réseau de neurones convolutionnel de type ResNet pour la reconnaissance d’images est 2,4 fois plus rapide et son exécution en run-time est 3,7 fois plus rapide entre ces deux générations de GPU. C’est très bien mais on est loin d’un facteur 100 qui permet d’impressionner un auditoire ! Par contre, évidemment, si vous en alignez 40 en parallèle, l’entrainement ira en effet 100 fois plus vite qu’avec un GPU d’ancienne génération dans la mesure où les frameworks de deep learning savent assez bien paralléliser l’entrainement sur plusieurs GPU. Ce, d’autant plus qu’ils sont reliés entre eux par des bus de données très rapides comme NVLink, qui pédale à 300 Go/s avec cette dernière génération de GPU.

Par contre, des progrès matériels et conceptuels pourront intervenir par à-coups dans le futur, notamment avec les processeurs neuromorphiques, les processeurs optiques (cf les premières expérimentations de réseaux de neurones sur processeur photonique)  et les processeurs quantiques qui pourront chacun faire progresser significativement la puissance de calcul et surtout d’entrainement des IAs et ouvrir le champ des possibles dans des domaines variés comme pour la simulation du vivant et la découverte de nouvelles thérapies ciblées.

8) L’AGI est la suite logique de l’ASI

ANI (IA étroite), AGI (IA générale) puis ASI (IA supérieure) : c’est la suite logique de l’histoire de l’IA à venir, érigée comme un dogme.

L’un des travers de ce dogme est de s’appuyer sur un prédicat erroné qui positionne l’intelligence humaine et celle des machines sur une seule dimension, celle de la puissance brute de calcul. On compare donc des capacités de calcul du cerveau humain (qui calcule peu et est massivement parallèle et maillé) et de machines (qui, pour faire simple, font des opérations + – / * et des opérations sur des matrices) en négligeant de nombreux points clés comme les entrées-sorties.

L’AGI (Artificial General Intelligence) serait l’aboutissement mécanique de l’application bête de la loi de Moore. Tout au plus doit-on régulièrement en repousser l’échéance du fait des découvertes incessantes sur la complexité du cerveau. Et c’est sans compter l’avènement de l’ASI, une intelligence ultra-supérieure, incontrôlable et unique (ASI) qui serait quasiment instantané après celui de l’AGI.

Les prévisions oublient de mentionner ce que l’on découvre régulièrement sur la complexité du cerveau et de la mémoire. On ne sait d’ailleurs toujours pas décrire avec précision le fonctionnement de cette dernière. Le fonctionnement des neurones pourrait être bien plus complexe qu’estimé il y a 10 ou 15 ans.

L’intelligence humaine est complexe. Elle est liée à la sophistication du cerveau et aussi à nos sens, à notre vécu et à notre perception du monde. Les sens humains et même ceux des mammifères sont encore plus difficiles à imiter par des machines que certaines capacités intellectuelles. On parle toujours du cortex qui gère l’intelligence mais on néglige systématiquement le cervelet, cette partie du cerveau ultra-dense qui comprend quatre fois plus de neurones que le cortex et gère les automatismes appris (marche, mouvements occulaires, conduite, vélo, marche, danse, préhension, …). Qui plus est, les mammifères sont plutôt efficaces côté consommation énergétique : un humain consomme 100 W au repos et son cerveau 20 W, le double d’un laptop d’aujourd’hui. Et les IA du moment sont bien plus consommatrices d’énergie, sans parler des robots.

Les prospectivistes de l’IA adoptent généralement une vision trop linéaire de l’histoire des technologies. Celle-ci suit plusieurs chemins en parallèle. Elle est diverse, même dans les infrastructures matérielles. D’ailleurs, même le Skynet de Terminator n’était pas centralisé mais disséminé dans tous les ordinateurs, propagé par un virus hostile !

Qui plus est, les machines ont presque toujours besoin d’interventions humaines. Leur intelligence mécanique est alimentée par l’expérience et l’intelligence humaines. L’expérience montre aussi que des IA couplées à des hommes sont supérieures aux IA seules. Enfin, les Hommes et les machines n’ont pas les mêmes capacités et se complètent. Les machines dépassent déjà très largement l’Homme dans un tas de domaines sans que cela relève d’une intelligence surhumaine.

9) Les prospectivistes de l’IA seraient des spécialistes de l’IA

En pratique, c’est bien rare ! La plupart n’ont jamais codé quoi que ce soit dans l’IA, moi compris d’ailleurs, même si j’ai examiné de près des exemples de code Torch ou TensofFlow de création de réseaux de neurones convolutionnels.

Nous en avons un bel exemple avec cette conférence parmi d’autres sur laquelle je suis tombé par hasard : Où va nous mener d’intelligence artificielle, d’un certain Georges Mitaut, en décembre 2016, réalisée par un ingénieur en télécommunications retraité, qui ressasse les lieux communs habituels sur l’IA et la singularité sous forme d’une revue de presse bien slidisée. Au milieu de sa présentation et à propos de Google se trouve un logo de TensorFlow. Le conférencier indique alors que cela fait de l’IA mais qu’il n’a aucune idée de ce que cela peut bien faire et comment cela fonctionne ! Ce n’est pas une exception ! La majorité des conférenciers sur l’IA font de la prospective alors qu’ils ne connaissent même pas les mécanismes de l’IA et l’état de la recherche fondamentale. C’est consternant et très courant !

Il est d’ailleurs très difficile d’avoir une bonne vue d’ensemble des techniques de l’IA tellement elles sont diverses et le savoir associé est fragmenté. J’y consacre une bonne partie de mon temps depuis des mois et plus j’avance, plus j’en sais et moins j’en sais ! Une bonne approche consiste à appréhender les caractéristiques et limites des techniques existantes, celles de ses connaissances et d’avoir toujours en tête diverses interrogations. C’est un tonneau des Danaïdes que je remplis et vide perpétuellement ! Il n’y a pas de science sans questionnement.

En matière de prévisions, on se trouve confronté à une opposition classique entre ceux qui adoptent une vision macro et ceux qui en ont une vision micro, comme si la seconde était exclusive de la seconde. Pour sortir des mythes, il vaut mieux écouter ou lire les chercheurs Yann LeCunJean-Gabriel Ganascia (auteur du “Mythe de la singularité”), Stéphane Mallat ou Piero Scaruffi qui connaissent bien les arcanes scientifiques des réseaux de neurones et ont une vision plus posée des potentialités de l’IA.

Face à l’argument du “tout est possible”, il est difficile d’argumenter. Les capacités de prédiction de Ray Kurzweil sont souvent enjolivées. Elles sont très biaisées pour ce qui relève du futur lointain. Elles peuvent être correctes pour les sciences et technologies relevant de l’univers possible de l’époque de la parution de ses ouvrages. Sa méthode est assez simple : il fait une pige de la recherche au moment où il écrit ses bouquins et extrapole à partir de là. Quand ces travaux n’aboutissent pas aussi rapidement que prévu, les prévisions font choux blanc, comme dans les nano-technologies, dont le potentiel était nettement surévalué il y a une quinzaine d’années.

10) Les GAFAMI vont tout dévorer

Autre méthode pour se faire peur, exagérer la position stratégique des GAFAMI (Google, Apple, Facebook, Amazon, Microsoft, IBM) et prévoir qu’ils vont occuper tous les pans de l’économie, y compris ceux de la santé, des transports et de la finance. Google deviendrait un laboratoire de pharmacie et un constructeur automobile, sorte de variante américaine des chaebols coréens.

Mais les AFAMI n’ont pas trop de velléités de s’aventurer dans des métiers éloignés des leurs, étant déjà bien occupés. Amazon a ainsi suffisamment de grain à moudre pour se développer dans toutes les facettes du retail, des contenus et du cloud. Et surtout, étant parmi les sociétés les plus profitables du monde en % du CA, ces nouveaux métiers auraient un impact dilutif sur leur modèle économique. Ils auront donc plutôt tendance à se concentrer sur les plateformes technologiques numériques alimentant ces métiers plutôt qu’à en assumer toute la coûteuse chaîne de valeur.

Dans la pratique, Google a bien des prétentions dans la gestion de l’information. Ses serveurs et logiciels sont utilisés par des chercheurs dans les biotechs. Mais ce ne sont pas les quelques dizaines de chercheurs de Calico qui font de Google un leader des biotechs ! Même si ils planchent sur la lutte contre le vieillissement. Quand à Verily, une autre filiale d’Alphabet, elle se positionne dans la gestion des données. Ses deux projets de medtechs de mesure continue de la glycémie ont donné lieu à une industrialisation, toujours en devenir, par deux pure players du secteur : Dexcom et Novartis. Tous ses autres projets de recherche ont donné lieu à des “partenariats” avec des entreprises du secteur de la santé, dont Sanofi, GSK, AstraZeneca, ainsi que Nikon (pour la détection optique de rétinopathie, une application classique du deep learning en vision, aussi réalisée par IBM Watson et diverses startups).

Cette confusion est entretenue par la notion galvaudée de “partenariat”. De nombreuses annonces d’un partenariat entre la société X et Y relèvent simplement du fait que la société X utilise la technologie de la société Y, rien de plus. Ainsi, lorsque Google est partenaire de D-Wave et de la NASA dans l’informatique quantique, Google ne fait qu’utiliser les ordinateurs de D-Wave pour mener des tests avec la NASA. Ensuite, peut-être, décidera-t-il de concevoir ses propres ordinateurs quantiques si le besoin d’en fait sentir et si les économies d’échelle le justifient.

En 2014, Google avait fait coup sur coup l’acquisition de huit startups dans la robotique, dont la fameuse Boston Dynamics mais aussi SchaftIndustrial PerceptionRedwood RoboticsMeka RoboticsHolomniBot & Dolly et Autofuss. Ca y était : Google allait devenir le roi de la robotique ! Les dés étaient joués. Ils avaient aspiré toutes les compétences du marché dignes de ce nom ! Trois ans plus tard, Google a cédé Boston Dynamics et Schaft à Softbank Robotics qui avait déjà gobé le français Aldebaran Robotics en 2012. Et personne n’avait remarqué que les autres startups étaient spécialisées dans les bras robotisés surtout utilisés dans les voitures qui scannent les rues pour Google StreetView. Ce genre d’entreprise est fluide. Google se lance ici et là et abandonne la mise si cela ne se passe pas comme prévu, comme avec Motorola. C’est l’application du fameux adage de l’échec formateur, un échec d’autant plus toléré dans une société qui croule sous le cash. Et les corrections de tirs sont rapides.

Ces abus de langage sur les GAFAMI contribuent à créer une impression selon laquelle l’AI est réservée à une élite technologique et pour les GAFA. Dans la pratique, l’IA est exploitable par toutes les entreprises, notamment via les nombreuses ressources disponibles dans le cloud. Tout est en open source, les logiciels comme les méthodes de l’IA.

11) Avec OpenAI, les GAFAMI deviendraient responsables

Les dangers perceptibles de l’IA sont à l’origine de la création d’OpenAI, une initiative visant non pas à créer une IA open source – les logiciels de l’IA sont déjà presque tous open source – mais à surveiller et analyser ses évolutions. Il s’agit d’une ONG créée par Elon Musk qui veut s’assurer de manière asez manichéenne que l’IA fasse le bien et pas le mal. Elle est dotée de $1B et doit faire de la recherche. C’est un peu comme si une organisation patronale s’était lancée dans une initiative visant à rendre le capitalisme responsable. C’est d’ailleurs la mission que voudraient se donner différents Etats en orientant la recherche et les investissements vers de l’IA responsable dans la lignée de la « tech for good », la technologie pour le bien de l’Humanité et pas celle qui sert à la publicité ciblée qui est sa contraposée la plus courante.

C’est la forme que prend Partnership on AI, une initiative et association créé en 2016 et rassemblant comme membres fondateurs un bon bout des GAFAMI : Google, Facebook, Amazon, Microsoft et IBM. Il manquait Apple qui les a rejoints en janvier 2017. Donc, ce sont bien exactement les GAFAMI au complet ! L’association est présidée par Eric Horvitz, le patron de Microsoft Research et Mustafa Suleyman de Google, le co-fondateur de DeepMind. Elle doit débattre des questions soulevées par l’IA et des meilleures pratiques à adopter pour en mitiger les risques. Quand on y regarde de près, cette association prend la forme d’une organisation de lobbying avec les méthodes associées : des thématiques à défendre, l’appel à des experts divers, l’organisation de débats et un pied dans la porte des politiques pour éviter des dérives réglementaires gênant l’innovation. Eric Horvitz promeut de son côté l’utilisation de l’IA pour le bien de l’humanité.

Une autre initiative associe deux fondatrices issus de Microsoft Research et Google : ArtificialIntelligenceNow, lancée mi 2016 par Kate Crawford (Microsoft Research) et Meredith Walker (Google Open Research Group). Basée à New York, elle est est focalisée sur l’impact de l’IA sur les droits civiques, sur l’emploi, les biais et la sécurité des infrastructures. Elle a publié un premier rapport en 2016.

Sous des couverts de bonne gestion du principe de précaution, ces initiatives des GAFAMI sont à évaluer sous la loupe des pratiques habituelles du lobbying. Elles visent à calmer les peurs et à assurer les pouvoirs publics qu’une autorégulation de l’IA est possible par les acteurs de l’industrie. Cela vise surtout à éviter que ces derniers s’immiscent dans la stratégie de ces grands acteurs. Et dans le cas où il viendrait à l’idée des pouvoirs publics de réguler l’IA d’une manière ou d’une autre, d’être prêt avec des propositions compatibles avec leurs stratégies. C’est de bonne guerre mais il ne faut pas être dupe ! Les GAFAMI ont plus peur des Etats et de l’utilisations qu’ils pourraient faire de l’AI que de leurs propres AIs.

12) La connexion cerveau – IA serait pour demain

Avec Neuralink, la dernière startup créée par Elon Musk, on va bientôt connecter les enfants à l’IA et l’éducation sera dépassée par l’IA. Neuralink a en effet annoncé en avril 2016 plancher sur des nano-électrodes permettant la connexion du cerveau à un ordinateur. Facebook travaille de son côté sur un casque de télépathie de cerveau à cerveau en 2019 alors qu’au mieux, il permettra de dicter un texte, lettre par lettre. De son côté, la startup américaine OpnWtr planche sur un bonnet doté de capteurs photos et de LED infrarouge permettant de scanner le contenu du cortex et même de l’influencer (cf ma série de trois articles “Ces startups qui veulent bidouiller votre cerveau”).

Va-t-on mettre les microprocesseurs de la technologie d’Elon Musk dans les cerveaux des enfants ? Bien non. Neuralink ne fabrique pas des microprocesseurs à implanter dans le cerveau mais de simples électrodes ! Qui sont plutôt parties pour traiter avec précision des pathologies neurodégénératives diverses. Les entrepreneurs vendent du rêve ou du cauchemar. Dans la pratique, ils se rabattent à la fin sur des solutions technologiquement intéressantes mais pas celles des prospectus de la science fiction.

So what ? En fait, tout ceci n’était qu’un teasing de la sortie prochaine de mon nouvel ebook sur l’IA “Les usages de l’intelligence artificielle”.

Ce sera une mise à jour de celui que j’avais publié en mai 2016. Je vais y rentrer dans le lard de ces mythes et décortiquer l’IA d’un point de vue pratique, sur les techniques utilisées et leur évolution, sur le hardware de l’IA, sur les applications horizontales et verticales de l’IA et sur les méthodes de développement de solutions logicielles et de gestion de projets de l’IA. Bref, on va passer de la science-fiction à la réalité d’aujourd’hui. C’est plus pratique pour agir ! Et comme d’habitude, cet ebook sera en Creative Commons et gratuit.

COMMENT SE PROTEGER (EN URGENCE) CONTRE LE RANSOMWARE NOTPETYA

L’usine Digitale – Julien BERGOUNHOUX 

Dans la lignée de WannaCry, un nouveau malware s’attaque à de nombreuses machines à travers le monde, qu’elles soient issues de petites ou grandes entreprises, ou même d’infrastructures critiques. S’il prend la forme d’un ransomware, le malware semble en réalité surtout conçu pour saboter ses victimes, purement et simplement. Dans l’urgence, un chercheur a découvert une parade simple mais efficace qui empêche l’infection sur une machine encore saine.

Un nouveau malware frappe actuallement un grand nombre d’infrastructures mondiales, touchant entre autres les entreprises Bayer, Nivea, Maersk, Merck, Mondelez, Saint Gobain, WPP et Rosneft. L’Ukraine serait particulièrement touchée. Ses organes gouvernementaux, ses banques et de nombreux opérateurs d’importance vitale (notamment dans l’énergie) seraient atteints. Si l’Europe semble la plus concernée, les Etats-Unis ne sont pas épargnés. Des hôpitaux dans la région de Pittsburgh seraient paralysés, et l’entreprise DLA Piper aurait subi des dysfonctionnements. Au total, Kaspersky Lab estime qu’au moins 2000 entreprises sont été atteintes dans le monde à ce jour.

DE MULTIPLES VECTEURS DE CONTAGION

Le malware se fait passer pour Petya, un ransomware déjà connu, mais a été recréé en intégralité. Il s’appuie sur la même vulnérabilité que WannaCry, un ransomware datant de mai qui avait déjà causé des sueurs froides aux DSI du monde entier. Cette vulnérabilité, présente dans d’anciens systèmes d’exploitation Windows dont les mises à jour n’ont pas été faites, permet au malware de les infecter automatiquement dès lors qu’ils sont exposés à l’Internet, via le protocole SMB. Pis, NotPetya (ainsi baptisé par Kaspersky Lab) utilise un outil appelé LSADump ainsi que la ligne de commande de Windows (WMIC et PSEXEC) pour se répandre sur le réseau interne de l’entreprise. Des machines normalement protégées car mises à jour peuvent ainsi être infectées dès lors qu’elles sont en réseau avec un ordinateur vulnérable ou que le malware a été exécuté localement.

LA RANÇON NE SERAIT QU’UN PRÉTEXTE ?

Le cyber-gendarme ukrainien a notamment indiqué que les victimes gouvernementales dans ce pays ont été infectées via une version corrompue du logiciel de comptabilité ME Doc. A noter par ailleurs que s’il chiffre bien les machines infectées et demande une rançon en bitcoin (l’équivalent de 300 dollars) pour les débloquer, NotPetya n’est pas un ransomware très efficace. Il utilise une adresse bitcoin unique pour toutes les infections (les ransomwares génèrent habituellement une adresse pour chaque infection afin de réduire la traçabilité de l’argent) et propose aux victimes de communiquer avec les perpétrateurs par email si nécessaire, au lieu d’un moyen de communication moins facile à pister comme Tor (le réseau d’anonymisation que le grand public associe généralement avec le « dark web »). En conséquence, certains chercheurs, comme Kevin Beaumont, suspectent l’objectif de NotPetya de ne pas réellement être le gain financier, mais plutôt de créer la panique et de saboter certaines infrastructures. Payer la rançon n’aurait donc probablement aucun effet.

IL EXISTE UNE PARADE EN CAS D’URGENCE

Pour se protéger, absolue nécessité en 2017 est d’utiliser une version récente de Windows (Windows 10) et de faire systématiquement les mises à jour de sécurité, puis de suivre les bonnes pratiques en matière d’hygiène informatique. Dans l’urgence, le chercheur Amit Serper a de plus trouvé une parade à l’infection, pour peu que les machines ne soient pas encore touchées. Si elles sont infectées, il est trop tard. Autrement, il a découvert qu’il suffit de créer un fichier appelé « perfc » dans le répertoire « c:\windows » et le mettre en « lecture seule » (ce qui empêche de l’écraser) pour bloquer l’attaque (car le malware cherche à créer ce même fichier). Il faut cependant bien garder en tête que ce remède n’est que temporaire et ne fait pas office de parade absolue.

CONFERENCE : DETECTER ET LUTTER CONTRE LES NOUVELLES ATTAQUES EN 2017

Conférence sur la cyber sécurité le 24 Mai 2017 de 17h à 18h à la MIAGE de Nice, animée par Patrick Chambet, vice-président côte d’Azur du Clusir PACA

Lien de la billetterie en ligne : https://www.weezevent.com/detecter-et-lutter-contre-les-nouvelles-attaques-en-2017

Nous vous attendons nombreux !Affiche la conférence du mercredi 24 mai 2017

Révolution numérique, notre futur ?

Conférence : révolution numérique, notre futur ? 

MIAGE le 09/05/2017 de 11h à 13h

Animée par Alexandre Monnin, chercheur à l’Inria dans le domaine de l’architecture et la philosophie du web.

Affiche la conférence du mardi 9 mai 2017

Lien de la billetterie en ligne : 

https://www.weezevent.com/conference-revolution-numerique-notre-futur