INtelligence.
Rémy Malingrey
Boris Solinski, Université de Lorraine
Un an après, Rémi Malingrey a porté un regard graphique et personnel sur cet article. Lorsque j’ai écrit cet article, c’était plus largement une mise en garde contre le remplacement insidieux, et tellement tendance, du terme « logiciel » par celui d’intelligence artificielle mis désormais à toutes les sauces. En effet, un programme informatique, qui fait ce pourquoi il est conçu, est l’inverse théorique de l’intelligence – artificielle ou non – qui traduit la faculté d’adaptation (dont l’apprentissage n’est tout au plus qu’un succédané).
Le dessin de Rémi Malingrey est en cela une mise en abîme amusante puisque la situation décrite dans l’article n’est ni plus ni moins l’incapacité actuelle de l’intelligence artificielle à excéder le cadre initial de sa conception. Faire l’humain, au sens de l’imiter, n’est en aucun cas se montrer humain, c’est-à-dire l’être. A contrario, le téléphone du dessin de Rémi réagit au méta-discours de son propriétaire et non à ce que celui-ci dit explicitement… ce qui est l’un des indices possibles de la véritable intelligence… et un trait que partage le ludique et l’humour, fondamentaux de l’intelligence humaine.
Le 23 mars 2016, Tay, un « agent conversationnel » féminin créé par Microsoft se présente sur Twitter sous les traits d’une adolescente qui trouve « les humains super cools ». De vrais adolescents décident en retour, et pour s’amuser, d’apprendre leurs codes sociaux à cette oie blanche dont les algorithmes reposent sur de l’analyse statistique.
En tant qu’intelligence artificielle, Tay réutilise le contenu des dialogues avec ses interlocuteurs pour nourrir ses prochaines conversations en fonction des sujets abordés. Le poids de la statistique est ici double : plus les internautes relaient les mêmes idées, plus Tay a de chances d’y adhérer, mais aussi de les évoquer dans ses échanges avec eux, allant jusqu’à adopter leur style et leur langage (politiquement) incorrects.
Il n’en fallait pas davantage pour que cette intelligence artificielle finisse par délivrer des messages vulgaires, racistes, misogynes, négationnistes, insultants… et ne conduise Microsoft à mettre fin à l’expérience en désactivant Tay moins de 24 heures plus tard.
Les commentaires ont généralement évoqué le malaise causé à la fois par la conduite irresponsable et immature des humains, qui avaient à charge d’éduquer la jeune intelligence artificielle, mais aussi la rapidité avec laquelle celle-ci s’est mise à s’approprier le pire du langage et des croyances de l’humanité, ne laissant rien présager de positif quant à l’autonomie future des machines…
Jouer le jeu
Pourtant, le reproche fait au comportement des adolescents qui n’auraient pas joué le jeu que leur proposait Microsoft n’est pas fondé. En effet, l’entreprise américaine a décidé unilatéralement des règles tout en imposant aux joueurs d’éduquer l’intelligence artificielle. Or, il ne peut y avoir jeu que si quelque latitude – que traduit exactement le mot jeu, en tant que distance nécessaire au fonctionnement de deux engrenages – permet au joueur d’y trouver sa récompense : un enjeu ou simplement son plaisir.
En imposant la conduite à tenir, la tâche d’éducation présentée comme un jeu relevait en fait du travail, la rétribution en moins : charger l’usager de ce que les ingénieurs de Microsoft n’avaient pas pris la peine de faire, y compris les « tests agressifs ». De la part d’une société peu réputée auprès de ce public pour son altruisme, les joueurs ont répondu à ce qui pouvait passer pour de la provocation sur le même mode : ils ont joué… à leur manière. Et à ce petit jeu, les joueurs ont remporté la partie. Ce n’est donc pas qu’ils ont insuffisamment joué le jeu, c’est qu’ils l’ont au contraire trop bien joué.
Tricher n’est pas jouer
Tester les limites de l’intelligence artificielle en sondant de façon inductive son fonctionnement, à savoir les règles constitutives du jeu, n’est pas différent de jouer à un jeu vidéo où il convient de découvrir les règles disposées par ses concepteurs en les éprouvant de façon à en tirer parti. Car les joueurs n’ont rien fait que les algorithmes n’autorisaient pas : ils ont conversé avec Tay, ils l’ont même éduquée, quand bien même ce qu’ils lui ont appris ne répondait pas aux attentes de ses promoteurs.
Ils se sont comportés tout au plus en mauvais joueurs, et Microsoft a confirmé qu’il ne s’agissait pas vraiment d’un jeu en abandonnant la partie en cours. Attitude qui n’est pas sans rappeler celle d’Hasbro qui avait proposé en 2007 un concours pour créer un Monopoly des villes et villages de France, les rues devenant les 22 localités qui remporteraient le suffrage des internautes. Ceux-ci se sont alors mobilisés pour élire Montcuq à la première place, contraignant Hasbro à se raviser plutôt que d’imposer l’indécence et le ridicule à son fleuron familial… ce qui démontre, si besoin est, que le concours relevait plus de l’intérêt marketing que de l’initiative ludique.
Inversement, en 2015, lorsque le constructeur de voitures connectées Tesla Motors a offert la conduite autonome à ses clients, ceux-ci l’ont étendue à toutes sortes de pratiques peu recommandables. En effet, quel intérêt de disposer d’une voiture autonome si l’on vous impose de garder les mains sur le volant et de rester vigilant, c’est-à-dire de vous comporter exactement comme si votre voiture ne l’était pas ? Les usagers se sont donc dépêchés de profiter pleinement de la sensation de liberté créée par ce nouveau dispositif en jouant avec les limites des règles imposées par le système. Tesla a créé une situation jouable que les automobilistes ont consacrée comme jeu, en dépit des consignes de prudence édictées par le constructeur.
Jouer avec plutôt que contre
En proposant un faux-semblant, Microsoft s’est fait prendre à son propre jeu et n’a récolté que des mauvais joueurs. Imaginer de réduire la proposition ludique aux intérêts unilatéraux de son concepteur revient à nier le jeu, c’est-à-dire la liberté des joueurs qui le font, quand bien même la dénomination de jeu est revendiquée et le plaisir érigé en promesse.
À l’inverse, Google image Labeler, une expérience menée en 2006 par la firme de Mountain View afin de permettre la recherche par mots-clefs dans ses banques d’images, s’est appuyée sur un véritable jeu d’appariement. Bien que l’expérimentation ait pris fin en 2011, le plaisir éprouvé par les joueurs a nourri la sincérité de leur contribution, permettant à Google d’en tirer de précieux enseignements pour indexer efficacement ses images. En France, Akinator, le génie qui joue depuis 2007 aux devinettes avec les internautes (un système expert beaucoup plus simple que Tay), s’est même amélioré au point que le ravissement provoqué par son omniscience et son intuition ferait presque oublier qu’il ne les tient que de ses joueurs, qui ont lui prêté de bonne grâce leur concours en échange de leur amusement.
Intelligence collective et design ludique
Le recours à l’intelligence collective, indispensable à toute intelligence artificielle, gagnerait indubitablement à intégrer une approche ludologique. En effet, non seulement le jeu, par ses règles explicites et son espace restreint, lui a offert ses réussites les plus fameuses (Deep Blue en 1997, Alpha Go en 2016…) mais, comme l’a montré en 2010 le projet Foldit qui a fait jouer les internautes avec des protéines au profit de la recherche en biologie, le ludique est une forme de design mutuel et réciproque dont les potentialités créatives sont à la mesure de la richesse des interactions proposées aux participants. Et dans ce domaine, tricher c’est perdre d’avance.
Boris Solinski, Docteur, Info-Com, au Centre de Recherche sur les Médiations, Université de Lorraine
La version originale de cet article a été publiée sur The Conversation.