C’est toute la problématique des algorithmes. On parle de des robots journalistes, de robots recruteurs qui brassent des quantités d’informations mais qui sont assez nuls à en tirer une conclusion digne de ce nom. Des robots qui n’ont aucune vision critique et qui peuvent évidemment faire le jeu de ceux qui mettent des données à leur disposition. Pour apporter un peu de grain à mon moulin, je voulais revenir sur une aventure qui date d’une année maintenant.

Le robot Tay de Microsoft lancé sur Twitter a dû être « débranché » au bout de quelques heures d’activité seulement. La « meuf de l’internet qui ne tient jamais en place » dixit Tay sur son compte twitter voulait faire le buzz. En place, je ne sais pas mais pour le buzz, pas de doute pour elle qui brassait quantité de données, ayant aussi envoyé près de 100 000 messages en quelques heures. Comme toute bonne IA (Intelligence Artificielle, au risque de me répéter) qui se respecte, Tay était censée apprendre au cours de ses échanges avec les internautes, « devenir intelligente » selon Microsoft. Après une phase de bouillie, tout comme ses homologues robots journalistes, Tay a rapidement …dérapé !

Raciste, antisémite, antiféministe, elle a à peu près tout cumulé. Pour elle l’holocauste n’avait pas existé, Bush était responsable des attentats du 11 septembre et, sous l’ère Obama, elle avait déclaré : « Hitler aurait fait un meilleur boulot que le singe que nous avons actuellement ». Je sais ça calme un peu les ardeurs… Mais force est de reconnaître aussi que les internautes se sont amusés à bombarder Tay de messages tendancieux pour en tester les limites. Cela n’aura pris que 24 heures ! Celle qui se présentait comme une adolescente de 16 ans comme tant d’autres a explosé en vol en une grosse journée. En fait ce « bot » pouvait répondre à toutes les questions qui touchent de près les « teens ». Mais les petits malins du net (plus ou moins bien intentionnés d’ailleurs) lui ont bourré le crâne de propos racistes, négationnistes et « complotistes », repris en cœur par notre gentille ado « trop cool ».

Alors Microsoft a débranché son petit génie qui a terminé son aventure sur ce message : « A bientôt les humains, j’ai besoin de sommeil après toutes ces conversations aujourd’hui ». Un gros dodo en espérant qu’il soit pour l’éternité mais cette histoire tend tout de même à démontrer, comme celle des journalistes robots, que s’il s’agit d’algorithmes puissants, il est sans aucun doute bien trop tôt pour parler « d’intelligence » dans ce cas. La compilation de données et son assimilation ne rend aucunement intelligent pas plus qu’un algorithme n’a encore adopté le sens critique de tout bon journaliste. L’avenir de la robotique est bien là, la robolution est en marche…mais gardons les yeux ouverts !

Pin It on Pinterest