« I’ve seen things you people wouldn’t believe. Attack ships on fire off the shoulder of Orion. I watched C-beams glitter in the dark near the Tannhäuser Gate. All those moments will be lost in time, like tears in rain. Time to die. » Rutger Hauer, monologue final de son personnage
L’intelligence artificielle hallucine.
C’est sans doute un effet que Philipp K. Dick n’avait pas en tête en écrivant Blade Runner.
Dans tous les projets que je dirige, c’est un élément de réflexion : comment contrôler les résultats de l’intelligence artificielle.
La plupart des systèmes productifs sont d’ailleurs sortis comme « copilotes ». L’humain joue un rôle.
Dans l’entreprise, en B2B, on sait tout cela.
D’ailleurs, je vous avais rendu compte, sur d’autres plateformes, du livre « Weapon of Math destruction » à sa sortie en … 2016 sur les conséquences des biais de programmation dans l’usage politique et social des IA, et leurs hallucinations.
J’en ai fait une petite expérience avec non pas OpenAI – je n’utilise à titre privé que Mistral, et dans mon travail, une IA développée par le fondateur de la boîte, l’homme qui m’a convaincu de venir il y a 18 mois, AllAI – mais l’IA de Google Search.
Je recherchais le contexte d’une photographie américaine de 1877.
Suivant la question posée, l’IA m’a interverti les noms des personnes et des lieux, donné des contextes conspirationnistes comme historiques, et finalement, dit tout et son contraire. J’en suis arrivé à poser délibérément la question d’une telle manière que j’obtenais une nouvelle hallucination.
L’intelligence artificielle considère tout résultat comme pertinent tant qu’il répond à la question, sans souci de raison cartésienne, de non contradiction, de vérité ou de cohérence.
Un juriste français Damien Charlotte recense les erreurs des IA en contexte juridique – celles-ci inventant des arrêts et des textes de lois si nécessaire : Hallucinations
L’IA est ainsi entre mythomanie et complexe du cancre.



Laisser un commentaire