Par analogie avec celle survenant chez l’homme, due à une fausse perception, on utilise ce mot dans le domaine de l’intelligence artificielle pour caractériser une réponse fausse qui est présentée comme un fait certain. On en trouvera des illustrations dans l’article de Wikipedia qui lui est consacré.
J’ai eu le désir de vérifier le phénomène sur ChatGPT, en lui demandant quelle était la philosophie qui se dégageait de mes propres ouvrages, et de quel autre écrivain le programme jugeait que j’étais proche. Eh bien, cela n’a pas tardé : très vite je me suis vu affublé de titres de livres que je n’avais pas écrits, et de noms de personnalités œuvrant dans un domaine qui n’est absolument pas le mien. J’ai vu là un déluge d’hallucinations.
Cet article est réservé aux abonnés à Golias Hebdo. Déjà abonné ? Connectez-vous ci-dessous. Pas encore abonné ? Choisissez une formule. Vous pouvez également acheter ce numéro de Golias Hebdo
Golias Hebdo
Chaque semaine, un autre regard sur l’information.
Golias Magazine
Bimestriel. Un outil d’information indispensable pour une véritable résistance spirituelle.
Golias Magazine + Golias Hebdo
Tout Golias : nos publications à un tarif préférentiel.