Les IA génératives marquent une véritable révolution dans l’accès à la connaissance. Leurs concepteurs ne font aucun cas des conséquences réelles de ces outils car ils ne font aucun cas de ce qu’est l’humain. Ils poussent à l’adoption de ces technologies à partir d’une logique purement utilitariste, sans place pour une réflexion préalable sur les possibles effets secondaires. La seule existence de l’outil et sa gratuité suffisent à crédibiliser ses usages et à stigmatiser les avis réservés jugés inutilement craintifs. Ce basculement entraîne une domination des outils par leur seule performance et non par leur pertinence. La pertinence relève de notre décision, de notre jugement critique. Le véritable danger consiste donc à se faire imposer une pertinence douteuse sous couvert de performance. Voilà “l’effet de persuasion” discret, puissant et insidieux. On ne peut réfléchir aux effets de l’IA sans prendre au sérieux ce qu’est l’être humain. Cette question est terriblement absente de la fulgurante diffusion des IA génératives. Ce fut précisément un aspect de l’allocution du Pape Léon XIV à l’occasion de la deuxième conférence annuelle sur l’intelligence artificielle, éthique et gouvernance d’entreprise, le 17 juin 2025. Il disait : « Malheureusement, nos sociétés assistent aujourd’hui à une certaine « disparition ou du moins à une éclipse du sens de l’humain » et cela nous exhorte tous à réfléchir plus profondément sur la véritable nature et l’unicité de notre dignité humaine commune. » [1]
La masse de connaissances mobilisée par ces outils techniques, capables d’analyser des milliards de données, en fait des sachants numériques mais sans la moindre compréhension véritable. Seule l’intelligence humaine comprend, tandis que la machine ne fait que calculer. Prétendre le contraire serait trahir un anthropomorphisme caractérisé. Ce serait projeter sur la machine une faculté qui ne lui appartient pas, une capacité de compréhension. La compréhension participe à notre accomplissement. Chacun cherche et doit comprendre pour devenir ce que nous devons encore devenir. L’être humain est un être en chemin, inachevé, en devenir permanent. Il est en croissance vers lui-même, étant entendu qu’inscrit dans le temps, il est en « état de voie » (in via), et non en « état de terme ». Ce n’est qu’à notre mort que se révélera pleinement cet état de terme, ce que nous sommes devenus. La dimension invisible de notre être, sa dimension spirituelle, sera alors terminée. Cette dimension spirituelle de l’être humain est totalement ignorée par l’ensemble des créateurs des technologies d’IA générative. Neil Lawrence, professeur à l’université de Cambridge, auteur de « An AI Professor’s Guide to Saving Humanity From Big Tech » a déclaré que « les personnes qui contrôlent le déploiement de la technologie sont peut-être les personnes les moins intelligentes socialement que nous ayons sur la planète » [2]. Nous constatons les sommes colossales engagées pour que les machines atteignent le niveau de l’intelligence humaine, nous ne nous intéressons pas sur nous-mêmes et sur ce qu’il nous faudrait engager pour que nous devenions vraiment humains. C’est l’humain en tant qu’humain, capable de penser la vérité et le bien qu’il faut protéger et développer, non pas des béquilles de la pensée ou une humanité assistée. « La machine doit conduire l’homme à se spécialiser dans l’humain » disait Jean Fourastié [3] dès les années 1950, anticipant le monde des technologies. Aujourd’hui le Pape Léon rappelle « l’ouverture de l’humanité à la vérité et à la beauté, sa capacité distinctive à saisir et à interpréter la réalité. Reconnaître et respecter ce qui caractérise de façon unique la personne humaine est essentiel au débat de tout cadre éthique adéquat pour la gouvernance de l’IA. » [4]
La machine contrairement à l’être humain n’a pas d’avenir par-delà sa mort. Après la mise hors service d’une machine, elle ne devient rien. Elle n’a pas d’intériorité ni de projet. Elle ne relève d’aucune ontologie et n’a aucun lien avec l’être. L’être humain ne vit pas pour cette vie seulement, mais il se prépare à une vie plus grande. L’IA n’engage pas son avenir dans l’exercice d’une responsabilité de penser, or c’est précisément ce qui définit l’homme. Le Pape Léon XIV a rappelé en ce sens « qu’aucune génération n’a jamais eu un tel accès rapide à la masse d’information désormais disponible grâce à l’IA. Mais l’accès à des données — bien qu’extensives — ne doit pas être confondue avec l’intelligence, qui implique nécessairement « l’ouverture de la personne aux questions ultimes de la vie et reflète une orientation vers le Vrai et le Bien » (Antiqua et Nova, n. 29). A la fin, la sagesse authentique est davantage liée à la reconnaissance de la véritable signification de la vie, qu’à la disponibilité de données. » [5]
Sans affirmation de la vie intérieure, comme spécificité de l’humain, le risque est réel que l’homme en vienne à se confondre avec la machine — soit en la personnalisant à tort, soit en s’identifiant à elle, se réduisant alors à un système sans profondeur, sans devenir, sans plus de vocation spécifiquement humaine. C’est précisément ce qui se joue aujourd’hui. Nous en sommes là, à ce point critique où l’homme vacille dans sa propre définition. Et c’est maintenant qu’il faut alerter sur la diffusion massive de confusion : confusion entre calcul et pensée, entre simulation et conscience, entre performance et intériorité. Si nous n’y prenons garde, c’est l’image même de l’homme qui s’efface, absorbée dans le mirage technologique d’un semblant d’intelligence qui ignore tout de l’âme. Contrairement aux autres créatures, nous, les personnes humaines, n’existons pas seulement, nous questionnons notre existence en permanence. Nous nous demandons pourquoi et pendant combien de temps nous serons ici.
Maryanne Wolf [6], spécialiste des neurosciences, professeure à l’Université de Californie (UCLA), explique qu’« avant l’âge de douze ans, il faut exclusivement développer l’écriture personnelle, afin que le circuit cérébral puisse se former. Ensuite, on peut progressivement développer la lecture profonde sur les supports numériques, et sensibiliser peu à peu à l’intelligence artificielle. (…) Ce qui se joue dans le développement, c’est la construction du circuit cérébral dédié à la langue écrite, que ce soit en lisant ou en écrivant ses pensées. Plus on sollicite ce circuit, plus on y met d’efforts, plus il se renforce. Si vous ne faites pas cela, vous ne développez pas ce circuit de manière à ce que le cerveau devienne fluide et capable ensuite de penser avec inférence, analogie, etc. Réduire l’effort, la pratique et l’utilisation de ces circuits est une catastrophe pour le développement des compétences liées à la lecture et l’écriture. »
Et le Pape Léon soulignait encore combien « nous sommes tous préoccupés pour les enfants et les jeunes, et les possibles conséquences de l’utilisation de l’IA sur le développement intellectuel et neurologique. » [7]
Il est, hélas, fort probable que l’avis des experts ne soit pas écouté, non par désintérêt, mais parce que la maîtrise de la diffusion des paroles appartient désormais à la machine elle-même. Par ses algorithmes, elle décide et impose la visibilité de certains contenus sans lien avec leur véracité. En même temps qu’une parole de machine s’impose, la machine refuse que les paroles d’experts s’exposent ! Dès lors, le débat public ne se fait plus à armes égales. Nous ne sommes plus face à un simple déséquilibre d’opinions, mais dans une guerre multiple, où se conjuguent l’attention, l’affection, l’émotion et la persuasion. Dans ce tumulte, la parole humaine fondée sur la raison, l’expérience, la vérité, est réduite au silence. La raison humaine semble bâillonnée.
Les effets délétères des technologies sur nos cerveaux sont une réalité préoccupante. Mais le danger est détectable même sans l’expertise des neuroscientifiques. Il suffit, pour cela, de prendre le temps de comprendre la structure relationnelle de l’humain et la dimension dialogale de la parole. Car on ne parle jamais dans le vide : on parle toujours à quelqu’un (même si c’est à soi-même), et ce dialogue, explicite ou intérieur, est finalement toujours orienté vers une croissance dans l’ordre du bien et du vrai. Voilà une des dispositions fondamentales de l’être humain : le langage est lien, ouverture et responsabilité. L’autre me parle toujours à partir de ce qu’il est, et j’entre en relation de confiance ou de défiance à partir de ce bien que l’autre me propose, de ce vrai dans lequel il engage sa personne.
Rien de tel avec les machines. Elles parlent un langage trompeur, car elles sont structurellement incapables de connaître le vrai et le bien, dénuées de conscience et de toute forme de responsabilité. Face à cela, les technologies d’IA génératives nous obligent à revenir à la question première et décisive : “qu’est-ce que l’être humain ?” Discutons-en, entre personnes concernées, entre humains !
Notes :
[1] Message du pape Léon XIV aux participants à la deuxième conférence annuelle sur l’intelligence artificielle, éthique et gouvernance d’entreprise, 17 juin 2025. Lire ici
[3] Jean Fourastié, Le Grand espoir du XXe Siècle, PUF, 1950
[4] Message du pape Léon XIV aux participants à la deuxième conférence annuelle sur l’intelligence artificielle, éthique et gouvernance d’entreprise, 17 juin 2025.
[5] Message du pape Léon XIV aux participants à la deuxième conférence annuelle sur l’intelligence artificielle, éthique et gouvernance d’entreprise, 17 juin 2025.
[6] « On n’aura bientôt plus besoin d’écrire : comment ChatGPT reprogramme notre rapport au langage », Victoire Lemoigne, Figaro, 22 juin 2025, lire l’article
[7] Message du pape Léon XIV aux participants à la deuxième conférence annuelle sur l’intelligence artificielle, éthique et gouvernance d’entreprise, 17 juin 2025.