analyse-decryptage/article/robotique-et-ethique-2eme-partie

Service pour les professionnels de l’information

Le service pour les professionnels de l’information (SPI) est dirigé par le père Laurent Stalla-Bourdillon. Ce service est destiné à tous les acteurs du monde des médias.

Contact

26, rue du Général Foy, 75008 Paris
Par email
06 40 08 41 94

Suivez-nous

Robotique et éthique (2eme partie)

Jusqu’à présent les sociétés humaines forgeaient leur identité à partir de récits et de narratifs, gardiens de leur histoire, des récits oraux ou écrits, fruits de l’intelligence humaine. Prendre part à la vie sociale consistait à s’inscrire dans cette histoire, à se l’approprier et hériter de la vision des évènements passés.

Au fil des siècles, l’humanité est passée de la tradition orale et de la mémoire de paroles (la logosphère), à la production de textes (la graphosphère), puis de sons, d’images et de vidéos (la vidéosphère). Cette évolution permet l’usage cumulatif et concomitant de tous ces outils pour nourrir nos connaissances et nos représentations. L’apparition de l’internet est comparable à l’accès inédit à une gigantesque mémoire globale qui concurrence les canaux traditionnels de transmissions. La mémoire du sens n’est plus transmise par les aïeux, les familles et autres groupes de sociabilité, elle se construit et se diffuse dans un cyber espace, gardiens des données de la famille humaine. Aujourd’hui l’intelligence artificielle (IA) facilite l’orientation des utilisateurs dans une telle masse de données au moyen d’algorithmes de recommandation et donc de sélection.
A ce stade, les usages les plus répandus de l’IA (intelligence artificielle) appartiennent à l’environnement publicitaire et médiatique. Il s’agit de recommandations de type publicitaire, vers des textes, des images, du son et de la vidéo.

Or, l’IA se trouve à présent capable de générer d’elle-même des contenus. Ces contenus, en venant prendre place dans la gigantesque base de données accessible, l’accroissent d’autant transforment la mémoire commune, jadis régulée par les groupes sociaux.

La machine peut d’elle-même enrichir des contenus et susciter des personnages fictifs. Avec la création de contenus, notre mémoire commune commence à nous échapper car elle est concurrencée par d’autres narratifs. Le cyber espace peut être envahi par le faux (fake) qui contamine alors l’esprit humain et fausse les représentations.

Les algorithmes s’améliorent et se démocratisent de plus en plus. À mesure que les outils génératifs (de textes, d’images…) deviennent de plus en plus sophistiqués (GPT-3, DALL-E 2, Imagen, Copilot), l’internet sera dépassé (disons « englouti ») par des contenus d’origines non humaines. Il s’agit d’une pollution de la mémoire collective par la contamination des sources. Avec la génération de contenus à une vitesse fulgurante, nous sommes face à des conséquences encore floues mais sans aucun doute pernicieuses.

Si les utilisateurs des technologies numériques ne prennent pas le temps d’identifier et de critiquer les sources, ils adopteront aveuglément des messages douteux et toxiques. Les algorithmes de recommandation des agrégateurs de médias sociaux couplent la rentabilité et l’excentricité qui capte l’attention. Tout progrès technique a sa contrepartie négative en termes de pollution. La pollution par l’IA est psychique, avec l’indistinction humain-non humain. Elle induit progressivement une insensibilisation à la vie humaine réelle.

À mesure que les modèles génératifs gagneront en maturité, les modèles discriminants des plateformes, telles que Meta, TikTok, Twitter ne pourront pas distinguer un contenu généré par IA, du contenu généré par l’homme. Même s’ils fabriquent des modèles raisonnablement bons pour distinguer le HGC (Human Generated Content) et le BGC (Bot Generated Content), ils risquent soit de manquer la cible non-humaine, soit d’éliminer des comptes de personnes réelles.

La démocratisation de la génération de contenus à grande vitesse fournit les clés d’une boîte de Pandore à laquelle les opinions ne sont pas préparées. Un raz-de-marée de contenus s’annonce, qui aura des conséquences imprévisibles. Nina Schick a théorisé cette épreuve avec le concept d’infocalypse [1] (apocalypse de l’information).

Au-delà d’avantages évidents, comme le prototypage rapide pour les concepteurs de jeux, ou la possibilité pour les gens d’illustrer leurs propres livres pour enfants …, les ramifications pour l’avenir de l’internet et des systèmes d’informations sont plutôt sombres.

Ce qui est clair, c’est que nous devrons nous adapter à ce nouvel environnement : si la majorité des informations présentes sur internet sont inoffensives et sans enjeux (horaires d’ouvertures, etc…), l’arrivée de contenus générés par des machines, pourraient redéfinir en profondeur les bases de la vie sociale. Il faudra dès lors innover en matière d’outils fournissant la preuve de la paternité d’un contenu, indiquant s’il a ou pas été créé par un humain. Et il faudra aussi préserver et intensifier la qualité des relations humaines, des rencontres interpersonnelles sans intermédiations techniques qui restent le terreau vital de la confiance.

Notes :

[1Deepfakes and the infocalypse with Nina Schick
https://www.youtube.com/watch?v=K-dXlGIhKbw


Père Laurent Stalla-Bourdillon

Vous pourriez aimer lire :