Ne vivez pas d’après les mensonges de l’IA | Le Monde de Demain

Ne vivez pas d’après les mensonges de l’IA

Commenter cet article

La capacité de l’IA pour simuler la réalité est en plein essor. Sommes-nous au seuil de la prochaine révolution technologique ?

L’intelligence artificielle (IA), est en train de vivre un « moment civilisationnel ». L’apprentissage automatique et la capacité croissante des algorithmes informatiques pour accomplir des actions complexes imitant l’intelligence humaine ne sont pas nouveaux. Ils ont un impact, souvent invisible, sur notre vie quotidienne depuis un certain temps déjà, comme nous l’avions expliqué dans notre article paru en juillet-août 2015 et intitulé « Intelligence artificielle : progrès ou danger ? »

L’IA alimente l’application routière de votre smartphone lorsque vous vous déplacez dans les embouteillages et elle décide des résultats de recherche à vous proposer lorsque vous faites des achats sur Amazon. Mais ces derniers mois, les actualités ont été inondées d’histoires spectaculaires concernant l’IA générative – des systèmes artificiels et intelligents capables de produire des textes, des images, des vidéos ou des sons qui semblent étonnamment réalistes. Autrement dit, l’IA apprend à imiter la réalité d’une façon de plus en plus précise. Il s’agit d’une évolution spectaculaire.

Le résultat peut être une aubaine pour de nombreux métiers créatifs : écriture, traitement d’images, montage vidéo, etc. Mais il annonce aussi des possibilités plus sinistres, car ceux qui voudraient l’utiliser dans le but de tromper les autres disposent désormais de puissants outils pour imiter la réalité. Dans quelle mesure sommes-nous sur le point de créer un monde dans lequel nous ne pourrons plus faire confiance à aucune image ou vidéo que nous voyons ? Serons-nous toujours capables de faire la différence entre les images et les sons fabriqués d’avec les images et les sons réels ? Serons-nous confrontés à une « apocalypse de l’information », comme l’a qualifiée un chercheur ?

La capacité de l’IA à simuler la réalité semble s’accélérer, laissant penser à certains que nous sommes à l’aube d’une des plus grandes révolutions technologiques de l’Histoire. Ce qui est « à la pointe du progrès » ce mois-ci pourrait être éclipsé de façon spectaculaire dans quelques mois, car les systèmes et les stratégies de l’IA apprennent à imiter la vie réelle sur plusieurs fronts.

Les images

Plusieurs entreprises (comme Midjourney, Stable Diffusion et DALL·E2 d’OpenAI) proposent des modèles alimentés par l’IA capables de générer des images, fantaisistes ou réalistes, qui semblent avoir été créées par des êtres humains, sur la base d’une simple description textuelle. Par exemple, si un utilisateur souhaite obtenir l’image d’une licorne galopant sur un arc-en-ciel passant par la planète Saturne, il lui suffit de taper cette description et l’IA génèrera souvent plusieurs images. Ensuite, l’utilisateur pourra utiliser celle qu’il préfère ou l’améliorer par un traitement supplémentaire. Pour chaque demande, une nouvelle image unique est générée.

Les images réalistes sont peut-être les plus surprenantes. Les systèmes génératifs peuvent prendre en compte des données très spécifiques, simuler le rendu d’un appareil photo, d’un objectif et d’un niveau d’exposition spécifiques, produire les émotions souhaitées sur les visages des personnes représentées et transmettre n’importe quelle « toile de fond » que l’image pourrait être censée suggérer. Les résultats peuvent être extrêmement convaincants, comme si les images étaient de vraies photos prises par de vraies personnes dans de vrais contextes. De telles images ont déjà été utilisées pour tromper de nombreuses victimes.

De nos jours, nous pouvons souvent déceler quelques « indices » indiquant qu’une image a été générée par une machine. Certaines caractéristiques peuvent être absurdes, par exemple des pupilles qui ne correspondent pas ou une main à six doigts. Toutefois, les générateurs d’images et ceux qui les utilisent semblent apprendre rapidement comment améliorer les résultats et éliminer ces erreurs.

Les visages

En 2020, le New York Times a publié sur son site Internet un article interactif intitulé « Conçu pour tromper : ces personnes vous semblent-elles réelles ? »1 En utilisant l’IA que ce journal avait lui-même commandée pour illustrer la facilité avec laquelle il est possible de générer des visages humains complètement factices mais tout à fait vraisemblables, l’article interactif permet aux utilisateurs de manipuler des images de visages individuels pour faire varier leur âge, leur sexe, leur race ou leur appartenance ethnique, ainsi que leurs émotions. Aucun des visages ne représentait des personnes réelles et chacun d’entre eux était généré par un ordinateur, mais ils étaient étonnamment crédibles. Il restait de petites imperfections ici et là, comme des formes d’oreilles différentes ou des lunettes asymétriques, mais un spectateur non averti ne s’en apercevrait pas.

L’utilisation la plus dangereuse des visages générés par l’IA est sans doute la capacité de modifier numériquement les visages de personnes réelles dans des vidéos et des films, en les transformant avec une précision troublante pour imiter le visage d’autres personnes. Communément appelée « deepfake » (ou parfois “hypertrucage”), cette technologie a permis d’incruster le visage jeune d’acteurs désormais âgés afin de représenter une version plus jeune de leur personnage. Les visages d’acteurs aujourd’hui décédés ont aussi pu être placés sur les visages de doublures actuelles. La société Flawless, basée à Londres, a utilisé son IA de manipulation des visages pour remplacer les gros mots et les paroles vulgaires d’un film afin d’obtenir une classification permettant d’élargir son public. Pour chaque substitution, nous avons l’impression que l’actrice dit vraiment le mot « plus propre » au lieu du langage vulgaire d’origine.

Les voix

Les chercheurs et les créateurs de contenu multimédia commencent à utiliser l’IA pour générer des sons remarquablement réalistes d’individus disant des choses qu’ils n’ont jamais dites. Après avoir échantillonné la voix d’un individu pendant une trentaine de minutes, l’ordinateur est capable de prendre n’importe quel texte écrit et de créer un son donnant l’impression que cet individu lit le texte à haute voix.

Les résultats de ce « clonage de voix », ou « audio deepfake », ne cessent de gagner en qualité. En 2023, pendant le Jour des présidents, aux États-Unis, le concepteur numérique Linus Ekenstam utilisa des outils de génération de texte et de clonage de voix par IA pour simuler un entretien avec Ronald Reagan, dans lequel Ekenstam interrogeait le président décédé sur ses idées concernant la technologie, la situation aux États-Unis et ce qu’il pensait de Donald Trump. Hormis l’anecdote de l’enlèvement par des extraterrestres, racontée par le président généré par l’IA, « l’entretien » était relativement crédible et la voix ressemblait vraiment à celle de Reagan, bien qu’elle soit un peu moins animée et dynamique que celle du président de son vivant.

Dans le cadre d’une utilisation très médiatisée de cette technologie, le géant du divertissement Disney a eu recours à l’IA pour imiter la voix emblématique de James Earl Jones, avec l’autorisation de l’acteur, pour les répliques de Dark Vador dans sa série télévisée Obi-Wan Kenobi. Cette technologie ne cesse de s’améliorer. En janvier 2023, une prépublication de l’université Cornell, sur l’informatique et le langage, a démontré qu’un système de génération de voix par IA était capable de reproduire de manière substantielle et réaliste la voix d’un sujet, après un entraînement sur des échantillons de trois secondes. Le modèle permet même aux utilisateurs de faire varier les émotions inhérentes à la voix.

Les conversations

ChatGPT, un outil de traitement du langage qui imite les textes écrits et les conversations humaines, a récemment attiré l’attention du public sur le niveau actuel de sophistication de l’IA. ChatGPT est alimenté par le vaste modèle linguistique GPT-3 et il a été mis à la disposition du public par sa société éditrice, OpenAI. Pour de nombreux profanes, il s’agissait de leur première interaction avec la capacité de l’IA à simuler des réponses humaines.

ChatGPT est capable de mener une conversation textuelle, d’expliquer des concepts compliqués en termes simples et de produire un contenu original qui semble avoir été créé par l’homme, même lorsqu’on lui présente les scénarios les plus ridicules. Demandez-lui de produire des poèmes, des paroles de chansons ou même des scénarios sur des sujets imaginables, ou encore de créer des « transcriptions » imaginaires de conversations entre des personnes qui ne se sont jamais rencontrées, voire simplement d’imiter le style d’écriture d’un auteur célèbre… ChatGPT s’exécutera avec des résultats étonnamment semblables à ceux d’un être humain.

Mais ChatGPT présente actuellement des lacunes. OpenAI a reconnu la partialité des tendances politiques et idéologiques du vaste contenu qui a servi à « former » ChatGPT. Les chercheurs et les utilisateurs ont noté la propension de ChatGPT et d’autres « chatbots » similaires à « halluciner » lorsque les conversations se prolongent, c’est-à-dire que l’IA commence à introduire des « faits » qui sont manifestement inexacts. C’est particulièrement vrai lorsque l’humain qui communique avec l’IA s’efforce délibérément de pousser l’algorithme dans des domaines où il n’est pas censé s’aventurer. Pourtant, les chercheurs s’efforcent constamment de former leurs systèmes d’IA à éviter de tels pièges et à simuler l’interaction humaine avec de plus en plus de succès.

Des outils puissants entre des mains dangereuses

À mesure que les outils d’intelligence artificielle deviennent de plus en plus puissants dans leur capacité à imiter de multiples facettes du monde réel (images, vidéo, voix, textes), la capacité des individus, des entreprises et des gouvernements à utiliser ces outils pour tromper les autres s’accroît également. En réalité, c’est déjà le cas depuis un certain temps.

En 2019, l’Associated Press rapportait qu’un utilisateur du réseau LinkedIn, sous le nom de Katie Jones, était un faux compte, probablement utilisé à des fins d’espionnage. La fictive Katie Jones utilisait un visage généré par l’IA pour le profil de son compte et avait développé des connexions avec de nombreuses personnes impliquées dans la politique américaine. L’agence de presse citait William Evanina, alors directeur du Centre national de contre-espionnage et de sécurité des États-Unis, qui déclara que la Chine utilisait des comptes avec de faux profils pour espionner les États-Unis « à grande échelle ».

De nombreux utilisateurs de Facebook ont déjà reçu un message suspicieux, apparemment envoyé par un ami en difficulté qui a urgemment besoin d’une aide financière. Les lecteurs attentifs repèrent rapidement ces faux messages, par exemple en raison de l’absence de détails personnels ou de l’aspect anonyme du message. Pourtant, les logiciels de génération de texte pourraient bientôt examiner les messages des internautes sur les réseaux sociaux et imiter leur style avec une précision remarquable et trompeuse, allant même jusqu’à répondre en prenant le « ton » de la personne supposée, avec des réponses contenant des détails personnels.

En 2019, l’IA fut utilisée pour une escroquerie téléphonique de haute technologie. Le 30 août de cette année-là, le Wall Street Journal rapporta le cas d’une entreprise britannique qui avait été escroquée d’environ 200.000£ (soit 220.000€) par des escrocs utilisant l’IA pour imiter la voix du PDG de la société mère allemande de l’entreprise. Cette technologie a beaucoup progressé depuis.

Dans quelle mesure ces escroqueries seront-elles plus fructueuses lorsque l’escroc utilisant l’IA sera capable d’interagir avec les victimes et de passer tous les tests de validation ? Comme pour l’espionnage « à grande échelle » évoqué par M. Evanina, ces applications et ces programmes permettraient aussi une escroquerie à grande échelle, puisqu’un seul escroc serait en mesure de déployer des dizaines, des centaines, voire des milliers de programmes en même temps.

Alors que les logiciels d’IA se banalisent, les allégations de « deepfake » se multiplient lorsque de nouvelles vidéos ou images font surface. Dans de nombreux cas, ces affirmations s’avèrent vraies. Mais comme la capacité de l’IA à imiter la réalité ne cesse de s’améliorer, ces affirmations deviendront de plus en plus difficiles à étayer.

Les “relations” artificielles

Certains dangers sont plus subtils. En juillet 2021, le San Francisco Chronicle fit parler de lui avec son article « La simulation de Jessica : l’amour et la perte à l’ère de l’IA ».2 Le journaliste Jason Fagone y décrivait comment un jeune homme avait utilisé Project December, une application basée sur le GPT-3 et créée par le concepteur de jeux Jason Rohrer, pour télécharger des textos de sa petite amie décédée afin de permettre au chatbot de simuler une conversation avec elle, comme s’il parlait régulièrement à son fantôme. Cet exemple incita M. Rohrer à focaliser Project December sur la possibilité de « simuler les morts », comme le dit son slogan. Mais OpenAI demanda l’implémentation de mesures de sécurité que M. Rohrer n’était pas disposé à mettre en œuvre, ce qui l’a incité à mettre fin au projet.

Pourtant, la possibilité de « réanimer » les morts ne semble pas si déconcertante pour le géant Amazon. Lors de la conférence d’Amazon sur les technologies de l’IA en juin 2022, une des vidéos diffusées montrait un enfant demandant à son enceinte connectée : « Alexa, est-ce que mamie peut finir de me lire Le Magicien d’Oz ? » L’appareil répondit « OK », puis il commença à lire le livre avec la voix de la grand-mère décédée.

Bien que l’idée d’interagir avec des imitations des proches décédés peut réchauffer le cœur de certains, nous devrions nous interroger de savoir si cela est bien sain. Avant de diffuser la vidéo, le vice-président d’Amazon et responsable scientifique d’Alexa déclara que ces développements « permettent des relations personnelles durables ». Mais quel que soit le nombre d’interactions ou de « conversations » que vous puissiez avoir avec un dispositif d’IA imitant un être humain, aussi « profondes » ou « émouvantes » soient-elles, vous n’êtes pas dans une relation réelle. Vous vivez dans un mensonge. Il est facile d’imaginer que de tels fantasmes causent plus de tort que de réconfort à long terme.

Des outils puissants pour le père du mensonge

La direction que tout cela pourrait rapidement prendre devrait être évidente pour ceux qui comprennent l’identité du « dieu de ce siècle » (2 Corinthiens 4 :4). Satan le diable exerce son emprise sur l’humanité et celle-ci est plus intéressée à prendre qu’à donner. Jésus-Christ qualifia Satan de père du mensonge (Jean 8 :44). Dans notre monde qui reflète le caractère du diable à tous les niveaux, la tromperie est depuis longtemps un des outils les plus populaires des hommes qui cherchent à voler, à détruire et à manipuler. L’IA apporte des capacités techniques qui renforcent l’outil de la tromperie.

À quel point le chaos peut-il être généré dans un monde où la réalité elle-même semble pouvoir être modifiée au service du mensonge ?

La calomnie fait partie depuis longtemps de la politique mondiale. Imaginez à présent la possibilité de créer de fausses « preuves » tout à fait crédibles pour étayer ces accusations. Imaginez qu’un opposant utilise la technologie du clonage de voix pour recréer la voix d’un homme politique surpris « accidentellement » en train d’insulter ses partisans ou d’admettre un crime. Dans les élections où quelques milliers de voix suffisent à faire basculer le résultat, ces vidéos n’ont pas besoin de convaincre tout le monde ; il suffit qu’elles en convainquent suffisamment pour faire la différence.

Des manipulations similaires pourraient avoir un impact sur la géopolitique. Imaginez de fausses « images » d’un diplomate haut placé discutant de sanctions économiques ou même d’une action militaire contre un autre pays. Quelles réactions pourraient être suscitées par ceux qui cherchent à manipuler les intentions nationales ?

L’enregistrement truqué d’un scientifique, admettant que des expériences médicales ont été falsifiées, pourrait détruire la confiance du public. Une vidéo truquée montrant un Premier ministre rompant secrètement des accords conclus avec d’autres législateurs pourrait semer juste ce qu’il faut de doute pour modifier un vote crucial.

Bien sûr, les personnes incriminées protesteront en s’écriant : « Deepfake ! Clonage de voix ! Faux et usage de faux généré par l’IA », comme ils devraient le faire à juste titre s’ils sont victimes de telles tactiques de propagande. Mais les véritables coupables commenceraient aussi à faire des déclarations similaires. Plus les cas de tromperie par l’IA se généraliseront, plus les délinquants qui auront été pris dans de véritables enregistrements vidéo ou audio commenceront à prétendre qu’ils sont, eux aussi, victimes de mensonges numériques et montages technologiques, même si ce n’est pas le cas.

Comment le public pourra-t-il faire la part des choses ?

La propension humaine à l’auto-illusion

Bien entendu, plus l’IA développe sa capacité à imiter la vie réelle, plus les outils, basés sur l’IA, pour distinguer le vrai du faux se développeront – des applications capables de repérer ces impostures. Alors que des professeurs dans le monde entier craignent que leurs élèves remettent des devoirs rédigés par des chatbots, OpenAI a commencé à développer un « classificateur d’IA » pour aider à déterminer si un texte est généré par un humain ou par une IA.

L’entreprise admet toutefois qu’au 31 janvier 2023, l’outil « n’est pas totalement fiable ». Selon le site Internet de l’entreprise, l’outil « identifie correctement 26% des textes écrits par l’IA (vrais positifs) comme étant “probablement écrits par l’IA” et il identifie incorrectement un texte écrit par un humain comme étant écrit par l’IA dans 9% des cas (faux positifs) ». Ce résultat n’est pas vraiment encourageant, mais il s’améliorera probablement grâce à un nombre croissant de retours d’expérience.

Cependant, la principale faiblesse dans la lutte contre la tromperie alimentée par l’IA réside surtout dans notre propre nature humaine, plus que dans la puissance de la technologie. Selon la Bible, la force la plus trompeuse dans notre vie n’est pas externe, mais interne. Il s’agit de notre propre cœur (Jérémie 17 :9). Dieu déclare qu’il est « tortueux par-dessus tout » et qu’il ne peut être examiné qu’avec Son aide (verset 10). Notre propre nature est capable de s’opposer à tous les efforts pour discerner la vérité du mensonge, nous poussant à accepter des tromperies confortables plutôt que des vérités inconfortables.

Si une vidéo est diffusée sur les réseaux sociaux, montrant un homme politique faisant exactement ce que ses opposants attendent de lui, à quel point seront-ils prêts à accepter sa véracité, sans avoir besoin d’autres preuves ? Si le clip audio d’un parlementaire ou d’un président est diffusé dans les médias et donne l’impression qu’il est coupable de ce que ses détracteurs l’accusent de faire, à quelle vitesse ceux qui ont voté contre lui croiront-ils à la véracité de cet « enregistrement » ?

Beaucoup d’entre nous vivent déjà dans une bulle médiatique numérique qu’ils ont créée. De nombreuses personnes sont devenues le plus grand facteur de leur propre tromperie. Dieu a prophétisé qu’il en serait ainsi dans les derniers jours de la civilisation.

Voici comment Dieu décrivit ceux qui vivent à la fin des temps : « C’est un peuple rebelle, ce sont des enfants menteurs, des enfants qui ne veulent point écouter la loi de l’Éternel » (Ésaïe 30 :9). Il poursuivit en déplorant qu’ils « disent aux voyants : Ne voyez pas ! Et aux prophètes : Ne nous prophétisez pas des vérités, dites-nous des choses flatteuses, prophétisez des chimères ! » (verset 10).

Bien entendu, personne ne déclare littéralement : « Mentez-moi ! » Mais c’est ce que désirera le cœur des gens dans les années qui précèderont le retour de Jésus-Christ. Ils seront de moins en moins enclins à entendre la réalité et de plus en plus intéressés à entendre des tromperies qui vont dans le sens de ce qu’ils croient être vrai. De telles personnes sont mûres pour être trompées ; elles le réclament littéralement.

Dieu dit encore à propos de notre génération : « Des choses horribles, abominables, se font dans le pays. Les prophètes prophétisent avec fausseté, les sacrificateurs dominent sous leur conduite, et mon peuple prend plaisir à cela… » (Jérémie 5 :30-31).

À la fin de ce verset, Dieu pose une question à chacun d’entre nous : « Que ferez-vous à la fin ? ». Oui, que ferez-vous ?

Ancrez-vous dans la vérité

Peu d’entre nous ont le temps et les ressources nécessaires de devenir des experts en intelligence artificielle. Qu’une vague de tromperie alimentée par l’IA soit en route ou non, notre monde se dirige vers une période de fausseté et de mensonge comme il n’en a jamais connu. La Bible nous avertit que les séducteurs sont nombreux et que d’autres viendront encore (1 Jean 2 :18 ; Matthieu 24 :24). L’apôtre Jean fut inspiré à écrire que le monde entier est sous l’emprise de la tromperie du diable (Apocalypse 12 :9).

Lorsqu’un tourbillon de tromperies est prophétisé, l’action la plus importante que nous puissions entreprendre est de nous enraciner dans ce qui est véritable et digne de confiance, en toutes circonstances – des vérités éternelles et invulnérables face aux illusions qui imitent la réalité.

Ces vérités se trouvent dans Jésus-Christ, le Fils de Dieu, et dans Son Père. La parole de Dieu est la vérité (Jean 17 :17). En plus d’être la vérité, les paroles du Christ sont aussi Esprit et vie (Jean 6 :63).

Si vous voulez protéger votre esprit de la vague de tromperie annoncée, qu’il s’agisse des mensonges traditionnels ou générés par l’IA, préparez votre cœur à se débarrasser de toutes les illusions et de tous les préjugés, qu’ils vous soient chers ou non, et recherchez la pensée de votre Créateur. C’est le premier pas le plus sage que vous puissiez faire, car « il est le rocher ; ses œuvres sont parfaites, car toutes ses voies sont justes ; c’est un Dieu fidèle et sans iniquité, il est juste et droit » (Deutéronome 32 :4).

Une discussion avec ChatGPT

Dans l'échange suivant, nous avons dialogué avec le chatbot ChatGPT, de la société OpenAI, pour l'interroger sur les risques que posent les applications de l'IA en tant qu'instrument de tromperie.

Le Monde de Demain (MDD) : Bonjour, comment dois-je vous appeler ?

ChatGPT : Vous pouvez m’appeler ChatGPT.

MDD : Merci ! Entrons dans le vif du sujet. Comment le gouvernement d’un pays pourrait-il utiliser les médias générés par l’IA contre un autre pays ?

ChatGPT : Le gouvernement d’un pays pourrait utiliser les médias générés par l’IA pour diffuser de fausses informations ou de la propagande afin de discréditer ou de manipuler un autre pays.

MDD : Pouvez-vous nous présenter un scénario réaliste ?

ChatGPT : Dans un scénario hypothétique, un pays pourrait utiliser des vidéos ou des sons générés par l’IA pour créer de fausses nouvelles convaincantes présentant un pays rival sous un jour négatif, puis les diffuser sur les réseaux sociaux afin de saper la crédibilité et la réputation internationale de ce pays.

MDD : Comment les citoyens d’un pays pourraient-ils être divisés en utilisant de tels moyens ?

ChatGPT : Les médias générés par l’IA peuvent exploiter les lignes de fracture et les divisions existantes au sein d’une société en ciblant des groupes spécifiques, avec une désinformation sur mesure qui renforcerait leurs croyances ou leurs préjugés, entraînant une polarisation et une fragmentation accrues au sein de la nation.

MDD : Pensez-vous que l’IA puisse être utilisée de cette manière ?

ChatGPT : Malheureusement, il est possible que les médias générés par l’IA soient utilisés de cette manière, car la technologie devient de plus en plus avancée et accessible aux gouvernements et aux autres acteurs qui cherchent à influencer l’opinion publique ou à faire avancer leurs intérêts stratégiques.

MDD : Certes, c’est possible. Mais dans quelle mesure ?

ChatGPT : Il est difficile de fournir un taux de probabilité, car cela dépend de divers facteurs, notamment le développement de la technologie de l’IA, la disponibilité des ressources, ainsi que les motivations et les actions des gouvernements ou d’autres acteurs. Compte tenu des conséquences potentielles de telles actions, il est important d’être conscient des risques et de s’efforcer de les atténuer.

MDD : Quelle forme spécifique de média généré par l’IA vous semble la plus dangereuse ?

ChatGPT : Toutes les formes de médias générés par l’IA peuvent être dangereuses si elles sont utilisées pour diffuser de la désinformation ou manipuler l’opinion publique, mais les « deepfakes » qui utilisent l’IA pour créer des images ou des vidéos réalistes, mais factices, peuvent être particulièrement nuisibles, car ils peuvent être difficiles à détecter et se propager rapidement sur les réseaux sociaux.

MDD : Effectivement, ils causent déjà beaucoup de tort.

ChatGPT : C’est exact. Les « deepfakes » ont déjà été utilisés pour diffuser des informations erronées et manipuler l’opinion publique dans divers contextes, notamment la politique, le divertissement et la publicité. Leur potentiel de nuisance est susceptible d’augmenter au fur et à mesure que la technologie progresse.

MDD : Pensez-vous que notre développement technologique est sur le point de dépasser notre capacité à utiliser la technologie de manière éthique ?

ChatGPT : Dans certains cas, le développement technologique a dépassé notre capacité à anticiper et à traiter les problèmes éthiques, en particulier lorsque de nouvelles technologies apparaissent et sont rapidement adoptées par la société. Toutefois, de nombreux efforts sont déployés pour promouvoir un développement et une utilisation responsables des technologies, notamment dans la recherche, la politique et l’éducation, ce qui peut contribuer à atténuer les problèmes éthiques potentiels.

MDD : Devrions-nous suspendre le développement de l’IA générative jusqu’à ce que nous soyons moralement prêts ?

ChatGPT : Une pause générale dans le développement de l’IA générative n’est pas nécessaire, mais il est important d’examiner les implications éthiques de ces technologies et de prendre des mesures pour s’assurer qu’elles sont développées et utilisées de manière responsable. Cela pourrait inclure la mise en œuvre de réglementations, la promotion de la transparence et de la responsabilité, ainsi que l’investissement dans l’éducation et la recherche pour développer la capacité à gérer ces technologies de manière éthique.

MDD : De nombreuses personnes tombent déjà dans le piège des fausses informations. N’est-il pas évident que l’IA va accélérer cette tendance ?

ChatGPT : La capacité de l’IA à créer des fausses informations plus convaincantes et plus ciblées risque effectivement d’exacerber la tendance des gens à tomber dans le piège des fausses informations. Toutefois, il est également possible qu’une sensibilisation accrue à ces questions, combinée à des efforts visant à promouvoir l’éducation aux médias et l’esprit critique, puisse contribuer à contrecarrer cette tendance et à réduire l’impact de la désinformation.

MDD : Qu’est-ce qui vous donne de l’espoir dans ce domaine ?

ChatGPT : Je suis encouragé par les nombreuses personnes, organisations et gouvernements qui s’efforcent de résoudre le problème de la désinformation générée par l’IA et de promouvoir le développement et l’utilisation responsables de l’IA. On constate également une prise de conscience croissante des risques potentiels et une volonté d’engager le dialogue et de prendre des mesures pour atténuer ces risques.

MDD : Pouvez-vous donner à nos lecteurs des conseils sur la manière d’éviter les tromperies basées sur l’IA ?

ChatGPT : Pour éviter de tomber dans le piège des tromperies générées par l’IA, il est important d’être sceptique face aux médias qui semblent trop beaux pour être vrais, et de vérifier la source et l’exactitude des informations avant de les partager ou d’agir en conséquence. En outre, l’acquisition de compétences médiatiques, telles que la capacité à vérifier les faits et à identifier les sources de préjugés, peut s’avérer utile pour naviguer dans un paysage médiatique de plus en plus complexe.

MDD : Merci pour votre temps, ChatGPT, ou devrais-je dire de vos « cycles d’horloge » !

ChatGPT : De rien ! Ce fut un plaisir d’être interviewé par vous.

 

1Designed to Deceive : Do These People Look Real to You ?”, The New York Times, 21 novembre 2020
2The Jessica Simulation : Love and loss in the age of A.I.”, San Francisco Chronicle, 23 juillet 2021