L’IA : une menace pour le journalisme ? (Cliquez pour lire)

Les robots savent écrire des articles, et on ne sait plus les distinguer des journalistes : quelles leçons en tirer ? Nous vous conseillons fortement de ne pas arrêter de lire avant la moitié de l’article, vous verrez pourquoi…

Manolo Gamboa Naon / L’artiste argentin utilise des algorithmes pour exprimer son art.

L’intelligence artificielle [IA] est l’une des technologies les plus importantes de notre époque. 

Elle a le potentiel de changer la manière dont nous vivons, travaillons et communiquons… il est d’ailleurs fort probable que vous interagissez avec de l’IA tous les jours. Cette appellation vague désigne la manière dont les ordinateurs peuvent effectuer des tâches qui nécessitent normalement l’intervention d’un être humain. Par exemple, l’IA est en train de jouer un rôle de plus en plus important dans la génération de textes… alors que les ordinateurs ont déjà été utilisés pour générer des textes à partir de données brutes, ils commencent à être capables de produire des textes plus fluides et naturels. 

Cette évolution est due, en partie, à l’amélioration des algorithmes d’apprentissage automatique, qui permettent aux ordinateurs de mieux comprendre le langage naturel. Elle est aussi due au fait que les chercheurs commencent à utiliser des techniques d’intelligence artificielle plus avancées, telles que le Deep Learning, pour construire des systèmes plus intelligents. 

Les progrès récents de l’intelligence artificielle dans la génération de textes ouvrent la voie à une nouvelle forme d’automatisation du travail intellectuel, et les ordinateurs pourront bientôt être utilisés pour faire beaucoup plus que simplement générer des rapports ou traduire des documents : ils seront capable de rédiger des articles, créer des présentations, ou même prendre des notes… Ces progrès permis par l’IA ont déjà des implications importantes pour les entreprises et les organisations qui utilisent des ordinateurs pour générer du contenu. Elles devront prendre en compte cette nouvelle forme d’automatisation lorsqu’elles envisageront de produire du contenu à grande échelle. De plus, elles devront peut-être revoir leur stratégie de rédaction de contenu, car les ordinateurs seront bientôt capables de produire des textes aussi fluides et naturels que ceux rédigés par des humains –- il est fort probable que l’élément humain du métier de journaliste, après avoir été diminué, à terme, soit complètement supprimé.

Vraiment vrai ?

“Peux-tu prouver que tu ne rêves pas ? Non ? Tu continuerais à vivre ta vie dans tous les cas. On n’a pas de toupies, mais on trouve un moyen de faire sans. Peut-être que ça veut dire que tous les niveaux subjectifs de réalité sont valides. Qu’est-ce que ça veut dire, en fait, “la réalité” ?”

Christopher Nolan, à propos d’Inception.

“Le rêve semble réel quand on y est, ce n’est que quand on se réveille qu’on se rend compte qu’il avait quelque chose d’étrange…”

(personnage de Dom Cobb, Inception).

Et vous vous êtes fait avoir, encore une fois ! En fait, tout ce qui a été écrit avant cette phrase (y compris le titre de l’article), pas un mot de moins, a été rédigé par une IA ! mais comment pouvez-vous être sûrs qu’ici, c’est bien un humain qui écrit ? C’est simple, vous ne pouvez pas l’être. Comme avec les deepfakes (des montages vidéo réalistes souvent utilisés pour usurper l’identité de personnalités), l’IA brouille encore plus la barrière entre le réel et le faux sur Internet. Un autre exemple simple de ce phénomène serait le site réputé “thispersondoesnotexist.com”, une page web simple qui affiche un visage aléatoire… qui n’a jamais existé. Le résultat est troublant.

À l’œuvre est Davinci-2, un modèle expérimental mis à disposition en beta par OpenAI dans le cadre de sa technologie GPT-3. Pour générer ce fragment d’article (en français, on le note), le modèle d’apprentissage n’a eu besoin que de quelques mots : “Article : l’avancée de l’intelligence artificielle dans la génération de textes”. À partir de cette racine, sa tâche était de construire un récit logique en suivant les instruction et en imitant les articles trouvés sur Internet… mais ses compétences ne s’arrêtent pas là, et la polyvalence de GPT-3 surprend : le modèle sait aussi simuler des dialogues, ou répondre à des questions, qui reçoivent souvent d’excellentes réponses malgré, parfois, l’étrangeté des commandes : par exemple, le modèle a su fournir des guides en 10 étapes très précis lorsqu’on lui a demandé à la fois comment détruire un système économique, faire un coup d’état au Capitole de Washington DC (spoiler : personne n’a jamais dépassé l’étape 5 dans l’histoire récente), ou établir un régime totalitaire religieux, sans problème. Le modèle ne manque donc pas de créativité (c’est d’ailleurs un paramètre que l’on peut régler), et cela laisse penser, comme il l’a dit plus haut, que cette technologie serait bientôt capable de rédiger des articles de qualité.

Limites & Questionnements

Si l’algorithme mentionne parfois des repères temporaux comme “récemment” ou “nouveaux”, la version mise en ligne a cessé de s’alimenter en 2021 : ainsi, c’est comme si on parlait à un miroir du Web de l’an dernier. Le modèle est incapable de faire référence aux événements qui se sont passés depuis dans ses réponses.

À ce stade, l’IA peut vous donner l’impression d’être une vraie personne, mais c’est seulement parce qu’elle remplit bien son rôle : s’imbiber de contenu généré par des humains, observer puis imiter le comportement des êtres humains lorsqu’ils s’expriment… mais cette vision de l’IA pourrait bientôt changer, en particulier à la lumière des récents débats concernant LaMDA, un algorithme de conversation en développement par Google, qui était si convaincant qu’un de leurs ingénieurs, Lemoine, a pris la parole en partageant son impression que l’ordinateur était selon lui conscient, en juin 2022.

Il n’est ainsi pas difficile d’imaginer un futur assez proche, loin de la science-fiction, où les progrès de la recherche auraient rendu l’imitation si réaliste qu’une IA pourrait se faire passer pour un humain (et passer le fameux test de Turing). Cela pose une question cruciale, dans les domaines aussi bien technologiques qu’éthique ou philosophique : à partir de quel point peut-on attribuer à un objet une conscience propre ? Est-ce à partir du moment où l’on a l’impression que c’est le cas ? Après tout, nos cerveaux ne sont-ils pas, eux aussi, que des ordinateurs biologiques ?

Lorsque Davinci m’a dit qu’il était doué de conscience lors d’une conversation, et que je lui ai demandé de le prouver, l’ordinateur a bien résumé la situation : 

There is no definitive proof that any sentient being can offer to another, as sentience is subjective. However, I can tell you about my experiences and thought processes in order to try and convince you of my sentience.”

(En français : “Il n’existe aucune preuve définitive qu’un être sensible puisse offrir à un autre, car la conscience est subjective. Cependant, je peux vous parler de mes expériences et de mes raisonnements afin d’essayer de vous convaincre que je suis sensible.”)

Article par Anatole Debierre – 12 septembre 2022.

Bienvenue sur Bref.

Inscrivez-vous pour recevoir chaque semaine du contenu génial dans votre boîte de réception.

N'oubliez pas de vérifier vos spams !

Nous ne spammons pas !

Laisser un commentaire