Actualités, enquêtes à Lyon et dans la région

Intelligence artificielle et journalisme : « Il faut être transparent »

Le journaliste Grégory Rozières a élaboré une charte d’utilisation des intelligences artificielles génératives dans le journalisme. Il estime que l’utilisation de ChatGPT peut être une bonne chose, à condition d’établir des garde-fous clairs.

Cet article est en accès libre. Pour soutenir Rue89Lyon, abonnez-vous.

Certaines rédactions envisagent d'utiliser l'intelligence artificielle pour certaines tâches en journalisme, ce qui inquiète. ©MA/Rue89Lyon
Certaines rédactions envisagent d’utiliser l’intelligence artificielle dans leurs rédactions.

Accompagner le mouvement de l’intelligence artificielle pour mieux l’encadrer. C’est ce qui a poussé Grégory Rozières, co-fondateur de la revue Kometa et journaliste en charge de l’innovation éditoriale pour le quotidien suisse le Temps, à établir une charte d’utilisation des IA dans le journalisme. A l’époque, il travaillait pour le média en ligne suisse Heidi.news, dont l’ensemble de la rédaction a contribué à l’élaboration de la charte.

La charte stipule notamment que « La rédaction peut recourir aux IA pour faciliter ou améliorer son travail, mais l’intelligence humaine reste au cœur de toute notre production éditoriale. Aucun contenu ne sera publié sans supervision humaine préalable ». Nous l’avons interrogé sur l’initiative du groupe Ebra, no1 de la presse régionale en France de tester ChatGPT à l’Est Républicain, et les risques que cela engendre.

Utiliser ChatGPT dans un média à grand tirage : une ligne rouge a-t-elle été franchie par Ebra?

Pour moi, il n’y a pas de ligne rouge, il n’y a que des lignes jaunes. La question va être de savoir comment cette expérimentation sera mise en place. Si l’idée est juste de faire le résumé d’un article de correspondant local de presse, avec un journaliste qui compare les deux versions, ça ne me choque pas. Le problème, c’est que ça fait deux ans que les revenus de la presse baissent. Si l’IA est une solution pour réduire les coûts, un moyen de cacher un problème plus global, alors on ne va pas embaucher les bonnes personnes, pas les encadrer de la bonne manière. Le risque, c’est de laisser passer des erreurs parce que le niveau de vérification n’est pas la. Dans ce cas, qui sera responsable?

« L’intelligence artificielle doit rester un outil, pas une source d’information »

Dans un contexte de défiance vis-à-vis des journalistes, est-ce pertinent d’utiliser des IA ?

Lorsque je travaillais chez Heidi.news, on s’est dit que rejeter l’intelligence artificielle, qui était en train d’arriver, et rester arcbouté sur ses positions ne servait à rien. En revanche, il ne faut pas l’utiliser en sous main, ce serait la pire des choses, mais être le plus transparent et le plus clair possible. Par exemple dans le cas d’Ebra, est-ce qu’il y aura une mention « texte généré par une IA et relu par un journaliste » ? Si c’est bien fait et surtout si c’est explicité au lecteur, je ne vois pas le problème en tant que tel. Mais il faut que l’IA reste un outil, et pas une source d’information.

Il y a aussi une importante question sociale…

La question déontologique et la question des emplois sont deux choses différentes. L’enjeu social va se poser dans tous les secteurs. Dans le milieu du journalisme, est-ce que cette réduction des coûts pour des tâches qui ont moins de sens va s’accompagner de nouvelles formes de productions journalistiques, sur la vidéo, l’enquête ? La dessus, il n’y a pas de réponse parfaite. C’est une question idéologique. Ce sera une bataille sociale.

« Il risque d’y avoir des batailles de droit sur les contenus »

ChatGPT est-il suffisamment fiable?

De plus en plus de gens l’utilisent pour s’informer. Mais ChatGPT n’est PAS une source d’information, et peut faire des erreurs. Si l’IA expérimentée chez Ebra fonctionne sur un modèle fermé, avec uniquement des sources internes, c’est une bonne chose, mais j’ai peur qu’elle ne soit pas très performante. Pour l’instant, ChatGPT est un grand modèle de langage : il génère du texte par rapport aux mots qui précèdent et à son apprentissage. Il raconte donc souvent des choses vraies, mais peut aussi dire quelque chose de faux. L’intelligence artificielle générative n’est pas encore un pourvoyeur de vérité.

Plus généralement, quels sont les risques posés par l’utilisation des intelligences artificielles dans le journalisme?

Ces machines apprennent d’elles-même, mais elles se nourrissent de contenus produits par des humains. Si on accumule les productions par les IA génératives, est-ce qu’on ne risque pas de tomber dans une boucle vicieuse où l’IA se nourrit d’elle-même et s’enferme dans une stagnation ? Est-ce que l’on va perdre notre créativité ? Cela ne veut pas dire qu’il ne faut pas y aller, mais c’est un risque qu’il faut avoir en tête. Et puis il y a les risques de plagiat. Il va y avoir des batailles de droit sur les contenus si l’IA pioche dans d’autres archives que celles des journaux où elle est utilisée.


#numérique

Activez les notifications pour être alerté des nouveaux articles publiés en lien avec ce sujet.

Voir tous les articles

Autres mots-clés :

Plus d'options