Avec la montée en puissance des intelligences artificielles, les questions autour de l’utilisation d’images générées par ces dernières s’invitent dans les salles de rédaction. Si elles offrent aux journalistes une nouvelle liberté créative, leur permettant de générer indéfiniment des images d’illustrations pour leurs articles, elles posent des questions éthiques et déontologiques. Les lecteurs sont habitués à des photos comme preuve tangible d’une réalité, or l’IA peut brouiller cette frontière. Dans sa recommandation adopté le 3 juillet 2023, le Conseil de Déontologie Journalistique et de Médiation (CDJM) explique proscrire au maximum cette pratique, l’IA devant surtout être “mise au service d’une information de qualité délivrée au public.” Dans ses recommandations, le CDJM met en avant des précautions d’emploi en hiérarchisant les possibles utilisations de l’IA générative d’image “en fonction du degré de risque qu’elles représentent au regard du respect de la déontologie.” Il est aujourd’hui indispensable de sensibiliser les acteurs de l’information ainsi que le public à l’utilisation de l’IA. Une mission que poursuit le journaliste Gérald Holubowicz qui aborde la manipulation d’images numériques par l’IA et les deepfakes dans un podcast sur RFI pour L’atelier des médias. Des initiatives de sensibilisation ont également été mises en place par l’État, à travers le Centre pour l’Éducation aux Médias et à l’Information (CEMI). Grâce à des ressources pédagogiques pour les enseignants, il donne les clés pour transmettre aux futures générations un regard critique et objectif sur l’utilisation des IA.
Légende : Robot utilisant un ordinateur pour travailler sur une illustration. Image générée par Chat GPT.