L’arrivée des outils d’intelligence artificielle (IA) dans les rédactions a pris de court la profession. Face à un boom technologique faisant apparaître des IA toujours plus performantes, le monde journalistique tente de se mettre d’accord sur les normes à appliquer. Mais au-delà des questionnements déontologiques, quel est le rôle de l’économie des médias dans cette régulation ?
A l’occasion de la 17ème édition des Assises du Journalisme de Tours, Estelle Cognacq, Directrice adjointe de France Info compare l’arrivée des intelligences artificielles (IA) dans le journalisme à une révolution industrielle. Pendant la conférence dédiée aux enjeux de l’IA dans les médias, elle avance : « Il y a une partie du journalisme qui n’est pas très intéressante, s’il peut être automatisé avec un peu d’IA c’est une bonne chose. Si c’est pour faire plus de journalisme de reportage, d’enquête, c’est très bien. » L’idéal d’une l’IA mise au service du journalisme a ses défenseurs, accréditée par quelques faits d’armes. Pierre Romera Zhang, chef de la technologie du Consortium International des Journalistes d’Investigation, (ICIJ), rappelle que « les IA ont permis la parution d’articles ayant fait date », à l’image de l’affaire des Panama Papers. En 2016, grâce aux capacités de traitement de l’intelligence artificielle, ce sont plus de 11 millions de documents qui ont été analysés dans cette enquête.
Mais l’étiquette “IA” recouvre divers types de technologies et des usages très variés, qu’il faut savoir distinguer. Celle qui a été utilisée dans l’affaire des Panama Papers fait partie des outils de “vision par ordinateur”, permettant d’identifier des informations significatives à partir de documents numériques. Il existe également l’apprentissage automatique ( dit Machine Learning), qui vise à donner aux machines la capacité d’« apprendre » à partir de données d’entrainement, via des modèles mathématiques. Mais le type de technologie qui est au cœur des débats est l’IA dite générative, permettant à son utilisateur d’automatiser la rédaction de textes ou la réalisation d’images, et plus récemment de vidéos, à partir des éléments stockés dans une banque de données. Chat GPT, programme emblématique de l’IA générative, fait d’ailleurs l’actualité du journalisme depuis l’annonce, le 13 mars, d’un partenariat entre Le Monde et OpenIA pour intégrer les contenus du journal dans la banque de données de Chat GPT.
Un tournant dans la relation entre les intelligences artificielles et les médias :
Productivité et dépendance aux plateformes
Une chose est sûre, l’IA permet des gains de productivité importants, qui peuvent séduire les rédactions. Mais les conséquences pour les conditions de travail des journalistes sont en revanche incertaines, entre temps libéré pour d’autres tâches, course à la publication et réduction des effectifs. D’autant que l’IA générative arrive dans un contexte où les rédactions se sont pour la plupart rendues dépendantes des grandes plateformes de la tech. Estelle Cognacq, directrice adjointe de l’antenne France Info appelle donc à la vigilance : « Nous avons laissé faire Google pendant 25 ans, ne laissons pas faire les intelligences artificielles aujourd’hui. ». Les médias dépendent en effet des outils de diffusion de l’information, des logiques de référencement sur Google à la chasse à l’engagement sur les réseaux, adossée à des logiques de marché de l’information.
Une régulation commune de l’IA est-elle la solution ?
L’utilisation de l’IA dans les médias fait aujourd’hui l’objet d’initiatives de régulation dispersées, chaque média proposant sa propre charte. Pendant la conférence, le vice-président du Conseil de déontologie journalistique et de médiation (CDJM), Yann Guégan, pose ouvertement la question de la supervision de ces initiatives : « Maintenant, qui vérifie que les médias respectent leurs engagements ? »
Dans ce temps d’échange consacré au journalisme et à l’IA, le vice-président du CDJM a tenu à rappeler que des textes de régulation collectifs avaient déjà été proposés. Il expose ensuite celle du CDJM, basée sur une échelle de risque à trois niveaux, dont il regrette qu’elle n’ait pas été largement adoptée par les rédactions.
L’Union européenne tente, elle aussi, de prendre des mesures. Le 8 décembre 2023 la Commission européenne s’est accordée sur un texte appelé Loi sur l’IA. Fondée elle aussi sur une échelle de risques, elle a l’ambition de jouer un rôle important dans le cadrage juridique en matière d’intelligence artificielle sur le territoire européen, au-delà du seul secteur des médias. Mais la profession ne s’en est pas saisie, signe de son incapacité à se fédérer sur une question sur laquelle elle joue une partie de son avenir.
Dylan Prieur