Intelligence artificielle et journalisme : quelles utilisations concrètes en 2024 ?

Intelligence artificielle et journalisme : quelles utilisations concrètes en 2024 ?

L’intelligence artificielle a fait une entrée fracassante dans nos usages ces derniers mois. Après la fascination des premiers échanges avec ChatGPT, de nombreuses questions émergent quant à son utilisation pertinente dans un cadre professionnel. Et si les journalistes montraient l’exemple ? Certains médias s’emparent du sujet, à la fois pour explorer les opportunités offertes par l’IA, mais aussi pour se prémunir contre l’exploitation non consentie de leurs contenus. Tour d’horizon.
 

Les médias ferment l’accès à leurs contenus… pour se protéger

À l’image du New York Times, plusieurs groupes médiatiques français et internationaux – dont TF1 et Radio France – ont récemment choisi de restreindre l’accès à leurs productions aux intelligences artificielles. En clair : leurs articles ne peuvent plus être utilisés pour l’entraînement des modèles de langage. Ce geste, hautement symbolique, reflète une préoccupation croissante autour des droits d’auteur, de la protection des données et de l’utilisation non encadrée des contenus par les IA. Une problématique à laquelle l’Europe tente encore de répondre sur le plan législatif.
 

Entre méfiance et expérimentation

Si cette prudence est compréhensible, elle n’empêche pas certains médias d’explorer les usages possibles de l’IA générative, notamment les modèles de type ChatGPT. Voici quelques pistes concrètes, déjà adoptées ou testées par des rédactions à travers le monde – mais aussi accessibles à toute personne amenée à produire du contenu.
 

Des cas d’usage concrets de l’IA au service des rédacteurs

  • Structurer un article : l’IA peut aider à poser une trame initiale avant rédaction, utile pour clarifier ses idées.
  • Transcrire des interviews ou interventions : la retranscription automatisée permet un gain de temps précieux, notamment pour extraire les citations pertinentes.
  • Identifier les écueils potentiels d’un sujet : en anticipant les objections, les angles morts ou les pièges d’un sujet donné.
  • Explorer différents styles d’écriture : en demandant à l’IA de rédiger dans un ton spécifique (institutionnel, humoristique, littéraire…), ou en lui fournissant des exemples de votre propre plume pour affiner son imitation.

 
Des initiatives comme celles du Center for Cooperative Media proposent des guides pratiques sur ces usages.
 

Et la déontologie dans tout ça ?

Le Conseil de déontologie journalistique et de médiation (CDJM) a publié récemment des recommandations encadrant l’usage de l’IA dans le journalisme. Elles distinguent les pratiques à faible risque éthique de celles plus sensibles.
 

Les usages considérés comme peu risqués

Ces tâches peuvent être confiées à une IA, sous réserve de validation humaine :

  • Corrections orthographiques et grammaticales
  • Traductions à usage interne
  • Transcriptions audios
  • Rédaction de brouillons pour les réseaux sociaux
  • Propositions de titres SEO-friendly
  • Veille et analyse des tendances sur les réseaux sociaux
  • Aide à la synthèse d’informations complexes
  • Vérification factuelle assistée

 
Même dans ces cas, une relecture attentive reste indispensable.
 

Des pratiques plus sensibles… à encadrer

Certains usages impliquent une délégation plus poussée à l’IA et exigent une transparence totale vis-à-vis du public :

  • Traduction automatisée d’un article étranger pour publication
  • Lecture vocale automatisée de contenus
  • Mise à jour automatique d’un contenu avec de nouvelles données
  • Résumés automatisés d’articles ou de vidéos
  • Simplification de texte pour un public plus large
  • Comptes rendus techniques (résultats sportifs, par exemple)
  •  
    Ici, l’IA ne se contente plus d’assister le journaliste, elle co-produit du contenu. D’où la nécessité d’une vigilance renforcée.
     

    Mentionner l’usage d’une IA : oui, mais pas à moitié

    Une simple note en bas de page ne suffit pas. La transparence doit être explicite, notamment pour les contenus visuels : si une image a été générée par IA, cela doit apparaître directement dessus. Le CDJM est clair : aucun contenu produit entièrement par intelligence artificielle ne doit être publié sans validation humaine. La responsabilité éditoriale reste pleine et entière, comme pour tout contenu rédigé par une personne.
     

    Se former : un impératif éthique

    La recommandation centrale du CDJM rejoint celle du CFPJ : les journalistes ne peuvent faire l’économie d’une formation aux outils d’intelligence artificielle. Connaître les limites, comprendre les biais, maîtriser les usages : autant de compétences essentielles pour naviguer dans ce nouvel écosystème sans compromettre les principes du journalisme.