La qualité des sources d’information du journaliste aux
prises avec les deepfakes

Jean-Marie Dikanga Kazadi
 Université de Lubumbashi, République Démocratique du Congo
dikazad@yahoo.fr

La sécurité des sources d’information dans la profession journalistique constitue un dispositif incontournable dans la charte de Munich de 1971. Les devoirs 1 et 3 sont illustratifs à ce propos. Devoir 1: respecter la vérité, quelles qu’ en puissent être les conséquences pour lui-même, et ce, en raison du droit que le public a de connaitre la vérité. Devoir 3: publier seulement les informations dont l’origine est connue ou les accompagner, si c’est nécessaire, des réserves qui s’imposent; ne pas supprimer les informations essentielles et ne pas altérer les textes et les documents Charte de Munich, 1971). En effet, c’est à travers la qualité des sources que le produit est traité pour être servi, sous forme d’information, aux consommateurs des médias (lecteurs, auditeurs, téléspectateurs). Pour le journaliste donc, la qualité de la source est fondamentale et le fait de ne pas la révéler, ni la trahir constitue un principe inviolable; quel que soient les circonstances de temps et de lieu. Ceci relève de la valeur démocratique de la liberté d’expression et du droit pour tous d’ être informé. Mais, depuis 2017, année du déploiement des infrastructures de l’intelligence artificielle avec l’ apprentissage profond (Emilie Rannou, 2020), il s’observe une autre forme de source d’information. Il s’agit en fait des contenus qui sont générés par des algorithmes du deep learning qui sont diffusés sur les réseaux sociaux ou relayés par ceux-ci. Pourtant les deepfakes se présentent généralement comme des faux qui reproduisent de fausses nouvelles avec la ferme intention de les accréditer (en textes, en images, en audio ou en vidéo). Les deepfakes posent, dès lors, un vrai problème de vérification de source pour ne pas abuser de la naïveté des consommateurs, naïveté due notamment au caractère fascinant des systèmes de l’IA. Le journaliste, dans l’exercice de sa profession notamment comme un des indicateurs du degré de démocratie atteint, se trouve devant une véritable difficulté. Premièrement, faut-il crédibiliser les contenus générés par les algorithmes d’apprentissage profond en les brandissant comme des sources d’information de première main? Deuxièmement, comment faire confiance à une source qui s’avère difficile à être soumise à la vérification? Ce questionnement va guider cette réflexion dans son évolution. Mais, constatons qu’à l’évidence les deepfakes ont réussi à parasiter le cœur du fonctionnement de la profession journalistique. Rendant ainsi complexe la notion de liberté individuelle et de l’équité sociale dans la distribution de l’information vérifiée à laquelle tout le monde a droit, en vue d’une cohabitation harmonieuse dans une société démocratique. Les deepfakes fragilisent ainsi l’activité des médias par rapport à leurs sources. Dans ce paysage mondial dominé petit à petit par les systèmes d’intelligence artificielle en évolution très rapide, les journalistes courent le risque de voir leurs activités suivies à la loupe par les acteurs étatiques par exemple, avec comme conséquences prévisibles: l’atinte à la profession, le harcèlement politique, la confiscation ou la destruction du matériel, et même des menaces physiques sur des personnes. En outre, tous les journalistes ne sont pas informés sur la manière d’intégrer des dispositions sécuritaires numériques à l’instar du cryptage dans le travail quotidien de collecte, de traitement et de diffusion de l’information. Ceci s’avère être un défi considérable pour le journaliste et plusieurs chercheurs y ont réservé une part importante de leurs travaux, notamment Henrichsen, Betz et Lisosky (2015), Posetti (2017), Kleberg (2015). Ce »s différents auteurs ont mis en évidence, entre autres choses, la résistance des journalistes dans l’utilisation des outils que l’IA disponibilisent à leur intention car, comme le souligne si bien Rodolphe Gelin (2022), pour mieux lutter contre les méfaits de l’IA, il faut faire recourt à l’IA. La sécurité des sources du journaliste face aux deepfakes se présente alors comme un enjeu aux multiples facettes. D’abord, un enjeu théorique, notamment face au modèle canonique de la communication depuis la théorie de Claude Shannon; ensuite, un enjeu professionnel avec cette qustion existentielle: les contenus générés (deepfakes) vont-ils faire la guerre au journaliste ou vont-ils s’inscrire dans une coexistence pacifique avec lui: enfin, un enjeu éthique et déontologique, notamment par rapport à la crédibilité de la source « deepfake » qui, comme son nom l’indique, ne répond à aucun critère d’une source fiable. Dans cette réflexion, nous nous proposons de questionner la relation que le journaliste entretient désormais avec les deepfakes, étant donné les enjeux théoriques et professionnels particulièrement. L’enjeu théorique permettra de revisiter le concept « information » en vue de lui donner un contenu qui soit configuré aux réalités qu’impose aujourd’hui le deep learning dans le déploiement de l’IA. Surtout quand l’on considère, à tout le moins sur le continent africain, que dans l’imaginaire collectif, tout ce qui circule sur les réseaux sociaux jouit d’une crédibilité sociale avérée. et, la consommation des deepfakes se fait sans aucune critique. Nous nous proposons d’approcher cette préoccupation dans une perspective d’analyse qualitative à travers des entretiens « profonds » et « au corps à corps » pour prendre la juste mesure de la relation source-deepfake. Un échantillon de 25 personnes (professeurs et chercheurs des systèmes IA, des professionnels des médias et des consommateurs des deepfakes et des médias). L’objectif de cette réflexion est de parvenir à démontrer comment la pratique journalistique peut arriver à contenir la circulation des deepfakes en tant que source d’information difficilement vérifiable. Et, comment la meilleure arme contre les deepfakes demeure encore une fois l’IA.

Plan de la communication

  • Introduction

  1. Deepfakes et production journalistique
  2. Deepfakes: légitimation par l’usage populaire?
  3. Deepfakes, liberté d’expression et équité sociale
  4. Vaincre les deepfakes par l’IA

  • Conclusion

Bibliographie indicative

  1. KIYINDOU, A. (dir), Intelligence Artificielle. Enjeux et défis pour l’Afrique, Bordeaux, les
    editions+, 2022
  2. GELIN, R., Dernières nouvelles de l’intelligence artificielle, Paris, Flammarion, 2022
  3. CAFERRA, R., Logique pour l’informatique et pour l’intelligence artificielle, Paris,
    Lavoisier, 2022
  4. DIKANGA, K., Legal and Ethical aspects of Artificial Intelligence and Africa, Cambridge
    International Press, 2021
  5. BABOUARD, R., Le désenchantement de l’internet, Ed. FYP, 2017
  6. ALEXIS, L. et alii (dir), Le manuel de journalisme, Parie, ellipses, 2022
  7. NTONDA, P. et PATA, D. (dir), Pensée africaine des Sic: paradigmes, discipline et
    perspective, St Ouen, Ed. du Net, 2022
  8. GROTHAUS, M., Trust No One: Inside the World of Deepfakes, Hodder and Stoughton,
    2021
  9. HENRICHSEN, J.R., BETZ, M. & LISOSKY, J.M., Building digital safety for journalism:
    A survey of selected issues, Paris, UNESCO, 2015
  10. KLEBERG, C.F., The death of source protection? Protecting journalist’source in a post-
    Snowden age, London, LSE Polis, 2015

Retour en haut