Cette analyse porte sur le Rapport d’Évaluation de la Préparation de la République Démocratique du Congo à l’Intelligence Artificielle, élaboré selon la méthodologie RAM (Readiness Assessment Methodology) et publié en 2025 par l’Organisation des Nations Unies pour l’Éducation, la Science et la Culture (UNESCO). Il s’agit d’un diagnostic national structuré évaluant l’état de préparation de la RDC face aux enjeux juridiques, institutionnels, sociaux et éducatifs liés à l’IA. Le document s’inscrit dans le cadre de la mise en œuvre de la Recommandation de l’UNESCO sur l’éthique de l’IA adoptée en 2021. Le rapport propose une analyse détaillée des cadres existants et des lacunes structurelles.Il s’agira ici d’examiner les principaux résultats du rapport et d’en évaluer les implications pour le champ journalistique et médiatique
Absence de stratégie nationale en matière d’IA
Le rapport constate que la RDC ne dispose ni d’une stratégie nationale sur l’intelligence artificielle ni de régulation spécifique encadrant son usage. L’IA n’est pas constituée en objet autonome de politique publique. La gouvernance relève des structures existantes : le Ministère des Postes, Télécommunications et Numérique (PTN) et le Ministère de la Recherche Scientifique et Innovation Technologique (RSIT). Aucune autorité dédiée exclusivement à l’IA n’est instituée. Il faut aussi noter que le Code du numérique n’instaure pas de régime spécifique pour l’IA. Il l’inscrit dans le champ général du numérique avancé. Les usages à risque, notamment les traitements automatisés susceptibles d’affecter les droits et libertés, relèvent du contrôle de l’Autorité de protection des données. L’encadrement demeure indirect. Pour le journalisme, cela signifie que l’adoption d’outils d’IA dans la production et la diffusion de l’information se fait sans doctrine publique explicite. Les responsabilités liées aux contenus générés ou assistés par des systèmes automatisés ne sont pas définies par un cadre dédié. La régulation se déplace alors vers les rédactions. En l’absence de stratégie nationale, la stabilisation des pratiques repose principalement sur des mécanismes internes d’autorégulation.
Désinformation : cadre existant, angle mort sur l’IA
Le rapport indique que la RDC dispose d’un mécanisme de notification et de retrait des contenus illicites, incluant la désinformation et les discours de haine. En revanche, il souligne l’absence de politique spécifique relative à l’impact de l’IA sur les réseaux sociaux, notamment en matière de transparence et de désinformation. La régulation traite donc la désinformation comme un contenu à supprimer, non comme un phénomène structuré par des systèmes algorithmiques ou génératifs. Les effets propres aux technologies d’IA (automatisation, amplification, génération synthétique) ne font pas l’objet d’un encadrement autonome. Le rapport recommande toutefois la création d’une unité spécialisée du Parquet et d’une police dédiée à la fraude liée à l’IA, à la désinformation et aux abus des technologies génératives (recommandation R1.3.3). Cette proposition reconnaît l’émergence d’un risque spécifique, sans que le cadre normatif soit encore adapté. En complément, il faut aussi noter que le Code du numérique ne contient pas de définition autonome de la « désinformation » ni de chapitre spécifiquement intitulé ainsi. En revanche, plusieurs dispositions encadrent des comportements numériques pouvant relever de la désinformation ou de la manipulation en ligne. D’abord, l’article 349 sanctionne l’utilisation des éléments d’identification d’une personne physique ou morale dans le but de tromper les destinataires d’un message électronique ou les usagers d’un site internet, notamment pour les amener à communiquer des données personnelles. Ensuite, l’article 351 réprime l’usurpation d’identité par hameçonnage (phishing) ou tout autre moyen via un système informatique, lorsqu’elle vise à troubler la tranquillité, porter atteinte à l’honneur ou aux intérêts d’autrui.
Par ailleurs, les fournisseurs de services en ligne ne sont pas responsables des contenus transmis ou stockés s’ils n’en ont pas connaissance effective, mais doivent agir promptement pour retirer un contenu illicite dès qu’ils en ont connaissance. Enfin, selon l’esprit du code du numérique, l’Agence Nationale de Cybersécurité assure la régulation en matière de cybersécurité et collabore à la lutte contre la cybercriminalité, ce qui inclut les infractions commises par voie numérique. le Code ne traite pas la désinformation comme une catégorie juridique autonome, mais réprime les pratiques de tromperie, d’usurpation d’identité et certains contenus illicites diffusés en ligne, dans le cadre plus large de la cybercriminalité et de la responsabilité des services numériques.
Données ouvertes : faiblesse structurelle
Le rapport attribue à la RDC un score de 33/100 à l’Open Data Inventory, ce qui traduit un faible niveau d’ouverture et de disponibilité des données publiques. Cet indicateur figure dans la section consacrée aux mesures de gouvernance numérique et à l’environnement des données.Un score de ce niveau signifie concrètement que les jeux de données publics sont soit peu accessibles, soit insuffisamment structurés, soit incomplets. Pour le journalisme, cette situation limite le développement d’un véritable journalisme de données, fondé sur l’exploitation, la comparaison et l’analyse quantitative des informations publiques.Dans un contexte où les technologies d’IA permettent l’analyse automatisée de grands volumes de données, l’absence de données ouvertes structurées constitue un frein structurel. Les outils de vérification automatisée, les croisements de bases de données ou les analyses prédictives ne peuvent fonctionner efficacement sans données fiables et accessibles.Le rapport, en mentionnant explicitement ce score de 33/100, met en évidence une contrainte systémique pour l’écosystème médiatique congolais. Pour les rédactions, l’enjeu n’est pas seulement technique : il concerne la capacité à produire une information fondée sur des preuves, dans un environnement informationnel de plus en plus numérisé.
Cybersécurité : capacités limitées
Le rapport indique que la RDC obtient un score de 56.61/100 en cybersécurité, classée Tier 3, selon les indicateurs mobilisés dans l’axe gouvernance et infrastructuresCe niveau intermédiaire traduit un cadre existant mais encore insuffisamment consolidé. Le document note également des capacités techniques et humaines limitées, ce qui renvoie à des ressources institutionnelles et opérationnelles contraintes. Pour les médias, ces éléments ont une portée directe. Un environnement numérique classé Tier 3 signifie que les mécanismes de prévention, de détection et de réponse aux incidents cyber ne sont pas pleinement matures. Les rédactions évoluent ainsi dans un espace informationnel vulnérable aux intrusions, aux altérations de contenus et aux campagnes coordonnées de manipulation.
Dans un contexte d’intégration progressive d’outils numériques et d’IA, cette fragilité structurelle accroît les risques liés à la sécurité des données, à la protection des communications et à l’intégrité des contenus publiés. Le rapport documente ces limites dans la section consacrée aux indicateurs de cybersécurité et aux capacités nationales.
Pour le journalisme congolais, la cybersécurité ne relève donc pas d’un enjeu technique secondaire, mais d’une condition de fiabilité et de résilience de l’écosystème médiatique.
Langues locales : absence de contenus IA adaptés
Dans l’axe social et culturel, le rapport souligne l’absence de contenus destinés à entraîner les systèmes d’IA dans toutes les langues officielles, ainsi que l’absence pour les langues autochtones . Ce constat met aussi en évidence un déficit structurel dans l’environnement linguistique numérique du pays. Les systèmes d’IA reposent sur des données d’entraînement abondantes et structurées. Lorsque ces données n’existent pas ou sont insuffisantes dans les langues locales, les performances des outils de traduction, de transcription ou de génération deviennent mécaniquement limitées. Le rapport indique ainsi une inégalité de disponibilité des ressources linguistiques numériques . Pour les médias, en particulier les radios communautaires qui diffusent majoritairement en langues locales, cette situation crée une vulnérabilité spécifique. Les outils d’IA peuvent produire des approximations, des erreurs ou des distorsions lorsqu’ils ne sont pas entraînés sur des corpus adaptés. Cela affecte la qualité de l’information diffusée et la fiabilité des traductions.
Le rapport situe clairement ce problème dans l’axe social et culturel, ce qui montre qu’il ne s’agit pas d’un simple enjeu technique, mais d’une question d’inclusion informationnelle. Pour le journalisme congolais, la question linguistique est centrale dans toute réflexion sur l’intégration de l’IA.
L’enjeu, au fond, n’est pas seulement l’adoption de l’IA par les médias. Il est celui de la capacité institutionnelle à encadrer cette transformation, à protéger l’espace public numérique et à garantir que l’innovation technologique ne fragilise ni la qualité de l’information ni les équilibres démocratiques.
Alors, quelles leçons pour le journalisme ?
- Première leçon : l’IA avance sans cadre stratégique autonome. En l’absence de stratégie nationale et de régime spécifique, les médias évoluent dans un environnement normatif indirect. La responsabilité professionnelle précède ici la régulation publique.
- Deuxième leçon : la désinformation n’est pas encore pensée juridiquement comme phénomène algorithmique. Le droit encadre des contenus et des comportements, mais pas les logiques d’automatisation, d’amplification et de génération synthétique. Les rédactions doivent intégrer cette mutation avant qu’elle ne soit pleinement encadrée.
- Troisième leçon : la faiblesse des données ouvertes limite la capacité à produire une information fondée sur l’analyse systématique. Sans bases publiques accessibles et structurées, ni journalisme de données robuste ni exploitation avancée des outils d’IA ne peuvent se consolider.
- Quatrième leçon : la cybersécurité demeure un maillon fragile. Dans un environnement classé Tier 3, la protection des sources, des communications et des contenus sont une condition de crédibilité éditoriale.
- Cinquième leçon : l’absence de corpus numériques en langues locales crée une asymétrie informationnelle. L’IA risque de renforcer des inégalités linguistiques si les médias ne maîtrisent pas les limites techniques des outils déployés.