deepfakes-et-ia-generative-l-afrique-face-au-defi-de-la-protection-des-mineurs

Written by: Samira Njoya

L’essor de l’intelligence artificielle générative facilite la création de contenus manipulés, notamment les deepfakes. En Afrique, où la régulation numérique demeure fragmentée, la protection des mineurs devient un enjeu prioritaire pour les États et les régulateurs.

À mesure que les câbles sous-marins se multiplient et que la 4G puis la 5G progressent sur le continent, une génération entière s’installe dans l’univers numérique. Cette connectivité constitue un levier majeur de développement économique, éducatif et social. Elle expose cependant des millions de mineurs à des menaces nouvelles, plus sophistiquées et plus difficiles à détecter.

Selon les estimations conjointes de l’Union internationale des télécommunications et de l’Union africaine, environ 40 % des jeunes Africains âgés de 15 à 24 ans ont aujourd’hui accès à Internet. Ce chiffre, en progression constante, souligne un double impératif : accélérer l’inclusion numérique tout en renforçant les mécanismes de protection.

L’IA générative, nouvelle frontière des violences numériques

L’intelligence artificielle générative modifie profondément la nature des atteintes visant les enfants en ligne. Le cyberharcèlement ne se limite plus aux insultes ou à la diffusion d’images réelles : il peut désormais reposer sur des contenus entièrement fabriqués. Des applications accessibles au grand public permettent de créer de fausses images intimes, de cloner une voix ou de manipuler une vidéo à partir d’une simple photographie.

En 2023, l’Internet Watch Foundation a signalé pour la première fois l’apparition d’images d’abus sexuels d’enfants entièrement générées par IA circulant sur Internet. L’organisation souligne que ces technologies abaissent considérablement les barrières techniques et compliquent l’identification des auteurs. INTERPOL reconnaît également que la sophistication croissante des deepfakes complique les enquêtes, rendant plus difficile la distinction entre contenus authentiques et images manipulées. Ces outils alimentent aussi des pratiques de « sextorsion », dans lesquelles des individus utilisent de faux contenus pour faire chanter des adolescents et leurs familles.

Des organisations de défense des droits de l’enfant signalent que les prédateurs peuvent par ailleurs utiliser l’IA pour analyser le comportement en ligne, l’état émotionnel et les centres d’intérêt d’un enfant afin d’adapter leur stratégie de manipulation.

Des cadres juridiques encore inadaptés

Face à cette évolution rapide, la réponse réglementaire demeure inégale. La Convention de Malabo adoptée par l’Union africaine établit un socle en matière de cybersécurité et de protection des données à caractère personnel. Toutefois, ce texte précède l’essor de l’intelligence artificielle et ne traite pas explicitement des contenus synthétiques visant des mineurs.

Dans plusieurs États africains, les lois sur la protection des données encadrent la collecte et le traitement des informations personnelles sans prévoir de dispositions spécifiques concernant la responsabilité des plateformes en cas de diffusion de deepfakes impliquant des enfants.

En Afrique du Sud, la Protection of Personal Information Act impose des obligations strictes en matière de traitement des données, y compris celles des mineurs. Néanmoins, comme dans de nombreux pays, le cadre reste centré sur la protection de la vie privée plutôt que sur la prévention proactive des contenus générés par IA.

Au Cameroun, une charte sur la protection des enfants en ligne adoptée en 2023 pose les bases d’une responsabilité partagée entre opérateurs télécoms, régulateurs et familles. La loi vise uniquement la protection des enfants âgés de moins de 18 ans. Elle n’assure donc pas la protection de tous les mineurs puisque la minorité légale au Cameroun est fixée à 21 ans.

Vers une gouvernance plus structurée de l’IA

La réflexion progresse toutefois au niveau continental et international. L’Union africaine a engagé des travaux sur une stratégie encadrant le développement et l’usage de l’intelligence artificielle, avec un accent sur l’éthique, la gouvernance des données et la souveraineté numérique. La question de la protection des enfants y apparaît progressivement comme un enjeu transversal, dans un continent où la population est la plus jeune du monde.

À l’échelle mondiale, l’UNICEF plaide pour une approche fondée sur le « Safety by Design », consistant à intégrer la sécurité et la protection des mineurs dès la conception des produits numériques. Cette démarche vise à anticiper les risques plutôt qu’à intervenir uniquement après la diffusion de contenus préjudiciables. L’organisation souligne que les enfants sont surexposés aux risques en ligne dans les contextes où la régulation, la modération en langues locales et les mécanismes de signalement restent insuffisamment développés.

Samira Njoya

Edité par Sèna D. B. de Sodji

Lire aussi:

Égypte : le Parlement prépare une loi sur l’usage des réseaux sociaux par les mineurs

LaGSMA et l’UNICEF lancent un groupe de travail pour protéger les enfants en ligne