Réguler sans freiner l’innovation : le dilemme des pays émergents face à l’expansion rapide de l’IA

Par Tawhid Chtioui, Président Directeur Général, Edvantis Higher Education Group

Introduction

 

L’intelligence artificielle occupe une place centrale dans la dynamique mondiale actuelle, portant en elle un potentiel révolutionnaire en termes d’innovation économique, progrès social et amélioration du quotidien. Toutefois, cette révolution technologique présente des défis juridiques et éthiques majeurs, particulièrement pour les pays émergents, qui doivent non seulement rattraper un retard technologique mais aussi construire des cadres réglementaires adaptés à leurs réalités locales.

Les régulations strictes telles que l’AI Act européen, l’AI Executive Order américain et la Loi canadienne sur l’intelligence artificielle et les données (LIAD) illustrent des modèles avancés et précis, destinés à protéger les citoyens contre les abus de l’IA. Ces cadres établissent des exigences fortes en matière de transparence, de responsabilité et de contrôle. Toutefois, transposer directement ces modèles aux pays émergents soulève d’importantes questions. Les règles occidentales rigides pourraient freiner l’innovation et ne pas être entièrement applicables compte tenu des différences culturelles, économiques et institutionnelles significatives.

Ce dilemme impose aux pays émergents de réfléchir à des approches hybrides et innovantes équilibrées entre protection des citoyens et une adoption flexible et pragmatique de l’IA. Mais comment les pays émergents peuvent-ils réellement concilier régulation efficace et promotion de l’innovation ? Quelles sont les spécificités à prendre en compte dans la définition d’un cadre juridique adapté ? Comment anticiper et gérer les impacts économiques, sociaux et éthiques liés à l’introduction massive de l’IA dans ces pays ?

Un cadre juridique en construction : entre rigueur et flexibilité

 

Actuellement, la majorité des pays émergents explorent encore les meilleures approches pour réguler l’intelligence artificielle, oscillant entre prudence réglementaire et encouragement à l’innovation.

En Afrique, l’Union Africaine a franchi une étape importante en adoptant, dès juillet 2024, une stratégie continentale axée sur une régulation éthique et responsable, tout en insistant sur la nécessité d’une approche adaptée aux réalités locales des pays membres.

Cette stratégie inclut un volet spécifique dédié à la réglementation et à la sécurité de l’IA, tout en privilégiant une approche flexible, permettant aux pays membres de construire progressivement leur propre cadre réglementaire adapté à leur contexte spécifique. Le document met en avant plusieurs dimensions essentielles à une intégration réussie de l’IA en Afrique. Il insiste particulièrement sur la nécessité de développer le capital humain local afin de disposer d’une main-d’œuvre qualifiée, capable, non seulement d’utiliser, mais aussi de concevoir des technologies d’IA correspondant aux besoins et aux particularités africaines. Par ailleurs, la stratégie souligne l’importance d’améliorer les infrastructures numériques, telles que la connectivité internet et les centres de données, pour assurer une gestion souveraine des données locales. Elle encourage également la dynamisation de l’économie liée à l’IA, notamment par le soutien aux startups innovantes et la création d’un climat favorable aux investissements technologiques. Enfin, elle plaide pour l’établissement de partenariats durables, régionaux et internationaux, qui permettront aux pays africains de bénéficier du partage des compétences et du transfert de technologies tout en garantissant un suivi et une évaluation régulière des avancées réalisées. Cette stratégie constitue ainsi un modèle équilibré et ambitieux, intégrant pleinement les enjeux éthiques, économiques, culturels et sociaux, afin que l’intelligence artificielle contribue positivement et durablement au développement du continent africain.

Sur le plan national, les cadres juridiques relatifs à l’intelligence artificielle restent souvent embryonnaires dans de nombreux pays africains. Par exemple, la Côte d’Ivoire intensifie ses efforts contre la désinformation numérique à l’approche des élections présidentielles, mais ne dispose pas encore d’un cadre complet et structuré sur l’IA.

Au Sénégal, le changement de cap politique opéré en 2024 avec l’élection du président Bassirou Diomaye Faye a marqué une nouvelle orientation en matière de développement technologique. Le pays a abandonné la logique du Plan Sénégal Émergent (PSE) au profit de la vision « Sénégal Horizon 2050 », articulée autour d’une transformation structurelle, inclusive et souveraine. En février 2025, les autorités sénégalaises ont lancé une nouvelle stratégie numérique intitulée « New Deal Technologique », dont l’intelligence artificielle constitue l’un des piliers.

Cette stratégie vise à intégrer l’IA dans les politiques publiques de manière transversale, en l’articulant avec les priorités nationales : éducation, santé, agriculture, gouvernance et entrepreneuriat. Elle prévoit également le développement d’un cadre juridique spécifique à l’IA, ainsi qu’une réforme globale de la protection des données, du droit du numérique et de la cybersécurité. Un accent particulier est mis sur la souveraineté technologique, la création de compétences locales et la promotion de solutions africaines basées sur les réalités linguistiques et sociales sénégalaises.

Bien qu’encore en phase d’élaboration, cette stratégie marque une volonté forte de ne pas subir la transition numérique, mais de la piloter de manière éthique, inclusive et adaptée aux besoins du pays. Le Sénégal ambitionne ainsi de devenir un acteur structurant de la gouvernance régionale de l’IA en Afrique de l’Ouest.

En Égypte, bien que des initiatives telles que la création du Conseil national de l’intelligence artificielle et l’adoption de la Charte égyptienne pour une IA responsable aient été mises en place pour promouvoir une utilisation éthique de l’IA, le pays ne dispose pas encore d’un cadre juridique national spécifique à l’IA. La Charte, adoptée en 2023, vise à garantir une utilisation, un déploiement et une gestion éthiques des systèmes d’IA en Égypte, en intégrant des principes tels que l’équité, la transparence, l’accent mis sur l’humain, la responsabilité et la sécurité. Cependant, l’absence de législation spécifique sur l’IA compromet l’application effective de ces principes.

Ces exemples illustrent les efforts entrepris par des pays africains comme le Sénégal et l’Égypte pour intégrer l’IA dans leurs stratégies de développement. Cependant, l’absence de cadres juridiques spécifiques et complets sur l’IA souligne la nécessité pour ces nations de renforcer leurs infrastructures légales afin de garantir une utilisation éthique et responsable de l’intelligence artificielle.

Le Maroc, quant à lui, adopte une approche proactive et équilibrée : bien qu’il n’existe pas encore de législation dédiée spécifiquement à l’IA, le pays s’appuie sur plusieurs cadres existants tels que la loi 09-08 relative à la protection des données personnelles, et la loi 05-20 relative à la cybersécurité des infrastructures numériques. En mai 2024, le ministre marocain de la Justice, annonçait la préparation d’un projet de loi ambitieux visant à encadrer spécifiquement l’IA et ses usages, prenant en compte les défis et menaces potentiels liés à ces technologies. Ce projet comporterait 17 articles intégrant les données personnelles, la gouvernance (avec la création d’un comité national dédié à la supervision des systèmes IA) et la conformité (cyber et vie privée).

Par ailleurs, le Maroc a renforcé son engagement international avec l’établissement, dès novembre 2023, d’un Centre international d’intelligence artificielle sous l’égide de l’UNESCO, afin de promouvoir l’IA en Afrique à travers la recherche appliquée, la formation et le renforcement des capacités locales.

Ces initiatives témoignent clairement de la volonté du Maroc d’élaborer une politique publique intégrée sur l’IA, conjuguant innovation technologique, gouvernance responsable et respect des droits fondamentaux des citoyens.

En Asie, l’Inde adopte une approche souple et évolutive, privilégiant une régulation sectorielle et progressive. À ce jour, l’Inde ne dispose pas d’une loi-cadre unique dédiée exclusivement à l’IA, préférant un assemblage pragmatique de politiques, directives et régulations spécifiques aux contextes locaux et aux secteurs prioritaires. Dès 2018, le think tank gouvernemental indien NITI Aayog a défini une « Stratégie nationale pour l’intelligence artificielle » ambitieuse visant à positionner l’Inde comme leader mondial dans des domaines clés tels que la santé, l’agriculture, l’éducation, les villes intelligentes ou la mobilité. Cette stratégie sectorielle s’accompagne, depuis 2022, d’une mise à jour significative du cadre réglementaire global à travers le projet du « Digital India Act », destiné à réguler les nouvelles technologies, y compris l’IA. En parallèle, une loi majeure sur la protection des données personnelles, adoptée par le parlement indien en août 2023, prévoit d’importants règlements complémentaires à venir. En mars 2024, le gouvernement indien a franchi une étape supplémentaire en imposant aux fournisseurs d’IA l’obligation d’obtenir une approbation préalable avant de déployer des modèles expérimentaux, afin de prévenir les biais discriminatoires et protéger l’intégrité électorale à l’approche des élections législatives. Enfin, la participation active de l’Inde au Partenariat mondial sur l’intelligence artificielle (PMIA, OCDE, 2025) témoigne d’une volonté de s’inscrire dans une dynamique internationale tout en préservant une marge d’innovation nationale nécessaire à son développement technologique.

En décembre 2024, la Malaisie a inauguré un Bureau national de l’intelligence artificielle dédié à l’élaboration de politiques et à la régulation de l’IA. Cette initiative vise à centraliser les efforts liés à l’IA, à fournir une planification stratégique, à encourager la recherche et le développement, et à assurer une supervision réglementaire. Les objectifs initiaux incluent l’établissement d’un code d’éthique pour l’IA, la création d’un cadre réglementaire et la mise en œuvre d’un plan d’action technologique sur cinq ans jusqu’en 2030. Parallèlement, la Malaisie a formé des partenariats stratégiques avec des entreprises majeures comme Amazon, Google et Microsoft, qui ont investi dans les centres de données, le cloud et les projets d’IA du pays.

Singapour, qui joue un rôle de premier plan dans l’élaboration de lignes directrices en matière de gouvernance et d’éthique pour l’IA au sein de l’Association des nations de l’Asie du Sud-Est (ASEAN), collabore activement avec les pays membres pour développer un guide d’application de l’IA destiné aux secteurs public et privé de la région. En 2023, Singapour a mis à jour sa Stratégie nationale en matière d’intelligence artificielle, initialement lancée en 2019, pour refléter les évolutions technologiques et les priorités nationales.

Ces exemples illustrent la diversité des approches adoptées par les pays émergents pour encadrer et promouvoir l’utilisation de l’intelligence artificielle, en fonction de leurs contextes nationaux et de leurs priorités stratégiques, des approches distinctes mais convergentes vers une régulation équilibrée de l’IA. Ces pays émergents cherchent activement à trouver le juste milieu entre adoption responsable de cadres juridiques inspirés des standards internationaux et respect attentif des spécificités culturelles, économiques et institutionnelles locales. Cette démarche, en constante évolution, s’avère essentielle pour permettre à ces pays d’exploiter pleinement les opportunités de l’IA tout en protégeant efficacement leurs citoyens contre les dérives possibles.

Conclusion : Quelle régulation pour demain ?


Une régulation hybride, équilibrée et adaptée constitue la voie privilégiée pour les pays émergents, combinant protection, innovation et flexibilité réglementaire. Cependant, cette démarche doit impérativement être accompagnée par une réflexion approfondie sur les enjeux éthiques inhérents à l’IA. Un cadre éthique robuste apparaît indispensable pour guider l’innovation en matière d’IA. Ce cadre devrait reposer sur des principes universels comme la transparence, l’équité, l’explicabilité, la loyauté et la fiabilité. L’IA implique aussi des mécanismes clairs de contrôle et d’audit indépendants pour identifier et corriger rapidement les dérives éventuelles. Les pays émergents peuvent tirer profit des recommandations internationales de l’UNESCO et des pratiques du PMIA tout en les adaptant à leurs spécificités socio-économiques pour établir leur propre charte éthique.

Plusieurs questions critiques restent ouvertes : comment les pays émergents pourront-ils assurer que les données utilisées pour entraîner les modèles d’IA reflètent véritablement leurs réalités culturelles et linguistiques ? Comment pourront-ils éviter une dépendance accrue aux solutions technologiques développées majoritairement dans des contextes occidentaux ? Quels mécanismes institutionnels et internationaux doivent être envisagés pour favoriser une coopération plus équitable et inclusive dans le domaine de l’IA ?

Open chat
Besoin d'aide ?
Bienvenue à Com'Sup !
Bonjour 👋
vous avez une question à nous poser?