Le retour des politiques industrielles, mais “centrées sur l’humain” ?

L’actualité et la surexposition médiatique de ses prouesses tendent à occulter les quelques soixante-dix ans d’histoire de l’intelligence artificielle (IA)1 ; une histoire marquée par des hauts et des bas, souvent nommés hivers pour les périodes de déclin ou étés pour les périodes de relance. Les pouvoirs publics ont accompagné la plupart du temps ces variations, passant d’un soutien initial à un désengagement.

Les récents progrès de la recherche ont laissé entrevoir la possibilité d’applications commerciales. De plus, la baisse de coût des équipements (stockage et calcul), l’accès à et la capacité de traiter un nombre de plus en plus important de données dans des conditions de transmission par des réseaux haut débit, puis ultra-haut débit ont permis un développement de plus en plus rapide de ces applications ainsi qu’un déploiement plus important des investissements, provoquant en même temps une intensification de la recherche, notamment privée.

Dans le contexte d’un troisième été2, nombre de gouvernements ont mis en place des plans de développement. Le Japon sera l’un des premiers pays à le faire, en 2015, suivi rapidement par d’autres : 69 pays en 2025, selon l’OCDE3. Cet article suit cette vague de politiques publiques4 à partir des exemples de la Chine, de la Corée du Sud, des États-Unis, de la France, du Japon et de l’Union européenne.

Continuité des politiques publiques : Chine, Corée du Sud et Japon

Le plan lancé par le gouvernement chinois en 2017 (Next Generation Artificial Intelligence Development Plan) considérait l’IA comme la technologie de transformation à la base de la puissance économique et militaire. La Chine visait à développer un secteur industriel à part entière estimé à 150 milliards de dollars5. Ce plan, très ambitieux, faisait suite au plan Internet Plus de 2015. Il prévoyait trois étapes : le rattrapage des États-Unis dès 2020, leur dépassement en 2025 et l’accession au rang de leader mondial à l’horizon 2030. Il a été complété par diverses mesures (plan triennal 2017-2020 axé sur des applications industrielles, plan quinquennal 2021-2025...).

Le soutien au développement a pris trois dimensions : la mise en place d’une feuille de route stratégique; l’instauration de réglementations devant équilibrer les objectifs de développement (standardisation), de sécurité (loi) et de gouvernance (code d’éthique); et enfin une politique multidimensionnelle pour accélérer le déploiement. Ces efforts s’appuient sur des écosystèmes robustes qui intègrent les infrastructures, notamment celles de la 5G – la Chine étant pionnière en la matière –, les centres de données, les sociétés de l’Internet (Baidu, Tencent...) et la formation.

En Asie de l’Est et du Sud-Est, les “tigres” (Corée du Sud, Singapour et Taiwan) et le Japon (à un moindre degré) sont coutumiers de politiques publiques d’envergure mobilisant les grands conglomérats multinationaux sous la houlette des agences spécialisées des pays.

En 2019, le gouvernement de Corée du Sud a défini un plan, I-Korea 4.0, qui évaluait les forces et faiblesses du pays, et distinguait objectifs industriels et résolution des problèmes sociaux. Ce plan, complété par un guide des principes éthiques, entendait fournir les moyens nécessaires pour passer d’un statut de superpuissance TI (technologies de l’information) à celui de superpuissance IA. Le pays ambitionnait se classer au troisième rang mondial pour la compétitivité numérique et faire partie des dix premiers pays pour la qualité de la vie. Enfin, à la suite de l’adoption de la législation européenne, la Corée du Sud a adopté, en janvier 2025, une législation similaire afin de trouver un équilibre entre les développements de l’IA et la protection des droits des individus.

Dès 2015, le gouvernement japonais a placé l’IA et la robotique au cœur du renouvellement de sa stratégie pour la science, la technologie et l’innovation (cinquième plan pour la science et la technologie, 2016-2020). Ce plan entendait établir le Japon comme une société “super-intelligente”. L’année suivante a été publié un livre blanc qui définissait cette “société 5.0” fondée sur les principes de dignité de la personne humaine, de diversité et d’inclusion, et de durabilité. Les principes adoptés (transparence, sécurité, sûreté, protection de la vie privée, éthique, précisés à travers un guide en 2019) visaient un équilibre entre bénéfices attendus et risques encourus.

Les États-Unis : un encadrement fluctuant

Le cas des États-Unis contraste fortement avec ces politiques d’encadrement. En effet, la principale initiative remonte au gouvernement Obama. En octobre 2016, trois rapports du National Science and Technology Council concluaient que l’IA allait devenir la force motrice des transformations de l’économie et de la sécurité nationale, et esquissaient les prémisses d’une stratégie dans le domaine. L’objectif était de produire de nouvelles connaissances et technologies d’IA susceptibles d’apporter des bénéfices positifs à la société, tout en minimisant les conséquences négatives.

Aucune initiative d’envergure ne sera prise par la suite sur le plan fédéral. Le National Artificial Intelligence Initiative Act of 2020 n’offrait qu’un cadre de coordination et de renforcement des activités de recherche, développement et formation des administrations et agences américaines. Le gouvernement Biden a pris quelques initiatives : un groupe de travail, en 2021 (National Artificial Intelligence Research Resource Task Force) ; un projet de loi avec un fort accent sur les aspects sociaux (AI Bill of Rights), en 2022 ; et le projet, en 2023, de renforcer la dimension démocratique de l’écosystème de l’IA.

Le premier gouvernement Trump n’avait pas donné suite aux propositions de 2016, proposant plutôt une réduction de 10% du montant affecté aux recherches financées par la National Science Foundation. En janvier 2025, le nouveau gouvernement Trump a annulé une grande partie des politiques de l’administration précédente. Le décret Removing Barriers to American Leadership in Artificial Intelligence supprime toutes directives susceptibles de restreindre l’innovation dans ce domaine.

L’Europe : missions, rapports, réglementation et coordination accrue

L’année 2017 verra la publication du plan France IA qui entendait clarifier les débats et stimuler l’activité de la communauté française de l’IA. Il comportait deux axes principaux : la recherche fondamentale et l’entrepreneuriat. En 2017 toujours, une mission confiée au mathématicien Cédric Villani devait concrétiser les rapports précédents. Le rapport final se revendiquait comme une “politique industrielle”, mais avec une forte dimension éthique. Il sera officialisé, en 2018, à l’occasion d’une conférence au Collège de France où Emmanuel Macron a présenté la stratégie française : « AI for Humanity – L’intelligence artificielle au service de l’humain »6. Dans une perspective similaire a été organisé à Paris, en 2025, le Sommet pour l’action sur l’intelligence artificielle, encourageant la coopération internationale pour une IA éthique et inclusive7.

L’Europe n’avait pas de stratégie unifiée avant 2018 ; les actions restaient largement cantonnées aux programmes de soutien à la recherche. Les initiatives d’États membres, tels que la France ou le Royaume-Uni, ont conduit la Commission européenne à accélérer la mise en place d’un plan d’intervention coordonné. Le développement de l’IA en Europe était fort inégal : l’Allemagne, la France et le Royaume-Uni concentraient la moitié des acteurs8, ce qui rendait d’autant plus nécessaire une politique de convergence et de coordination.

Les initiatives vont s’intensifier à partir de 2018, avec une première communication esquissant une stratégie, suivie d’une autre destinée à tracer la voie d’une coordination accrue. Un livre blanc, en 2020, réactualisait le plan de coordination en prônant la création d’un « écosystème d’excellence et de confiance ». Le livre blanc fournissait une feuille de route pour la législation. Il indiquait que l’IA visée devait être centrée sur l’humain, être digne de confiance, et être ancrée dans les valeurs européennes et les droits fondamentaux.

La proposition, début 2021, d’un cadre législatif, l’Artificial Intelligence Act, a marqué un tournant réglementaire fort. Le cadre visait à instaurer les normes mondiales les plus élevées. La législation proposée classe les applications d’IA selon leur niveau de risque : en fonction de leur taux de risque, les applications devront se conformer à un taux croissant de transparence et d’obligations. La proposition a été adoptée en 2024 sous la forme d’un règlement. Celui-ci étant d’application immédiate9, un AI Pact a été mis en place pour faciliter sa mise en place par les principaux intéressés.

Depuis 2021, les deux dimensions de l’action vis-à-vis de l’IA (stratégie et réglementation) se sont inscrites dans une politique industrielle dite “industrie 5.0”. Elle part de la reconnaissance du pouvoir de l’industrie de réaliser des buts sociétaux au-delà de sa seule contribution à l’emploi et la croissance.

Conclusion

Pour les pouvoirs publics, le succès et l’importance des applications commerciales développées par les sociétés high-tech étaient venus en souligner le potentiel économique. Leur inégal développement au sein des divers secteurs industriels, comme la faiblesse de la demande dans certains, dessinaient dès lors un espace d’intervention pour les pouvoirs publics.

Par la même occasion, l’IA devenait l’un des éléments clés de politiques industrielles revisitées (industrie 4.0 ou 5.0, société 5.0). Le curseur affiché (industrie vs. société) varie, mais toutes ces politiques intègrent une dimension sociétale sous une forme ou sous une autre. L’affichage peut relever de la rhétorique en l’absence de contraintes pesant sur les entreprises10. Les principes adoptés peuvent demeurer généraux et peu ou pas appliqués en Chine comme aux États-Unis. Ceux-ci (transparence, sécurité, sûreté, protection de la vie privée, éthique) visent un équilibre entre bénéfices attendus et risques encourus. Le but est similaire, mais les politiques conçues pour y parvenir sont largement dépendantes du contexte local.

Dans le cas des États-Unis, les sociétés high-tech ont été le fer de lance du développement, l’encadrement par les pouvoirs publics ne semble pas avoir joué un rôle majeur, à l’inverse des pays de l’Asie à forte tradition interventionniste. La Chine combine toutefois soutien et coordination, tout en laissant le champ libre aux initiatives de l’industrie, comme est venu le souligner l’irruption de DeepSeek. La France se caractérise aussi par un souci de planification, mais les politiques peinent à se concrétiser et à susciter des applications commerciales. La démarche de l’Europe est aussi un pari, à la suite du RGPD (Règlement général sur la protection des données), celui d’arriver à imposer des normes mondiales en prenant la tête de l’innovation réglementaire. Dans ce contexte, le risque existe de voir l’Europe se transformer en “îlot éthique” en concurrence avec des régions dynamiques qui le seraient beaucoup moins. Néanmoins, Corée du Sud et Japon attestent aussi d’un engagement fort sur le plan sociétal.


1. Sans entrer dans les discussions sur la définition de l’IA, il suffit de noter, pour notre propos, qu’il s’agit d’un mot-valise renvoyant à la science qui vise à rendre les machines intelligentes. Elle a fait l’objet de multiples points de vue et controverses au cours de son histoire.

2. Les dates varient : 1993 avec le renouveau des recherches sur l’apprentissage profond, 2000, voire 2012. 

3. Source : site de l’OCDE, consulté le 3 mars 2025. 

4. Pour les références précises de chacune des politiques, je renvoie au site de l’OCDE, ainsi qu’à mon article « Back to industrial policies with a human-centric flavor : the case of artificial intelligence » dans Handbook of Services and Artificial Intelligence, Edward Elgar, London, 2024, chap. 20, pp. 330-349.

5. Guilhem Fabre, « China’s Digital Transformation : why is artificial intelligence a priority for Chinese R&D », FMSH-WP-2018-136, juin 2018, disponible sur HAL.

6. Voir l’article « La stratégie IA, pour faire de la France un acteur majeur de l’intelligence artificielle », site du ministère chargé de l’Enseignement supérieur et de la Recherche, novembre 2018.

7. En 2024, la Commission de l’intelligence artificielle a publié le rapport « IA: notre ambition pour la France ».

8. Mary Hallward-Driemeier, Gaurav Nayyar, Wolfgang Fengler, Anwar Aridi et Indermit Gill, Europe 4.0 : Addressing the Digital Dilemma, World Bank Group, Washington DC, 2020, p.11.

9. À la différence d’une directive qui doit d’abord être transposée par les États membres.

10. Les autorités chinoises n’imposent guère de contraintes aux entreprises en ce qui concerne la dimension éthique de l’IA. Cf. Aifang Ma, L’intelligence artificielle en Chine : un état des lieux, Fondation pour l’innovation politique, 2018, p. 19.