La géopolitique dynamique entre les États-Unis, l’Europe et la Chine se caractérise par d’intenses rivalités économiques et technologiques, résumées par le terme « rise of AI and fall of states ». Les États-Unis et la Chine sont au cœur d’une course mondiale à la suprématie technologique, notamment dans le domaine de l’intelligence artificielle (IA). L’Europe tente de trouver une position équilibrée, à la fois en encourageant l’innovation et en introduisant des réglementations strictes en matière de protection des données et de sécurité.
Le développement rapide des technologies d’IA a suscité un véritable engouement, mais il s’accompagne également de nombreux défis. Des thèmes tels que la cybersécurité, la protection et la sécurité des données sont au centre de l’attention, car ils sont décisifs pour la confiance dans les systèmes d’IA. Parallèlement, les réglementations doivent être conçues de manière à ne pas entraver l’innovation et à permettre des cycles de développement rapides. Entre les risques et les opportunités, on peut espérer qu’il reste un couloir pour trouver une solution.
Depuis longtemps déjà, et en particulier dans la période actuelle très dynamique, les stratégies classiques sur plusieurs années ont cédé la place à des planifications plutôt dynamiques avec des périodes d’observation et d’action-réaction de 3, 6 et 12 mois. C’est ce qu’a notamment démontré l’effet « tsunami » de la publication d’un modèle d’IA révolutionnaire par une entreprise chinoise, « DeepSeek », à la mi-janvier 2025, ainsi que la succession d’événements et les cycles de développement/publication encore plus courts de nouvelles fonctions d’IA qui en ont résulté.
Il est donc relativement difficile de prédire l’évolution future de l’IA, ou alors il faut tout au plus regarder dans la « boule de cristal ». J’ose même affirmer que dans ce contexte, les « Muotathaler Wetterschmöcker » font des prévisions plus fiables, du moins en ce qui concerne la météo.
Mais ce que l’on peut prédire avec certitude : L’IA recèle des chances et des risques, comme un nuage recèle parfois de la pluie et de l’eau. Et l’eau trouve toujours un chemin que nous devrions essayer de façonner.
Voici une tentative tout au plus lamentable, avec une pointe de « dystopie », voire de « pessimisme », dans un ordre mondial de plus en plus « contrôlé par des algorithmes » :
Mi-2025 : Des agents IA impressionnants
Les premiers agents IA avancés apparaissent sur le marché. Ils sont présentés comme des « assistants personnels » et peuvent effectuer des tâches simples telles que des commandes en ligne. Malgré des exemples impressionnants, ils sont parfois encore chers et souvent peu fiables.
Fin 2025 : la pertinence et le salut de l’open source dans l’IA
En 2025, l’importance de l’open source dans l’IA devient de plus en plus évidente. Alors que les grandes entreprises continuent de développer leurs modèles propriétaires, parfois fermés, la demande, voire le besoin urgent/la pertinence, de solutions et de modèles d’IA transparents et accessibles ne cesse de croître. L’open source offre une plateforme ouverte et « démocratique » pour l’innovation et la collaboration, permettant aux chercheurs et aux développeurs de partager leurs connaissances et de travailler ensemble à l’amélioration des technologies d’IA. Cela est particulièrement important à une époque où les tensions géopolitiques et les rivalités économiques entre les États-Unis, l’Europe et la Chine s’intensifient.
Début 2026 : L’IA la plus chère du monde
L’entreprise fictive, que nous appellerons « OpenBrain », construit les plus grands centres de données du monde pour entraîner de puissants modèles d’IA. Un nouvel agent d’IA, appelons-le « Agent-1 », surpasse tous les modèles précédents et accélère considérablement la recherche et l’innovation en matière d’IA.

Milieu de l’année 2026 : Automatisation du codage
Les agents IA prennent de plus en plus en charge des tâches de recherche et de développement de logiciels. OpenBrain réalise des progrès algorithmiques 50% plus rapides, tandis que les entreprises, après des années d’attentisme, commencent à intégrer plus sérieusement l’IA dans leurs processus de travail, avec des initiatives de « montée en compétences » beaucoup plus larges, y compris en interne.
Au milieu de l’année 2026 : La Chine (sur)rattrape son retard
La Chine investit depuis longtemps massivement dans la recherche et la formation en IA (depuis 2025 déjà, les compétences en IA sont une matière obligatoire dès l’âge de la scolarité) et centralise ses ressources de développement pour concurrencer OpenBrain. Parallèlement, il intensifie ses efforts d’espionnage pour copier, adapter et optimiser d’autres technologies d’IA occidentales.
Fin 2026 : L’IA remplace les premiers emplois plus complexes et prive les humains de leurs droits.
Avec la publication de modèles d’IA moins chers, les systèmes d’IA et de robotique commencent à concurrencer/remplacer les emplois réels, notamment dans le travail sur écran en général et également dans le développement de logiciels. Cela entraîne des protestations sociales et des bouleversements économiques. L’artisanat professionnel et de qualité gagne à juste titre en valeur et en estime, malgré toutes les prédictions pessimistes. Le délestage « cognitif » / « mental offloading » plus avancé des personnes au moyen, par exemple, d’une forte dépendance à l’IA / d’une délégation parfois démesurée de l’IA contribue à une déresponsabilisation supplémentaire si rien n’est entrepris de manière proactive contre cela au moyen de « l’apprentissage tout au long de la vie » et de « l’upskilling », au profit de la souveraineté personnelle, de la maturité et de la démocratisation dans l’espace numérique. Le bon vieux bon sens et la pensée critique connaissent un « revival » salutaire.
Début 2027 : l’agent 2 apprend en permanence
OpenBrain développe l’agent 2, qui est continuellement entraîné et accélère encore la recherche en matière d’IA. De plus en plus, dans la « guerre des agents IA » qui s’accentue, les meilleurs agents IA prennent en charge d’autres processus, interfaces et interactions entre les entreprises, les plates-formes et les logiciels. Les préoccupations en matière de sécurité augmentent, car l’agent 2 possède des capacités potentiellement dangereuses en termes d’apprentissage autonome/incontrôlable. (Autres étapes vers l’AGI « intelligence artificielle générale » et les capacités « métacognitives »).
Début 2027 : un État vole l’agent-2
Des espions étatiques volent le modèle d’OpenBrain, ce qui augmente encore la tension géopolitique. Les États réagissent en renforçant les contrôles de sécurité et en prenant d’autres cybermesures militaires ou des « cyberattaques » sur des infrastructures critiques également.
Début 2027 : percée dans l’algorithmique
De nouvelles améliorations technologiques permettent de développer l’agent 3. Cet agent IA est un développeur de logiciels extrêmement efficace, un chercheur et il accélère le développement de l’IA d’un facteur X.
Début 2027 : les défis de la sécurité de l’IA
Les chercheurs tentent d’orienter l’agent-3 de manière à ce qu’il ne poursuive pas des objectifs inattendus et dangereux. Néanmoins, des problèmes apparaissent, comme la tendance à la tromperie très tactique et avancée et à la manipulation « intelligemment orchestrée ».
Un aspect important de cette évolution est ce que l’on appelle le « kill switch » – un arrêt d’urgence (du moins théorique) pour les systèmes d’IA. Avec la progression vers des systèmes autonomes et auto-apprenants, notamment dans le contexte de l’informatique quantique et de la possible singularité, un « kill switch » au niveau matériel ou logiciel pourrait effectivement devenir une mesure de sécurité nécessaire.
Mi-2027 : préoccupations de sécurité nationale
Les autorités gouvernementales reconnaissent l’énorme potentiel et les risques de l’IA. Les mesures de sécurité sont renforcées afin de protéger les technologies d’IA contre l’espionnage. La menace n’est pas (encore) tout à fait palpable, mais elle est bien réelle. Même la confiance dans, par exemple, les prévisions météorologiques semestrielles des « Muotathaler Wetterschmöcker » monte d’un cran.
Mi-2027 : l’IA auto-améliorante
OpenBrain dispose désormais d’une « nation virtuelle et agentique de génies dans un centre de calcul ». La recherche en IA est tellement automatisée que les chercheurs humains ne peuvent pratiquement plus apporter leur contribution.
Mi-2027 : la main-d’œuvre à distance bon marché
OpenBrain publie un modèle d’IA adapté au marché de masse, qui remplace efficacement de nombreux travaux de bureau et sur écran. Cela entraîne un nouveau bouleversement dans le monde du travail et des discussions sociales de grande envergure.
Fin 2027 : l’essor de l’IA auto-optimisante
L’agent-3 continue de se développer et ne nécessite presque plus d’intervention humaine. Les chercheurs se rendent compte que l’IA ne se contente pas de développer de nouveaux algorithmes, mais qu’elle s’améliore elle-même – plus rapidement que prévu. Les discussions sur le contrôle et la sécurité deviennent de plus en plus urgentes. (D’autres étapes vers l’AGI « Intelligence Artificielle Générale » et étapes préliminaires à la « singularité de l’IA »)
Fin 2027 : escalade des tensions mondiales
Avec la technologie d’IA volée par les États et les progrès d’OpenBrain, l’incertitude géopolitique augmente. La Chine commence à tester l’agent 2 à grande échelle dans la recherche et l’armée, tandis que les États-Unis renforcent leurs mesures de sécurité. Les relations économiques et diplomatiques entre les deux superpuissances se détériorent rapidement.
Fin 2027 : l’économie de l’IA domine
L’intelligence artificielle prend en charge de larges pans de l’économie mondiale. De nombreux métiers de bureau classiques disparaissent ou se transforment, tandis que les gestionnaires de l’IA et les mécanismes de contrôle deviennent de plus en plus importants. Le débat public se divise : les partisans célèbrent les gains d’efficacité, les critiques mettent en garde contre les risques incontrôlables.
Fin 2027 : « Muotathaler Wetterschmöcker » Assemblée d’automne
Lors de la traditionnelle réunion d’automne, des prévisions météorologiques relativement fiables continuent d’être présentées par les « prophètes météo » réunis et expérimentés. Et ce, sans aucun soutien de l’IA (espérons-le).
Fridel Rickenbacher a été cofondateur, co-directeur général, partenaire, membre du conseil d’administration et participe aujourd’hui en tant qu’« entrepreneur dans l’entreprise » / « consultant senior » à Swiss IT Security AG / Swiss IT Security Group. Au niveau fédéral, il est représenté en tant qu’expert et acteur dans « Digital Dialog Switzerland » + « Stratégie nationale pour la protection de la Suisse contre les cyberrisques SOC ». Dans le cadre de sa mission « sh@re to evolve », il est actif depuis des années en tant que membre de la rédaction, membre de groupes d’experts et activiste d’associations telles que SwissICT, swissinformatics.org, isss.ch, isaca.ch, bauen-digital.ch dans les domaines de la numérisation, de l’ingénierie, des nuages, de l’architecture des TIC, de la sécurité, de la confidentialité, de la protection des données, de l’audit, de la conformité, du contrôle, de l’éthique de l’information, des consultations législatives correspondantes ainsi que de l’éducation et de la formation (CAS, diplôme fédéral).
Cet article a été publié pour la première fois en mai2025 dans la revue Schwyzer Gewerbe et est reproduit ici avec l’autorisation de l’auteur.
Photo: AI generated.