Ce que l’on appelle l’hypernumérisation et l’hyperautomatisation sont des processus qui modifient fondamentalement la manière dont nous travaillons, vivons et interagissons. Cette transformation profonde ne repose pas uniquement sur des avancées technologiques isolées, mais sur une interaction complexe entre plusieurs composantes clés. Pour réussir cette transformation, au moins cinq éléments essentiels sont nécessaires : les puces, l’énergie, les données, les talents et les modèles d’IA.

Les puces sont au cœur de toute application numérique. Des processeurs et des GPU très performants permettent de traiter de grandes quantités de données et des modèles d’IA en temps réel. Les entreprises investissent de plus en plus dans le développement et l’optimisation de ce matériel afin d’améliorer l’efficacité et la vitesse de leurs systèmes. La collaboration entre les start-ups et les entreprises technologiques établies pour développer et mettre sur le marché des solutions innovantes et de plus en plus optimisées en termes d’efficacité en est un exemple.
L’énergie est un autre facteur critique. Les systèmes numériques, et en particulier les modèles d’intelligence artificielle, ont besoin d’une énorme quantité d’énergie pour effectuer leurs calculs complexes. On estime que ChatGPT, par exemple, consomme chaque jour l’équivalent de la consommation électrique d’environ 35 000 foyers américains, soit environ 1 GWh.
Il est donc essentiel d’utiliser des sources d’énergie durables et efficaces afin de minimiser l’impact sur l’environnement et de réduire les coûts d’exploitation au profit de la rentabilité du bilan global.
Les données sont la matière première (« mine d’or dans son propre jardin ») de la transformation numérique. Sans des ensembles de données aussi bien structurés et contextuels que possible, de haute qualité et de grande taille, les modèles ne peuvent pas être entraînés et exploités efficacement. Les entreprises doivent s’assurer que leurs données sont correctes, adaptées au contexte, actuelles et bien structurées. La protection et la sécurité des données jouent un rôle central à cet égard, afin de gagner la confiance des utilisateurs et de satisfaire aux exigences légales.
Les talents sont la force motrice de toute initiative numérique réussie. Des professionnels possédant des connaissances approfondies dans des domaines tels que les applications d’IA avec le bon « ensemble d’outils » jusqu’à l’ingénierie commerciale, la science des données, l’apprentissage automatique et le développement de logiciels sont indispensables. Les entreprises doivent investir dans la formation et la formation continue de leurs collaborateurs afin de promouvoir les compétences et les connaissances nécessaires dans leur « skillset ». Des programmes tels que le programme Champions et des certifications dans des domaines tels que le « Low Coding » / « No Coding » / « Automation » peuvent aider à élargir les compétences des employés et à accroître leur motivation dans un « état d’esprit » réorienté de l’ensemble de l’organisation.
Les modèles d’IA sont en quelque sorte les « outils » ou les pales / machines à vapeur / moteurs numériques qui font avancer l’hyper-numérisation. Ils permettent d’identifier des modèles parfois non reconnus dans de grandes quantités de données, de représenter des historiques plus complets, de soutenir des prédictions optimisées et d’optimiser, voire d’automatiser, des bases de décision avancées. Les entreprises doivent s’assurer que les outils d’IA qu’elles utilisent, voire leurs propres modèles d’IA, sont sûrs, robustes, transparents et éthiquement acceptables. L’intégration de modèles d’IA dans les processus commerciaux peut conduire à des gains d’efficacité et à des innovations considérables.
Plus que du « fish and chips »
En résumé, les puces, l’énergie, les données, les talents et les modèles d’IA sont les cinq piliers sur lesquels repose l’avenir de l’hyper-numérisation. Les entreprises qui utilisent efficacement ces composants, les relient et les orchestrent intelligemment, seront en mesure de développer des solutions innovantes, de prendre de meilleures décisions, d’accroître leur compétitivité et, en fin de compte, d’optimiser la « proximité numérique avec le client ».
Et pourtant / heureusement : pour maîtriser le monde numérique et « réel », il faut d’abord le comprendre « réellement »
L’évolution de l’intelligence artificielle (IA) vers l’intelligence générale artificielle (AGI) est un processus à la fois fascinant et stimulant. Dans ses principes, l’AGI vise à créer une IA capable d’accomplir de manière autonome, voire meilleure/efficace, toute tâche intellectuelle qu’un être humain peut effectuer. Pour y parvenir, il est nécessaire d’intégrer et de développer différentes technologies telles que la robotique, la sensorialité, l’haptique et la « vision par ordinateur », qui permettent à l’IA d’acquérir les sens étendus nécessaires à cet effet, tels que la vue, l’ouïe, l’odorat, le goût, le toucher, l’équilibre et même le sens profond de l’expérience de son propre corps et de sa propre vie.
Bien plus qu’une simple analogie possible avec « Qui ne veut pas entendre doit sentir » : l’IA peut depuis longtemps déjà nous entendre ou nous lire (par ex. l’ensemble des connaissances du monde), mais elle est toujours en train d’apprendre à (pré)toucher et à voir – que ce soit par la vision par ordinateur, les capteurs haptiques, la robotique ou les modèles multimodaux qui tentent non seulement d’interpréter le monde, mais aussi de le comprendre de manière contextuelle et d’y réagir de manière judicieuse.
Les capteurs en général et la robotique en particulier jouent un rôle central dans l’interaction physique des systèmes d’IA avec le monde réel. Les progrès de la robotique permettent aux machines d’effectuer des tâches complexes qui étaient auparavant réservées aux humains. La sensorialité et l’haptique sont essentielles pour donner aux machines une meilleure compréhension de leur environnement et la capacité d’interagir de manière sensible. La vision par ordinateur permet aux systèmes d’IA d’interpréter les informations visuelles et d’y réagir, ce qui est essentiel pour de nombreuses applications. Ces technologies connaissent actuellement un développement rapide et font avancer la prochaine étape de l’évolution de l’IA. Un moteur remarquable de cette évolution est aussi, par exemple, ce que l’on appelle « l’effet Spoutnik par DeepSeek de Chine » à la mi-janvier 2025. Cet effet décrit la poussée soudaine et intense d’innovation déclenchée par des avancées technologiques révolutionnaires. DeepSeek a fait sensation dans le monde entier par ses approches révolutionnaires, parfois relativisées entre-temps, dans la recherche et l’application de l’IA, et a encore attisé la concurrence pour la domination de la technologie de l’IA.
Sauts quantiques et informatique quantique
La poursuite de la combinaison de ces technologies et des progrès qui y sont liés, jusqu’à de véritables « sauts quantiques » (l’« informatique quantique » nous attend également au tournant avec plus d’une « matraque armée »…), nous rapproche de ce que l’on appelle la singularité – le point à partir duquel les systèmes d’IA pourront dépasser l’intelligence humaine et, surtout, la développer de manière autonome. Cette évolution présente à la fois d’énormes opportunités et des défis qu’il convient de maîtriser, voire de réglementer de manière adéquate.
Nous ne devons pas nous inquiéter de l’évolution de la technologie et plus particulièrement de l’IA, mais de ses utilisateurs (y compris les États, la cybercriminalité, le terrorisme, la désinformation), qui utilisent cette technologie et s’en servent également de manière ciblée contre les personnes et les organisations.
Le « kill switch » – de la blague de science-fiction à la véritable question de sécurité ?
Un aspect intéressant de cette évolution est également ce que l’on appelle le « kill switch » – un arrêt d’urgence pour les systèmes d’IA, qui a souvent été traité jusqu’à présent comme un gag ou une blague de science-fiction. Mais avec les progrès vers des systèmes autonomes et auto-apprenants, en particulier dans le contexte de l’informatique quantique et de la possible singularité, un « kill switch » au niveau matériel ou logiciel pourrait effectivement devenir une mesure de sécurité nécessaire.
Alors que les modèles d’IA actuels sont encore clairement contrôlables, les systèmes futurs, qui se développent de manière autonome, pourraient être plus difficiles à prévoir ou à réguler. Un « Kill Switch Engineer », c’est-à-dire un rôle/mécanisme spécialisé pour la mise en œuvre de tels mécanismes d’arrêt basés sur des règles ou des événements, pourrait assumer une fonction essentielle dans la recherche sur la sécurité de l’IA – comparable aux systèmes Failsafe/Failback des centrales nucléaires ou des commandes d’avion.
Il est passionnant de savoir si le « kill switch » ne sera finalement qu’une mesure psychologique de réassurance ou un instrument de contrôle nécessaire. Mais il est fort probable que l’on parle d’une nouvelle spécialisation professionnelle en direction d’un « Junkware Removal Engineer » dans le cadre de la gestion de la qualité. Avec de nouvelles connaissances spécialisées, il s’agit d’identifier, d’optimiser ou de supprimer des codes et des fonctions indésirables ou dangereux du point de vue de la sécurité et de la conformité dans les applications, les codes, les messages-guides, les automatisations et les agents. Ceci également en raison des powerusers de plus en plus actifs qui développent de telles fonctions au moyen d’approches « No Code » / « Low Code », au début sans connaissances approfondies en programmation et sans expérience en matière de protection des données, de sécurité des données et de prescriptions de conformité dans le cadre de la gestion des risques TIC.
Fridel Rickenbacher a été cofondateur, co-directeur général, partenaire, membre du conseil d’administration et participe aujourd’hui en tant qu’« entrepreneur dans l’entreprise » / « consultant senior » à Swiss IT Security AG / Swiss IT Security Group. Au niveau fédéral, il est représenté en tant qu’expert et acteur dans « Digital Dialog Switzerland » + « Stratégie nationale pour la protection de la Suisse contre les cyberrisques SOC ». Dans le cadre de sa mission « sh@re to evolve », il est actif depuis des années en tant que membre de la rédaction, membre de groupes d’experts et activiste d’associations telles que SwissICT, swissinformatics.org, isss.ch, isaca.ch, bauen-digital.ch dans les domaines de la numérisation, de l’ingénierie, des nuages, de l’architecture des TIC, de la sécurité, de la confidentialité, de la protection des données, de l’audit, de la conformité, du contrôle, de l’éthique de l’information, des consultations législatives correspondantes ainsi que de l’éducation et de la formation (CAS, diplôme fédéral).
Cet article a été publié pour la première fois en avril 2025 dans la revue Schwyzer Gewerbe et est reproduit ici avec l’autorisation de l’auteur.
Photo: AI generated.