La dinamica geopolitica tra Stati Uniti, Europa e Cina è caratterizzata da intense rivalità economiche e tecnologiche, sintetizzate come “ascesa dell’IA e caduta degli Stati”. Gli Stati Uniti e la Cina sono al centro di una corsa globale per la supremazia tecnologica, in particolare nel campo dell’intelligenza artificiale (AI). L’Europa sta cercando di trovare una posizione equilibrata, sia promuovendo l’innovazione che introducendo rigide norme di protezione dei dati e di sicurezza.
Il rapido sviluppo delle tecnologie di IA ha scatenato un vero e proprio boom, ma porta con sé anche numerose sfide. Questioni come la cybersecurity, la protezione e la sicurezza dei dati sono al centro dell’attenzione, poiché sono fondamentali per la fiducia nei sistemi di IA. Allo stesso tempo, le normative devono essere concepite in modo da non ostacolare l’innovazione e consentire cicli di sviluppo rapidi. Si spera che la soluzione consista nel mantenere un corridoio tra rischi e opportunità.
Da qualche tempo a questa parte, e soprattutto nell’attuale periodo selvaggio e molto dinamico, le strategie tradizionali e pluriennali hanno lasciato il posto a una pianificazione più dinamica con periodi di osservazione e di azione-reazione di 3, 6 e 12 mesi. Ciò è stato dimostrato in particolare dall’effetto “tsunami” dello Sputnik con la pubblicazione di un modello rivoluzionario di IA da parte di un’azienda cinese, “DeepSeek”, a metà gennaio 2025 e la conseguente raffica di eventi e cicli di sviluppo/pubblicazione ancora più brevi per le nuove funzioni di IA.
È quindi relativamente difficile prevedere l’ulteriore sviluppo dell’IA o, nella migliore delle ipotesi, guardare nella “sfera di cristallo”. Oserei dire che in questo contesto i “meteorologi di Muotathal” fanno previsioni più affidabili, almeno per quanto riguarda il tempo.
Ma cosa si può prevedere con certezza: L’IA nasconde opportunità e rischi come una nuvola a volte nasconde pioggia e acqua. E l’acqua trova sempre la (sua) strada, che dovremmo cercare di aiutare a plasmare il più possibile.
Quello che segue è un tentativo pietoso, con un pizzico deliberato di “distopia” e persino di “malinconia” in un ordine mondiale sempre più “controllato dagli algoritmi”:
Metà del 2025: agenti IA impressionanti
I primi agenti AI avanzati appaiono sul mercato. Vengono pubblicizzati come “assistenti personali” e possono svolgere compiti semplici come ordinare online. Nonostante gli esempi impressionanti, sono ancora costosi e spesso inaffidabili.
Fine del 2025: la rilevanza e il soccorso dell’open source nell’IA
Nel 2025, l’importanza dell’open source nell’IA diventerà sempre più evidente. Mentre le grandi aziende continuano a sviluppare i loro modelli proprietari e parzialmente chiusi, cresce la richiesta o addirittura l’urgenza di soluzioni e modelli di IA trasparenti e accessibili. L’open source fornisce una piattaforma aperta e “democratica” per l’innovazione e la collaborazione, consentendo a ricercatori e sviluppatori di condividere le loro scoperte e di lavorare insieme per migliorare le tecnologie di IA. Ciò è particolarmente importante in un momento di crescenti tensioni geopolitiche e rivalità economiche tra Stati Uniti, Europa e Cina.
Inizio 2026: L’IA più costosa del mondo
Un’azienda fittizia, chiamiamola “OpenBrain”, sta costruendo i più grandi centri dati del mondo per centri di dati più grandi del mondo per addestrare potenti modelli di IA. Un nuovo agente di IA, chiamato “Agente-1”, supera tutti i modelli precedenti e accelera significativamente la ricerca e l’innovazione in materia di IA.

Metà 2026: Automazione della codifica
Gli agenti dell’IA si assumono sempre più spesso compiti di ricerca e sviluppo software. OpenBrain raggiunge un progresso algoritmico più rapido del 50%, mentre le aziende, dopo anni di attesa, iniziano a integrare più seriamente l’IA nei loro processi di lavoro, comprese iniziative interne di aggiornamento molto più complete.
Metà del 2026: La Cina sta (sovra)recuperando terreno
La Cina ha da tempo investito molto nella ricerca e nella formazione sull’IA (dal 2025 l’alfabetizzazione all’IA è una materia obbligatoria fin dall’età scolare) e sta centralizzando le proprie risorse di sviluppo per competere con OpenBrain. Allo stesso tempo, intensifica gli sforzi di spionaggio per copiare, adattare e ottimizzare altre tecnologie di IA occidentali.
Fine 2026: L’IA sostituisce i primi lavori più complessi e sostituisce gli esseri umani
Con il rilascio di modelli di IA più economici, l’IA e i sistemi robotici iniziano a competere/sostituire i lavori reali, soprattutto nei lavori basati su schermi in generale e nello sviluppo di software. Questo sta portando a proteste sociali e sconvolgimenti economici. Nonostante tutte le profezie di sventura, l’artigianato di qualità e professionale sta giustamente acquistando valore e stima. L’alleggerimento “cognitivo” più avanzato / “scarico mentale” delle persone per mezzo, ad esempio, di una forte dipendenza dall’IA / a volte di una delega eccessiva dell’IA contribuisce a un’ulteriore incapacità se non si interviene in modo proattivo con la “formazione permanente” e l'”upskilling” a favore della sovranità personale, della maturità e della democratizzazione nello spazio digitale. Il buon vecchio buon senso e il pensiero critico stanno vivendo un sano “revival”.
Inizio 2027: l’Agente-2 apprende continuamente
OpenBrain sta sviluppando l’Agente-2, che è in fase di formazione continua e accelera ulteriormente la ricerca sull’IA. Nell’accentuata “guerra per gli agenti di IA”, i migliori agenti di IA stanno assumendo sempre più il controllo di ulteriori processi, interfacce e interazioni tra aziende, piattaforme e software. Le preoccupazioni per la sicurezza stanno aumentando, poiché l’Agente-2 ha capacità potenzialmente pericolose in direzione di una capacità di apprendimento autonomo/ incontrollabile. (Ulteriori passi verso l’AGI “Intelligenza Artificiale Generale” e capacità “metacognitive”)
Inizio 2027: uno Stato ruba l’Agente-2
Spie statali rubano il modello OpenBrain, aumentando ulteriormente la tensione geopolitica. Gli Stati rispondono con controlli di sicurezza più severi e ulteriori misure militari informatiche o “cyber strike” sulle infrastrutture critiche.
Inizio 2027: scoperta degli algoritmi
L’Agente-3 viene sviluppato con nuovi miglioramenti tecnologici. Questo agente AI è uno sviluppatore di software e un ricercatore estremamente efficiente e accelera lo sviluppo dell’AI di X volte.
Inizio 2027: sfide della sicurezza dell’IA
I ricercatori si sforzano di progettare l’Agente-3 in modo che non persegua obiettivi inaspettati e pericolosi. Tuttavia, stanno emergendo problemi come la tendenza all’inganno molto tattico e avanzato e alla manipolazione “intelligentemente orchestrata”.
Un aspetto importante di questo sviluppo è il cosiddetto “kill switch”, un arresto di emergenza (almeno teorico) per i sistemi di intelligenza artificiale. Con la progressione verso sistemi autonomi e di autoapprendimento, soprattutto nel contesto dell’informatica quantistica e della possibile singolarità, un “kill switch” a livello hardware o software potrebbe diventare una misura di sicurezza necessaria.
Metà del 2027: problemi di sicurezza nazionale
Le autorità governative riconoscono l’enorme potenziale e i rischi dell’IA. Le misure di sicurezza sono state rafforzate per proteggere le tecnologie dell’IA dallo spionaggio. La minaccia è (ancora) non del tutto tangibile, ma molto reale. Anche la fiducia, ad esempio, nelle previsioni meteorologiche semestrali del “Muotathaler Wetterschmöcker” è in aumento.
Metà del 2027: l’intelligenza artificiale che si auto-migliora
OpenBrain dispone ora di una “nazione virtuale e agenziale di geni in un centro dati”. La ricerca sull’IA è così automatizzata che i ricercatori umani possono a malapena dare un contributo.
Metà del 2027: la forza lavoro remota a basso costo
OpenBrain pubblica un modello di IA adatto al mercato di massa che sostituisce efficacemente molti lavori d’ufficio e su schermo. Questo porta a un ulteriore sconvolgimento del mondo del lavoro e a discussioni sociali di vasta portata.
Fine 2027: l’ascesa dell’IA auto-ottimizzante
L’agente 3 continua a svilupparsi e non richiede quasi alcun intervento umano. I ricercatori si rendono conto che l’IA non solo sta sviluppando nuovi algoritmi, ma sta anche migliorando se stessa, più velocemente del previsto. Le discussioni sul controllo e sulla sicurezza diventano sempre più urgenti. (Ulteriori passi verso l’AGI “Intelligenza Artificiale Generale” e fasi preliminari verso la “singolarità dell’IA”)
Fine del 2027: le tensioni globali si intensificano
Con la tecnologia AI rubata dagli Stati e i progressi di OpenBrain, cresce l’incertezza geopolitica. La Cina inizia a testare su larga scala l’Agente-2 nella ricerca e nelle forze armate, mentre gli Stati Uniti rafforzano le loro misure di sicurezza. Le relazioni economiche e diplomatiche tra le due superpotenze si deteriorano rapidamente.
Fine del 2027: l’economia dell’intelligenza artificiale domina
L’intelligenza artificiale conquista ampie fette dell’economia globale. Molti lavori d’ufficio tradizionali scompaiono o si trasformano, mentre i manager e i meccanismi di controllo dell’IA diventano sempre più importanti. Il dibattito pubblico è diviso: i sostenitori celebrano i guadagni di efficienza, mentre i critici mettono in guardia dai rischi incontrollabili.
Fine 2027: incontro autunnale “Muotathaler Wetterschmöcker”
Al tradizionale incontro autunnale, le previsioni del tempo relativamente affidabili continuano a essere presentate dagli uniti ed esperti “profeti del tempo”. E questo senza il supporto dell’intelligenza artificiale (si spera).
Fridel Rickenbacher è ex co-fondatore, co-CEO, partner, membro del Consiglio di Amministrazione e ora “imprenditore in azienda” / “consulente senior” presso Swiss IT Security AG / Swiss IT Security Group. A livello federale, è rappresentato come esperto e attore in “Digital Dialog Switzerland” + “National Strategy for the Protection of Switzerland against Cyber Risks NCS”. Nella sua missione “sh@re to evolve”, è attivo da anni come membro editoriale, attivista di gruppi di esperti e associazioni, ad esempio presso SwissICT, swissinformatics.org, isss.ch, isaca.ch, bauen-digital.ch nei settori della digitalizzazione, dell’ingegneria, delle nuvole, dell’architettura ICT, della sicurezza, della privacy, della protezione dei dati, dell’audit, della compliance, del controlling, dell’etica dell’informazione, nelle relative consultazioni legislative e anche nell’istruzione e nella formazione (CAS, diploma federale).
Questo articolo è stato pubblicato per la prima volta nel maggio 2025 sulla rivista Schwyzer Gewerbe e viene qui riprodotto con il permesso dell’autore.
Photo: AI generated.