Durante il Gartner IT Symposium/Xpo, che si e’ tenuto in Australia, Gene Alvarez, di Gartner, ha rivelato un elenco di tendenze tecnologiche da ritenere significative e da attenzionare per pianificare le strategie IT nel medio termine.
L’Agentic AI, le piattaforme di governance AI e la crittografia post-quantum sono tra le tendenze tecnologiche future più dirompenti, che caratterizzeranno il 2025.
I rapidi progressi nell’interazione AI – informatica – macchina – uomo sono i fattori chiave alla base delle tecnologie che Gartner ritiene che i leader IT dovrebbero monitorare nel 2025.
L’Agentic AI si trasforma
Gartner si aspetta che l’Agentic AI emerga entro i prossimi due o tre anni, con funzionalità che vanno oltre le attività come la sintesi di informazioni per intraprendere effettivamente azioni per conto degli individui.
Invece di presentare agli utenti le opzioni l’Agentic AI sara’ in grado di scegliere l’opzione ottimale per l’utente se viene concessa l’autorizzazione.
Cos’e’ l’Agentic AI
Sfruttando modelli linguistici di grandi dimensioni, enormi set di dati, potenza di calcolo scalabile e connettività, l’Agentic AI può impostare i propri obiettivi, pianificare flussi di lavoro ottimizzati, prendere decisioni e adattarsi alle mutevoli circostanze.
Questa maggiore autonomia e ragionamento contestuale sbloccano nuove frontiere per automatizzare in modo affidabile i flussi di lavoro aziendali complessi end-to-end con una supervisione umana ridotta.
Siamo di fronte a sistemi di intelligenza artificiale progettati per perseguire autonomamente obiettivi e flussi di lavoro complessi con una supervisione umana diretta limitata.
Piattaforme tecnologiche per governare l’AI
I Bias dei modelli, le piattaforme e gli strumenti di governance dell’AI sono in quella fase di sviluppo volto ad aumentare la fiducia degli user attraverso la trasparenza e modelli etici.
Questo approccio etico consentirà di prevenire output dannosi.
L’etica dell’AI è un insieme di linee guida che fornisce consigli sulla progettazione e sui risultati dell’AI. L’AI ha il potenziale di amplificare e ampliare i pregiudizi umani a una velocità senza precedenti.
Con l’emergere dei big data, le aziende hanno rivolto maggiore attenzione alla promozione dell’automazione e di un processo decisionale basato sui dati in tutte le loro organizzazioni.
Sebbene l’intenzione sia di solito, se non sempre, quella di migliorare i risultati di business, le aziende stanno sperimentando conseguenze impreviste in alcune delle loro applicazioni di AI, in particolare a causa di una scarsa progettazione della ricerca iniziale e di set di dati distorti.
Accanto alla necessita’ di sviluppare modelli etici e’ importante focalizzare l’attenzione su strumenti che consentano di identificare, monitorare e valutare i deepfake.
I deepfake sono foto, video e audio creati grazie a software di intelligenza artificiale (AI) che, partendo da contenuti reali (immagini e audio), riescono a modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo e a imitare fedelmente una determinata voce.
La crittografia post-quantistica
Con il termine crittografia post-quantum si indica lo sviluppo di algoritmi crittografici che utilizzeranno i computer quantistici per crittografare le comunicazioni macchina-macchina.
La possibilità che i futuri computer quantistici su larga scala siano in grado di violare molti degli attuali sistemi di crittografia a chiave pubblica, può rappresentare una seria minaccia per la riservatezza e l’integrità delle comunicazioni digitali sia su Internet che altrove.
Le organizzazioni che non si sono preparate alla crittografia post-quantum si troveranno in grossa difficoltà nel proteggere i domini dei loro siti web, i server e altre infrastrutture PKI.
L’infrastruttura a chiave pubblica (PKI) è un sistema di processi, tecnologie e policy che consente di crittografare e firmare i dati.
Con la PKI e’ possibile emettere certificati digitali che autenticano l’identità di utenti, dispositivi o servizi.
Questi certificati creano una connessione protetta sia per le pagine web pubbliche sia per i sistemi privati, come ad esempio le reti private virtuali (VPN), il Wi-Fi interno, le pagine Wiki e altri servizi che supportano la MFA.
Green Cloud Computing
L’adozione di una strategia basata sul Green Cloud non costituisce solo un vantaggio in termini di KPI da utilizzare all’interno dei bilanci di sostenibilità, ma testimonia l’impegno delle aziende che lo adottano ad avvicinarsi a una politica sempre più eco-friendly, con ricadute positive sull’immagine aziendale.
Nella sostenibilità che il Cloud è in grado di raggiungere, gioca un ruolo fondamentale la progettazione delle infrastrutture, che consente una significativa riduzione dei consumi energetici.
Non tutti i cloud provider, infatti, hanno gli stessi livelli di efficienza e solo alcuni offrono servizi trasparenti che permettono di misurare e monitorare le emissioni collegate alla fruizione del servizio di ogni specifica organizzazione.
L’efficienza energetica tocca vari aspetti di questi ambienti sempre più complessi e sofisticati. Un centro di calcolo per il Cloud Computing Green utilizza più strategie complementari tra loro per migliorare l’impatto ambientale.
Vediamo le principali.
La fornitura di energia deve essere di tipo rinnovabile.
L’ambiente dove ha sede il data center deve essere ristrutturato o progettato da zero per essere più efficiente.
In particolare, per quanto riguarda il raffreddamento, cioè la parte consuma circa il 50% dell’energia richiesta dal data center.
Una politica diffusa è spostare i centri di calcolo verso il nord Europa, in aree con un clima più freddo, in alternativa sottoterra o addirittura sott’acqua, in container sigillati che permettano uno scambio di calore con l’ambiente circostante.
In altri casi vengono utilizzati sistemi di dispersione del calore.
Sia il software che l’hardware giocano un ruolo importante: processori, memorie e apparati di rete devono essere a basso consumo.
Fondamentale è l’uso della virtualizzazione e di architetture di software-defined infrastructure (SDI), per consolidare più server meno efficienti in pochi nuclei di calcolo e sistemi di storage più grandi e più efficienti.
È necessario, quindi, mettere in atto strategie per l’ottimizzazione del software.
Le organizzazioni potrebbero presto iniziare a spostare algoritmi ad alta intensità energetica verso i fornitori di green cloud, riscrivere algoritmi per consumare meno energia o monitorare più da vicino l’uso di energia per l’intelligenza artificiale generativa.
Le organizzazioni dovrebbero adottare un approccio di calcolo ibrido in futuro.
Robot collaborativi
Anche se ci vorranno dai tre ai dieci anni, i robot polifunzionali in grado di svolgere più funzioni, piuttosto che essere limitati a un singolo compito, dovrebbero diventare parte della vita quotidiana.
Entro il 2030, secondo Gartner, l’80% degli esseri umani potrebbe impegnarsi quotidianamente con robot polifunzionali intelligenti.
La robotica collaborativa è una risorsa che ha fortemente ottimizzato il rapporto tra uomo e macchina, ottenendo importanti risultati in svariati settori e applicazioni.
Si fonda sull’automazione e rappresenta un ponte verso un modello produttivo totalmente innovativo e all’avanguardia.
Grazie alla stretta connessione con le tecniche di Intelligenza Artificiale e alla capacità di ridisegnare i paradigmi industriali, la robotica e i suoi prossimi sviluppi sono considerati a tutti gli effetti un primo passo verso l’Industria 5.0, impattando notevolmente non solo i settori produttivi, ma anche la società nel suo insieme.