Quest'anno non ho potuto essere presente di persona a Las Vegas, ma il nostro team SnapLogic era lì al completo, a parlare con clienti e partner che si sono riuniti nella favolosa Las Vegas per ascoltare le ultime novità sullo stato del settore. Le conversazioni hanno riguardato l'intelligenza artificiale, l'integrazione di dati e applicazioni, la governance, i lignaggi e l'automazione, argomenti che ben si allineano con quelli discussi dai dirigenti di AWS nei loro discorsi programmatici.
MCP è sicuramente al centro dell'attenzione di molte persone. Tale interesse è destinato a continuare ora che Anthropic ha reso open source il protocollo e lo ha donato a una nuova fondazione dedicata all'intelligenza artificiale agentica.
Quello che segue non sarà un resoconto esaustivo di tutto ciò che è stato discusso nei discorsi programmatici; alcune cose rimarranno a Las Vegas, ma c'era così tanto di cui parlare che alcuni annunci hanno iniziato a trapelare già prima dell'evento. Quello che cercherò di fare qui è segnalare alcuni degli annunci che sono più immediatamente rilevanti per gli utenti SnapLogic.
L'anno dell'intelligenza artificiale
Il 2025 è stato sicuramente l'anno dell'IA all'AWS re:Invent. L'anno scorso, il primo riferimento all'IA è arrivato solo a metà del discorso di apertura di Matt Garman. Quest'anno, invece, ci siamo tuffati quasi immediatamente nell'argomento, con la promessa che gli agenti avrebbero potuto aumentare il loro impatto di 10 volte. Questa affermazione audace è stata spiegata da una rinnovata attenzione agli sviluppatori, che è stata il filo conduttore di tutti e tre i grandi discorsi di apertura di quest'anno.
La promessa è che AWS si occuperà dell'infrastruttura in modo che gli sviluppatori possano costruire, in un aggiornamento di quella che, dopotutto, è stata la promessa del marchio AWS sin dal primo giorno, ma aggiornata per l'era dell'IA. Non è più sufficiente fornire semplicemente una grande infrastruttura, anche se ce n'era in abbondanza, con un rinnovato impegno a fornire "un'infrastruttura IA scalabile e potente per alimentare i carichi di lavoro IA al minor costo possibile".
Molti altri clienti AWS hanno aderito a SnapLogic per sviluppare su AWS Bedrock: secondo quanto ci è stato riferito, il numero è raddoppiato rispetto allo scorso anno. Sono disponibili tutti i tipi di nuovi modelli, sia da AWS che da partner come Mistral.
Molti di questi sviluppatori stanno scoprendo che i modelli da soli non sono sufficienti. Per essere utili, hanno bisogno di conoscenze contestuali specifiche sul processo che devono implementare. Questa profonda integrazione tra modello e dati è la chiave del successo. Il settore utilizza già da tempo la generazione aumentata dal recupero (RAG), ma AWS propone di fare un ulteriore passo avanti con il suo nuovo modello di "formazione aperta" Nova Forge.
Abbiamo approfondito questo nuovo modello grazie al dottor Swami Sivasubramanian. Fondamentalmente, il problema riguarda il modo in cui fornire ai modelli il contesto specifico del dominio in cui devono operare. Storicamente sono stati adottati due approcci:
- Addestrare un modello da zero. Questo approccio è incredibilmente costoso, perché oltre a un'enorme potenza di calcolo, richiede anche competenze e abilità approfondite, nonché una certa quantità di tempo per il processo di addestramento.
- Partire da un modello pre-addestrato e utilizzare il fine-tuning o l'apprendimento per rinforzo. Questo approccio funziona fino a un certo punto, ma la sua efficacia è limitata. Esiste inoltre il rischio che il modello diventi troppo concentrato su un compito specifico a causa di un eccessivo addestramento e perda le sue capacità originali.
Il nuovo approccio di Nova Forge utilizza ciò che AWS definisce "messa a punto del rinforzo" per evitare la complessità e i costi della formazione personalizzata. Queste "novelle" offrono un miglioramento medio del 66% in termini di precisione rispetto ai modelli di base, fornendo almeno alcuni dei vantaggi di un modello personalizzato, ma senza il tempo e le spese che sarebbero altrimenti necessari.
Costruisci, poi distribuisci
La creazione di modelli con conoscenze contestuali più specifiche è stato uno dei fattori che hanno frenato l'implementazione produttiva dell'IA, ma un altro fattore che ha mantenuto l'IA nella "prigione della prova di concetto" è stato il controllo e la governance. Come ha affermato Matt Garman, "i confini danno sicurezza". A dimostrazione della maturità del mercato dell'IA, sono stati fatti numerosi annunci relativi alla definizione di politiche e all'osservazione del comportamento degli agenti.
Le nuove politiche di Bedrock Agent Core consentono agli utenti di porre dei limiti al comportamento degli agenti, non solo agli strumenti e ai dati a cui possono accedere. L'esempio utilizzato nel discorso di apertura era quello di un agente in grado di elaborare solo i resi di articoli che costano meno di 1000 dollari, con la politica specificata in una sintassi dall'aspetto molto naturale.
Anche i sistemi che si basano su singoli modelli di IA possono modificare il loro comportamento nel tempo, man mano che il modello sottostante cambia, e naturalmente questo problema è accentuato nei sistemi agentici con combinazioni dinamiche di modelli e strumenti. Le nuove funzionalità di osservabilità aiutano a comprendere come questi agenti operano e comunicano, il che è un requisito fondamentale per la loro implementazione in ambienti di produzione dove interagiranno con clienti reali e sistemi reali.
L'intelligenza artificiale raggiunge la maturità
L'ultimo dei tre grandi interventi è stato quello del Dr. Werner Vogel, l'amato CTO/guru di Amazon, che si è rivelato essere il suo ultimo, dato che dal prossimo anno cederà il palco a voci più giovani. Forse in modo appropriato, ha concluso con una divagazione filosofica sul passato e sul futuro dell'informatica, sottolineando come l'intelligenza artificiale richieda ai tecnici di diventare "sviluppatori rinascimentali".
Sebbene Werner si rivolgesse esplicitamente agli sviluppatori "pro-code" e non agli utenti di piattaforme low-code/no-code come SnapLogic, gran parte dei suoi consigli sono comunque validi anche per noi. Il punto fondamentale di un ambiente di sviluppo grafico come quello di SnapLogic è che non richiede agli utenti di approfondire enormemente la tecnologia (diventando "a forma di I", secondo l'esempio di Werner), ma accoglie invece utenti con competenze ampie e una comprensione olistica.
Come ha affermato Werner, il cosiddetto "vibe coding" si scontra con il problema del "debito di verifica": l'IA è in grado di generare codice più velocemente di quanto sia possibile comprenderlo. Una rappresentazione grafica è di grande aiuto per consentire a un maggior numero di utenti di comprendere la logica di una pipeline. Gli assistenti IA come SnapGPT possono aiutare sia a generare pipeline, sia a comprenderle e svilupparle, consentendo agli utenti SnapLogic di diventare centauri: esperti umani in sella a potenti macchine.
L'intelligenza artificiale sta diventando mainstream. Matt Garman ha riferito che oltre cinquanta clienti AWS hanno elaborato più di un trilione di token ciascuno tramite Bedrock. Si tratta di un utilizzo molto intenso, ma per trasformarlo in valore reale è necessario che i modelli siano collegati ai dati e ai sistemi aziendali, osservati e migliorati nell'azione e governati dalle politiche aziendali in ogni fase. Parliamo di come SnapLogic rende possibile tutto questo.
Scopri il progetto per l'automazione basata sull'intelligenza artificiale in questo rapporto della Harvard Business Review, "Sfruttare il potere dell'IA generativa e degli agenti IA."





