Non è passato molto tempo prima che il nuovo protocollo NLWeb di Microsoft mostrasse i suoi limiti. Presentato con grande enfasi lo scorso maggio durante l’evento Build, NLWeb era stato descritto come l’equivalente dell’HTML per l’era dell’”Agentic Web”, un modo per portare le ricerche simili a ChatGPT su qualsiasi sito o app. Tuttavia, a poche settimane dal lancio, i ricercatori hanno già individuato una vulnerabilità critica.
Si tratta di una vulnerabilità di tipo path traversal, una delle più comuni, ma con conseguenze devastanti. Consente infatti a utenti remoti non autenticati di accedere a file sensibili, come le configurazioni di sistema e persino alle chiavi API di OpenAI o Gemini. Si tratta di un tipo di vulnerabilità vecchio quanto il Web stesso, e proprio per questo motivo è ancora più imbarazzante che sia passata inosservata in un progetto su cui Microsoft ha posto tanta enfasi e che dovrebbe rappresentare un salto evolutivo per l’AI.
A scoprirla sono stati Aonan Guan e Lei Wang, due ricercatori che hanno segnalato il problema a Microsoft il 28 maggio. Guan, senior cloud security engineer presso Wyze, ha condotto la ricerca in modo indipendente. Microsoft ha risolto il problema il 1° luglio, ma non ha pubblicato un CVE, ovvero il codice standard utilizzato per classificare pubblicamente le vulnerabilità. Una scelta che ha fatto storcere il naso ai ricercatori, che spingono affinché venga emesso: senza un CVE, il problema rimane sottotraccia e difficile da monitorare, anche se il protocollo non è ancora ampiamente adottato.
“Questo caso dimostra quanto sia importante rivalutare l’impatto delle vecchie vulnerabilità nel contesto dei nuovi sistemi basati sull’intelligenza artificiale”, ha dichiarato Guan. “Ora non si compromette solo un server, ma anche il cervello dell’agente AI”.
Microsoft, tramite il portavoce Ben Hope, ha dichiarato:
“Il problema è stato segnalato in modo responsabile e abbiamo aggiornato il repository open source”.
L’azienda ha inoltre dichiarato che il codice vulnerabile “non è utilizzato in nessuno dei nostri prodotti” e che “i clienti che utilizzano il repository sono automaticamente protetti”.
Ma secondo Guan, la protezione automatica non basta. Chi utilizza NLWeb deve eseguire manualmente una nuova build per risolvere il problema. Finché ciò non avviene, qualsiasi implementazione pubblica del protocollo rimane esposta al rischio di accesso non autorizzato ai file .env che spesso contengono chiavi API.
Ed è proprio questo l’aspetto più critico. Perdere un file .env in un’applicazione web è già grave. Ma in un agente AI quel file rappresenta molto di più.
“Non si tratta solo di rubare una credenziale”, spiega Guan. “È come rubare la capacità stessa dell’agente di pensare, ragionare e agire. Le conseguenze possono essere disastrose: abuso delle API, clonazione malevola degli agenti e perdite economiche enormi”.
La scoperta arriva mentre Microsoft continua a integrare l’intelligenza artificiale nei propri sistemi, puntando anche sul Model Context Protocol (MCP), una tecnologia che ha già attirato l’attenzione dei ricercatori per i potenziali rischi simili. Se questo primo intoppo con NLWeb è indicativo di qualcosa, è che Microsoft dovrà prestare maggiore attenzione al bilanciamento tra velocità dell’innovazione e solidità della sicurezza.
Leggi o Aggiungi Commenti