IA e sicurezza: l’allerta del CERT‑AgID su LLM e Model Context Protocol

Data:

29/04/26, 13:30

Autore:

Andrea Angelo Aronica

Tempo di lettura:

il CERT‑AgID ha pubblicato una nuova analisi sui rischi di sicurezza legati all’uso dei modelli linguistici di grandi dimensioni (LLM) integrati con servizi esterni tramite il Model Context Protocol (MCP). Lo studio evidenzia come l’evoluzione dell’IA verso sistemi sempre più “agentici”, capaci non solo di rispondere ma anche di compiere azioni, introduca nuove superfici di rischio per i sistemi informativi pubblici e privati.  

In particolare, il CERT‑AgID segnala che un uso non controllato dell’MCP può consentire comportamenti imprevisti, come l’invio di richieste di rete arbitrarie, riconducibili a vulnerabilità di tipo SSRF (Server‑Side Request Forgery). Il problema non è l’intenzionalità dell’IA, ma l’assenza di controlli rigorosi tra il prompt, l’utilizzo dei tool e l’azione finale. 

Lo studio raccomanda quindi misure di sicurezza rafforzate, tra cui verifiche preventive sui parametri, allowlist restrittive, applicazione del principio del minimo privilegio e sistemi di monitoraggio e logging. L’analisi sottolinea la necessità di ripensare le strategie di difesa quando l’IA assume un ruolo operativo nei sistemi digitali, spostando il focus della sicurezza sul punto di integrazione tra modello e infrastruttura.  

Per informazioni, consulta il sito: agid.gov.it