Il CERT-AgID ha pubblicato il paper “Bias di autorità nei modelli RAG: quando le istruzioni prevalgono sui fatti”, dedicato a come i sistemi di intelligenza artificiale gestiscono informazioni contrastanti. Lo studio analizza il comportamento dei modelli di Retrieval Augmented Generation (RAG) quando, nel contesto fornito, convivono dati fattuali e istruzioni prescrittive in conflitto tra loro.
La ricerca mostra che, per un modello linguistico, fatti e istruzioni sono entrambe semplici sequenze di testo: in alcuni casi, l’IA tende quindi a privilegiare indicazioni percepite come “autorevoli”, anche quando sono in contrasto con l’evidenza. Il lavoro apre nuove prospettive per valutare la resilienza dei modelli e migliorare l’affidabilità delle risposte in contesti informativi complessi.
Fonte: agid.gov.it