Si è conclusa venerdì 16 gennaio, al polo universitario di Veronetta, la Winter school del progetto Armada, un’iniziativa d’avanguardia nel panorama europeo dell’intelligenza artificiale (ia) che apre un progetto quadriennale coordinato dal dipartimento di Lingue e letterature straniere dell’Università di Verona.
Sotto la direzione scientifica di Matteo Lissandrini, docente di Informatica dell’Università di Verona, la rete internazionale Armada riunisce 8 organizzazioni partner da 7 Paesi diversi. L’obiettivo è ambizioso: formare una nuova generazione di 15 ricercatrici e ricercatori in Informatica e Scienze linguistiche capaci di rendere i modelli linguistici (Llm) applicati radicalmente più affidabili, trasparenti e sicuri.
Questa settimana di formazione intensiva è anche l’evento di apertura del progetto Armada, risultato vincitore di una prestigiosa selezione europea nell’ambito delle Marie Skłodowska-Curie actions (Msca), finanziata complessivamente con 3,2 milioni di euro.
Durante la settimana dal 12 al 16 gennaio, supervisori e dottorandi provenienti da tutto il mondo si sono riuniti per affrontare le criticità dell’ia in settori sensibili come la medicina, l’istruzione e la business intelligence. Al centro del dibattito, la necessità di trovare risposte alle importanti sfide che ci pone l’uso dei modelli linguistici in molti campi e le nuove regolamentazioni dell’Unione europea, garantendo che le tecnologie emergenti rispettino standard etici e qualitativi rigorosi in ambiti sensibili come la medicina, l’istruzione e la business intelligence.
La Winter school ha ospitato relatori di fama internazionale che hanno offerto approfondimenti tecnici e metodologici: Daniil Mirylenka (Google Deep Mind, Zurigo) ha illustrato le nuove frontiere dell’addestramento dei modelli ia, basate non più solo su feedback espliciti, ma su segnali impliciti (come i tempi di lettura degli utenti). Mirylenka ha messo in guardia dai rischi della sicofania (modelli troppo compiacenti) e del reward hacking, sottolineando la sfida di bilanciare la soddisfazione dell’utente con l’accuratezza della verità. Stefano Teso (Università di Trento) ha approfondito l’Integrazione neuro-simbolica (Nesy). Questa tecnica punta a unire la potenza computazionale del Deep learning con il rigore logico del ragionamento automatico, per creare sistemi che siano al contempo intelligenti, interpretabili dall’uomo, e rigorosi nei loro ragionamenti. Ines El Gataa (Università di Trieste) ha focalizzato l’attenzione sulla progettazione di sistemi non discriminanti. L’affidabilità, secondo la ricercatrice, non deve essere una metrica a posteriori, ma un requisito strutturale integrato in ogni fase del ciclo di vita del modello e che si estende al sistema organizzativo e sociale in cui viene applicato. Anna Kruspe (Università di Scienze applicate di Monaco – Hm), ha concluso i lavori con un workshop sui pregiudizi (bias) geografici e culturali nei Large language models, evidenziando come l’ia rischi spesso di riflettere una visione del mondo parziale, rendendo “invisibili” intere culture.
Con il progetto Armada, il dipartimento di Lingue e letterature straniere dell’Università di Verona si conferma un polo di interscambio e formazione internazionale per la ricerca scientifica interdisciplinare, contribuendo attivamente alla creazione di un’intelligenza artificiale che sia finalmente al servizio della società in modo equo e verificabile.
“Ad oggi, questi sistemi non sono molto diversi dal celebre orologio rotto che, per caso, indica l’ora giusta due volte al giorno: il semplice fatto che “funzionino” non può bastarci”, spiegano gli organizzatori. “È innegabile che siano rivoluzionari, ma affidarsi a essi senza comprendere le conseguenze nei casi limite è irresponsabile. Questa settimana ha fornito a tutte le partecipanti strumenti fondamentali che, ne sono certo, permetteranno loro di lasciare un segno positivo in questo ambito”.
























