Mettere a punto metodi e strumenti per rendere più affidabili i modelli di intelligenza artificiale basati sul linguaggio. È l’obiettivo di Armada, acronimo in inglese di Esplorazione e analisi affidabile di dati specifici del dominio in modo conversazionale, il nuovo progetto di Ai risultato vincitore di una selezione europea che permetterà al dipartimento di Lingue e Letterature straniere dell’università di Verona di essere coordinatore di una doctoral network nell’ambito delle Marie Sklodowska – Curie Actions( Msca).
Il progetto ha ottenuto un finanziamento totale di 3.2 milioni di euro di cui 518.875 euro per UniVR ed inizierà l’1 marzo 2025 per una durata complessiva di quattro anni.
Referente scientifico di Armada è Matteo Lissandrini, docente di Informatica nel dipartimento di Lingue e letterature straniere che coordina il progetto insieme a Roberta Facchinetti, direttrice dello stesso dipartimento e Valeria Franceschi, docente di Lingua inglese. Il progetto nasce da una collaborazione di 12 partner in 7 nazioni (Italia, Austria, Danimarca, Francia, Grecia, Svezia e Svizzera), coinvolgendo le università di Utrecht, Paris Cité, Aarhus, Grenobles Alpes, l’università tecnica di Vienna, l’università di scienze applicate di Zurigo e l’università di Zurigo, a cui si aggiungono il centro di ricerca Athena di Atene, l’istituto reale di tecnologia di Stoccolma e il Cnrs in Francia. Farà parte del consorzio anche Ibm Research in Zurigo.L’obiettivo è implementare programmi di dottorato tramite partenariati di organizzazioni di diversi settori per formare dottorandi altamente qualificati, stimolare la loro creatività, migliorare le loro capacità di innovazione e aumentare la loro occupabilità a lungo termine.
“Armada – spiegano – nasce con l’obiettivo di porre rimedio al sempre più pressante problema della poca affidabilità dei modelli artificiali del linguaggio, proponendo nel concreto la formazione di 15 ricercatrici e ricercatori nello studio di metodi per garantire la affidabilità e la trasparenza dei modelli linguistici di intelligenza artificiale nel contesto della conversazione, specialmente quando impiegati per analisi in settori sensibili come la medicina, l’educazione e l’intelligence aziendale. È proprio in questi campi che vengono riscontrate le criticità maggiori nell’utilizzo di software di intelligenza artificiale. Scienziati o professionisti che si avvalgono degli assistenti digitali per analizzare e riassumere dati, estrarre tendenze, individuare criticità o dare consigli su azioni da compiere spesso riscontrano che i sistemi stessi sono mal equipaggiati in termini di aderenza alla realtà (soundness), rispetto di canoni, regole e procedure del contesto applicativo (grounding), capacità di esplicitare i motivi di una determinata risposta (explainability), capacità di imparare dai propri errori o dalle ambiguità inerenti in ciò che l’interlocutore umano chiede (guidance), spropositata quantità di risorse che richiedono (efficiency)”.
Sara Mauroner
photo credits: Martina Cerpelloni, BrianPenny, pixabay