Alessandro Farinelli è professore ordinario presso l'Università di Verona, Dipartimento di Informatica.
I suoi interessi di ricerca si focalizzano sullo sviluppo di metodologie innovative per sistemi di Intelligenza Artificiale con applicazioni nel campo della robotica. In particolare, le sue principali tematiche di ricerca si concentrano su:
-- coordinamento di sistemi multi-agente
-- ottimizzazione distribuita
-- apprendimento per rinforzo
-- analisi dei dati per sistemi ciberfisici.
Alessandro Farinelli è stato responsabile scientifico per numerosi progetti di ricerca nazionali ed internazionali focalizzati su tematiche relative allo sviluppo di sistemi di Intelligenza Artificiale. I suoi contributi scientifici si rivolgono principalmente a riviste internazionali nell'area dell'Intelligenza Artificiale (e.g., Artificial Intelligence e Journal of Artificial Intelligence Research) e sistemi robotici intelligenti (Autonomous Robots e Robotics and Autonomous Systems). Le principali conferenze cui contribuisce, sia come relatore che come organizzatore, includono International Conference on Autonomous Agents and Multi-Agent Systems (AAMAS), International Joint Conference on Artificial Intelligence (IJCAI) e International Conference on Intelligent Robots and Systems (IROS).
Insegnamenti attivi nel periodo selezionato: 48.
Clicca sull'insegnamento per vedere orari e dettagli del corso.
Di seguito sono elencati gli eventi e gli insegnamenti di Terza Missione collegati al docente:
Argomento | Descrizione | Area di ricerca |
---|---|---|
Agenti intelligenti | L'area di ricerca degli agenti intelligenti si occupa di progettare e sviluppare entita' autonome in grado di percepire, comprendere ed interagire con l'ambiente in cui gli agenti operano. Alcuni degli argomenti di tale area di ricerca sono: pianificazione delle azioni, apprendimento, ragionamento in condizioni di incertezza. |
Intelligenza Artificiale
Distributed artificial intelligence |
AI e robotica | Applicazione di tecniche di intelligenza artificiale per aumentare il livello di autonomia dei sistemi robotici. Ciò include l'adattamento di algoritmi per la pianificazione autonoma e l'apprendimento per rinforzo per: i) gestire i vincoli cyber-fisici imposti dai robot che operano in scenari parzialmente osservabili e incerti; ii) garantire l'affidabilità e la robustezza dei sistemi robotici che operano in ambienti aperti (ad esempio, interagendo con gli esseri umani e altri sistemi robotici); iii) facilitare l'uso di sistemi robotici in applicazioni realistiche proponendo nuovi paradigmi di interazione con gli utenti (ad esempio, addestrare un robot a eseguire un compito piuttosto che specificare un programma di controllo). |
Intelligenza Artificiale
Planning and scheduling |
Apprendimento non supervisionato | È un approccio in cui i modelli vengono addestrati su dati non etichettati, con l'obiettivo di identificare schemi o strutture nascoste all'interno dei dati senza etichette predefinite. Viene comunemente utilizzato per compiti come il clustering, la riduzione della dimensionalità dei dati e il rilevamento delle anomalie. La ricerca aperta nell'apprendimento non supervisionato si concentra sul miglioramento della capacità di scoprire strutture significative in insiemi di dati complessi e ad alta dimensione, spesso con conoscenze preliminari limitate. Le sfide principali includono lo sviluppo di algoritmi di clustering più efficaci, il miglioramento dell'interpretabilità dei modelli che scoprono strutture latenti e la gestione di alti livelli di rumore o scarsità nei dati. Inoltre, sono in corso lavori per colmare il divario tra l'apprendimento non supervisionato e altri paradigmi, come l'apprendimento semi-supervisionato, auto-supervisionato e per contrasto, e per migliorare la robustezza dei modelli non supervisionati nelle applicazioni reali. |
Intelligenza Artificiale
Machine learning |
Apprendimento per rinforzo | Il Reinforcement Learning (RL) è un paradigma di apprendimento in cui gli agenti imparano a risolvere problemi di decision-making sequenziale attraverso interazioni con l'ambiente. I I metodi di RL addestrano un modello considerando un segnale di ricompensa associato alle azioni eseguite nell'ambiente (ricompensa elevata per buone azioni e viceversa). Il modello mira a ottimizzare la ricompensa accumulata attesa nel tempo. Il RL è molto interessante per applicazioni pratiche (ad esempio, robotica, sistemi di raccomandazione) perché richiede specifiche minime dall'utente e può adattarsi a cambiamenti imprevedibili nell'ambiente. Le sfide principali riguardano l'ideazione di policy sicure per gli agenti, ad esempio, l'apprendimento evitando errori catastrofici (apprendimento di rinforzo sicuro e apprendimento di rinforzo offline), per valutare correttamente la qualità di un sistema addestrato, ad esempio, garantire che l'agente si comporterà correttamente in situazioni ignote e per migliorare l'efficienza nell'utilizzo dei singoli campioni, ad esempio, apprendimento per rinforzo basato su modello. |
Intelligenza Artificiale
Machine learning |
Apprendimento supervisionato | È un approccio in cui i modelli vengono addestrati su dati etichettati per apprendere una mappatura dagli input agli output, consentendo loro di prevedere etichette corrette per nuovi dati non visti. Sebbene sia ampiamente utilizzato per compiti come classificazione, regressione e predizione di serie temporali, la ricerca attuale in questo campo affronta diverse sfide. Tra le questioni principali, si annoverano come rendere i modelli più robusti al rumore e alle incongruenze delle etichette, migliorare l’efficienza dei campioni per ridurre la necessità di grandi set di dati etichettati e abilitare un "trasferimento" di conoscenza (transfer learning) efficace tra compiti e domini diversi con dati etichettati limitati. Inoltre, affrontare problematiche di equità e bias nei modelli supervisionati, così come migliorare la scalabilità per gestire grandi set di dati senza compromettere le prestazioni, oltre che approcci basati su attenzione/transformer restano aree di ricerca attive. |
Intelligenza Artificiale
Machine learning |
Deep learning | Si focalizza sull'addestramento di reti neurali profonde, ovvero con numerosi strati, per apprendere automaticamente pattern e rappresentazioni da grandi quantità di dati. Utilizzando architetture come le reti neurali convoluzionali (CNN) per le immagini, le reti neurali ricorrenti (RNN) per i dati sequenziali e i transformer per compiti diversi, l'apprendimento profondo eccelle in compiti complessi come il riconoscimento delle immagini, l'elaborazione del linguaggio naturale, il riconoscimento vocale, il reinforcement learning, la predizione di serie temporali e la guida autonoma. |
Intelligenza Artificiale
Machine learning |
Intelligenza artificiale spiegabile | L'obiettivo dell'IA spiegabile (XAI) è i) spiegare i modelli black-box; ii) sviluppare modelli di IA che siano interpretabili per costruzione. Ad esempio, ciò comporta l'analisi e la scoperta causale, i modelli logici di agenzia (con la programmazione logica) e l'apprendimento automatico logico (con la programmazione logica induttiva). XAI aiuta a caratterizzare l'accuratezza del modello, l'equità, la trasparenza e i risultati nel processo decisionale alimentato dall'IA; inoltre questo campo si concentra sui metodi per migliorare l'interpretazione dei modelli e delle decisioni utilizzando strumenti statistici e grafici. |
Intelligenza Artificiale
Machine learning |
Pianificazione con incertezza | La pianificazione con incertezza si concentra su processi decisionali sequenziali in ambienti incerti, cioè in situazioni con informazioni imperfette. I processi decisionali di Markov (completamente o parzialmente osservabili) vengono utilizzati per rappresentare questi contesti. L'obiettivo della pianificazione con incertezza è generare politiche ottimali per questi problemi, vale a dire funzioni in grado di suggerire azioni ottimali nelle situazioni in cui l'agente opera. Le principali sfide riguardano la gestione di grandi problemi (scalabilità), l'acquisizione di nuove conoscenze sull'ambiente (adattabilità), la prevenzione di comportamenti indesiderati (safety), il miglioramento sicuro delle politiche (robustezza), l'interazione con gli esseri umani (human-in-the-loop), il supporto alla comprensione umana (spiegabilità), il collegamento tra pianificazione e apprendimento per rinforzo (RL basato su modelli), il collegamento tra pianificazione simbolica e probabilistica/data-driven. Tra gli approcci più recenti per affrontare queste sfide, i metodi online basati su Monte Carlo Tree Search hanno ottenuto ottimi risultati negli ultimi anni sia nei giochi strategici (ad esempio il gioco Go) sia nelle applicazioni del mondo reale (ad esempio, robotica, sistemi cyber-fisici e sistemi di supporto alle decisioni). |
Intelligenza Artificiale
Planning and scheduling |
Pianificazione multi-agente | La pianificazione multiagente si occupa di sviluppare approcci di pianificazione applicati ai sistemi multiagente. L'obiettivo principale di queste tecniche è generare soluzioni per il processi decisionali sequenziali che promuovano la sinergia tra più agenti autonomi per raggiungere obiettivi collettivi. Tra gli argomenti principali di questo campo ci sono l'ottimizzazione decentralizzata, la pianificazione di percorsi multiagente, l'apprendimento multiagente, la cooperazione e il coordinamento tra agenti. Strumenti importanti in questo ambiti sono, ad esempio, i coordination graph utilizzati nei recenti algoritmi di pianificazione multiagente ed in quelli di apprendimento per rinforzo multi-agente (MARL) in cui il coordinamento tra agenti è essenziale per portare a termine il compito. I grafici di coordinamento consentono di rappresentare il modo in cui gli agenti possono coordinarsi utilizzando una comunicazione tramite passaggio di messaggi. Le applicazioni della pianificazione multiagente si estendono su un ampio insieme di domini tra cui guida autonoma, logistica (ad esempio, gestione di flotte di robot autonomi), monitoraggio ambientale (flotte di droni mobili per l'acquisizione di dati). |
Intelligenza Artificiale
Planning and scheduling |
Pianificazione neurosimbolica | L'IA neurosimbolica si concentra sulla combinazione dell'IA standard basata sui dati (ad esempio, l'apprendimento per rinforzo) con approcci simbolici (ad esempio, la programmazione logica e la programmazione logica induttiva), al fine di migliorare la spiegabilità dei sistemi di IA (ad esempio, gli agenti autonomi), la loro efficacia nell'interazione uomo-robot e favorire l'acquisizione incrementale di conoscenza e la generalizzazione nella pianificazione. |
Intelligenza Artificiale
Planning and scheduling |
Sistemi Multiagente | L'area di ricerca dei sistemi multiagente si occupa di progettare e sviluppare sistemi in cui agenti intelligenti interagiscono tra loro, con l'ambiente e con persone. Questa area di ricerca si folalizza sull'interazione ed integrazione di tecniche di soluzione relative a pianificazione per sistemi multi-agente, apprendimento statistico, apprendimento per rinforzo in sistemi multi-agente e teoria dei giochi. |
Intelligenza Artificiale
Distributed artificial intelligence |
Carica | Organo collegiale |
---|---|
componente | Collegio dei Docenti del Dottorato in Informatica - Dipartimento Informatica |
componente | Collegio Didattico di Informatica - Dipartimento Informatica |
componente | Collegio didattico Interateneo di Ingegneria dell’Informazione - Dipartimento Ingegneria per la medicina di innovazione |
componente | Consiglio del Dipartimento di Informatica - Dipartimento Informatica |
direttore di dipartimento | Senato Accademico |
******** CSS e script comuni siti DOL - frase 9957 ********p>