Machine learning

Cigdem Beyan
Professore associato
Manuele Bicego
Professore associato
Alberto Castellini
Professore associato
Ferdinando Cicalese
Professore ordinario
Alessandro Farinelli
Professore ordinario
Rosalba Giugno
Professore ordinario
Daniele Meli
Ricercatore a tempo determinato
Vittorio Murino
Professore ordinario
Competenze
Argomento Persone Descrizione
Active learning Cigdem Beyan
Manuele Bicego
Ferdinando Cicalese
Rosalba Giugno
Nell'apprendimento attivo, il modello interroga iterativamente un oracolo (tipicamente un annotatore umano) per etichettare solo i punti dati più informativi che contribuiscono maggiormente a migliorare l'accuratezza del modello. In questo modo, l'apprendimento attivo riduce il costo dell'etichettatura e accelera il processo di apprendimento del modello. Questo approccio è particolarmente utile quando i dati etichettati sono scarsi o costosi da ottenere. La ricerca si concentra sullo sviluppo di criteri di selezione efficaci per identificare i punti dati più informativi da etichettare, migliorando così l'efficienza del processo di apprendimento attivo.
Adattamento/generalizzazione del dominio Cigdem Beyan
Vittorio Murino
Si riferisce a tecniche di apprendimento automatico che mirano a migliorare le prestazioni dei modelli quando applicati a nuovi domini o ambienti non visti. L'adattamento del dominio si concentra sul trasferimento delle conoscenze apprese da un dominio di origine (con abbondanti dati etichettati) a un dominio di destinazione (con dati etichettati limitati o assenti), superando le differenze distributive tra i due. D'altra parte, la generalizzazione del dominio mira a sviluppare modelli che possano generalizzare attraverso più domini, rendendoli robusti alle variazioni senza la necessità di riaddestrarli su ciascun dominio specifico. Questi approcci sono particolarmente importanti nelle applicazioni del mondo reale, dove i modelli devono funzionare in modo affidabile su set di dati diversificati e in evoluzione.
Apprendimento multimodale Cigdem Beyan
Vittorio Murino
Mira a integrare e analizzare dati provenienti da più fonti o modalità, come immagini, testo, audio e video, per migliorare le prestazioni e la comprensione dei modelli di apprendimento automatico. Combinando informazioni provenienti da diversi tipi di dati, l'apprendimento multimodale consente ai sistemi di catturare meglio la ricchezza e la complessità delle informazioni del mondo reale. Questo campo include sfide come la traduzione tra modalità, l'allineamento, la fusione, la rappresentazione efficace e altro. In questa area rientrano anche i modelli multimodali/visivi come CLIP, che collega testo e immagini, DALL-E, che genera immagini a partire da testo, BLIP, progettato per la didascalia delle immagini e per rispondere a domande visive, e modelli di linguaggio di grandi dimensioni come GPT-4 e LLaMA, che si estendono a funzioni multimodali per compiti come la generazione di immagini a partire dal testo.
Apprendimento multi-task Cigdem Beyan
Vittorio Murino
Un paradigma in cui un modello viene addestrato per risolvere simultaneamente più compiti correlati, condividendo conoscenze e rappresentazioni tra i compiti per migliorare le prestazioni complessive. Invece di addestrare modelli separati per ciascun compito, l'apprendimento multi-task sfrutta caratteristiche e parametri condivisi, permettendo al modello di apprendere rappresentazioni generalizzate che avvantaggiano tutti i compiti coinvolti. La ricerca in questo campo si concentra sul miglioramento della priorizzazione dei compiti, sull'equilibrio dell'importanza dei compiti, sulla progettazione di architetture più efficienti e sulla gestione del trasferimento negativo di conoscenza, in cui l'apprendimento di un compito danneggia le prestazioni degli altri. Inoltre, l'esplorazione di metodi per il peso dei compiti, per strati condivisi e specifici per il compito, e per tecniche di transfer learning è attivamente indagata per migliorare la versatilità e la scalabilità dei modelli multi-task.
Apprendimento non supervisionato Cigdem Beyan
Manuele Bicego
Alberto Castellini
Ferdinando Cicalese
Alessandro Farinelli
Rosalba Giugno
Vittorio Murino
È un approccio in cui i modelli vengono addestrati su dati non etichettati, con l'obiettivo di identificare schemi o strutture nascoste all'interno dei dati senza etichette predefinite. Viene comunemente utilizzato per compiti come il clustering, la riduzione della dimensionalità dei dati e il rilevamento delle anomalie. La ricerca aperta nell'apprendimento non supervisionato si concentra sul miglioramento della capacità di scoprire strutture significative in insiemi di dati complessi e ad alta dimensione, spesso con conoscenze preliminari limitate. Le sfide principali includono lo sviluppo di algoritmi di clustering più efficaci, il miglioramento dell'interpretabilità dei modelli che scoprono strutture latenti e la gestione di alti livelli di rumore o scarsità nei dati. Inoltre, sono in corso lavori per colmare il divario tra l'apprendimento non supervisionato e altri paradigmi, come l'apprendimento semi-supervisionato, auto-supervisionato e per contrasto, e per migliorare la robustezza dei modelli non supervisionati nelle applicazioni reali.
Apprendimento per rinforzo Alberto Castellini
Alessandro Farinelli
Il Reinforcement Learning (RL) è un paradigma di apprendimento in cui gli agenti imparano a risolvere problemi di decision-making sequenziale attraverso interazioni con l'ambiente. I I metodi di RL addestrano un modello considerando un segnale di ricompensa associato alle azioni eseguite nell'ambiente (ricompensa elevata per buone azioni e viceversa). Il modello mira a ottimizzare la ricompensa accumulata attesa nel tempo. Il RL è molto interessante per applicazioni pratiche (ad esempio, robotica, sistemi di raccomandazione) perché richiede specifiche minime dall'utente e può adattarsi a cambiamenti imprevedibili nell'ambiente. Le sfide principali riguardano l'ideazione di policy sicure per gli agenti, ad esempio, l'apprendimento evitando errori catastrofici (apprendimento di rinforzo sicuro e apprendimento di rinforzo offline), per valutare correttamente la qualità di un sistema addestrato, ad esempio, garantire che l'agente si comporterà correttamente in situazioni ignote e per migliorare l'efficienza nell'utilizzo dei singoli campioni, ad esempio, apprendimento per rinforzo basato su modello.
Apprendimento semi-supervisionato Cigdem Beyan
Vittorio Murino
Combina una piccola quantità di dati etichettati con una grande quantità di dati non etichettati durante l'addestramento. L'obiettivo è sfruttare l'abbondante disponibilità di dati non etichettati per migliorare il processo di apprendimento, utilizzando i dati etichettati limitati per guidare la comprensione del modello del compito. Questo approccio è particolarmente utile in scenari in cui etichettare i dati è costoso o richiede molto tempo, ma è disponibile un ampio insieme di dati non etichettati.
Apprendimento supervisionato Cigdem Beyan
Manuele Bicego
Alberto Castellini
Ferdinando Cicalese
Alessandro Farinelli
Rosalba Giugno
Vittorio Murino
È un approccio in cui i modelli vengono addestrati su dati etichettati per apprendere una mappatura dagli input agli output, consentendo loro di prevedere etichette corrette per nuovi dati non visti. Sebbene sia ampiamente utilizzato per compiti come classificazione, regressione e predizione di serie temporali, la ricerca attuale in questo campo affronta diverse sfide. Tra le questioni principali, si annoverano come rendere i modelli più robusti al rumore e alle incongruenze delle etichette, migliorare l’efficienza dei campioni per ridurre la necessità di grandi set di dati etichettati e abilitare un "trasferimento" di conoscenza (transfer learning) efficace tra compiti e domini diversi con dati etichettati limitati. Inoltre, affrontare problematiche di equità e bias nei modelli supervisionati, così come migliorare la scalabilità per gestire grandi set di dati senza compromettere le prestazioni, oltre che approcci basati su attenzione/transformer restano aree di ricerca attive.
Deep learning Cigdem Beyan
Alberto Castellini
Alessandro Farinelli
Rosalba Giugno
Vittorio Murino
Si focalizza sull'addestramento di reti neurali profonde, ovvero con numerosi strati, per apprendere automaticamente pattern e rappresentazioni da grandi quantità di dati. Utilizzando architetture come le reti neurali convoluzionali (CNN) per le immagini, le reti neurali ricorrenti (RNN) per i dati sequenziali e i transformer per compiti diversi, l'apprendimento profondo eccelle in compiti complessi come il riconoscimento delle immagini, l'elaborazione del linguaggio naturale, il riconoscimento vocale, il reinforcement learning, la predizione di serie temporali e la guida autonoma.
Intelligenza artificiale spiegabile Alberto Castellini
Alessandro Farinelli
Daniele Meli
L'obiettivo dell'IA spiegabile (XAI) è i) spiegare i modelli black-box; ii) sviluppare modelli di IA che siano interpretabili per costruzione. Ad esempio, ciò comporta l'analisi e la scoperta causale, i modelli logici di agenzia (con la programmazione logica) e l'apprendimento automatico logico (con la programmazione logica induttiva). XAI aiuta a caratterizzare l'accuratezza del modello, l'equità, la trasparenza e i risultati nel processo decisionale alimentato dall'IA; inoltre questo campo si concentra sui metodi per migliorare l'interpretazione dei modelli e delle decisioni utilizzando strumenti statistici e grafici.

Attività

Strutture

Condividi