Sistemi di controllo neurale
ad apprendimento dinamico
Problema
Nei sistemi robotici autonomi che devono operare in ambienti
difficilmente accessibili all’uomo (es. fondali marini,
deserti, superfici di altri pianeti, stazioni spaziali)
si pone spesso il problema di modificare le strategie di
controllo in funzione delle condizioni ambientali che si
presentano di volta in volta. Inoltre, se le caratteristiche
strutturali del robot si modificano nel tempo (ad esempio, in
seguito ad un urto, alcuni organi di manipolazione o di
locomozione potrebbero deformarsi) i parametri impostati in
fase di progetto potrebbero non essere piu’ adeguati allo
scopo, provocando un funzionamento anomalo del sistema.
Poiche’ non e’ possibile prevedere a priori tutte le
situazioni che possono presentarsi nella fase operativa,
sarebbe auspicabile introdurre nel sistema robotico un
meccanismo di autoapprendimento che consenta di modificare i
propri comportamenti in funzione dei fallimenti sperimentati.
Obiettivo
Lo scopo della tesi e’ quello di studiare uno schema di
apprendimento noto come reinforcement learning, e di
realizzare (in simulazione) un sistema di controllo neurale in
grado di apprendere sulla base dei fallimenti avvenuti nel
sistema controllato.
Descrizione del lavoro
Studiare i lavori esistenti in letteratura sul reinforcement
learning.
Definire un’applicazione di riferimento su cui sperimentare il
controllo neurale.
Realizzare un sistema di controllo simulato su calcolatore per
la messa a punto dei parametri e la sperimentazione in
ambiente virtuale.
Valutare la possibilita’ di utilizzare tecniche di controllo
ibrido (reti neurali + controllo classico) al fine di
migliorare il comportamento del sistema durante i fallimenti
del controllore neurale.