Sistemi di controllo neurale
    ad apprendimento dinamico


Problema

Nei sistemi robotici autonomi che devono operare in ambienti difficilmente accessibili all’uomo (es. fondali marini, deserti, superfici di altri pianeti, stazioni spaziali) si pone spesso il problema di modificare le strategie di controllo in funzione delle condizioni ambientali che si presentano di volta in volta. Inoltre, se le caratteristiche strutturali del robot si modificano nel tempo (ad esempio, in seguito ad un urto, alcuni organi di manipolazione o di locomozione potrebbero deformarsi) i parametri impostati in fase di progetto potrebbero non essere piu’ adeguati allo scopo, provocando un funzionamento anomalo del sistema. Poiche’ non e’ possibile prevedere a priori tutte le situazioni che possono presentarsi nella fase operativa, sarebbe auspicabile introdurre nel sistema robotico un meccanismo di autoapprendimento che consenta di modificare i propri comportamenti in funzione dei fallimenti sperimentati.


Obiettivo

Lo scopo della tesi e’ quello di studiare uno schema di apprendimento noto come reinforcement learning, e di realizzare (in simulazione) un sistema di controllo neurale in grado di apprendere sulla base dei fallimenti avvenuti nel sistema controllato.


Descrizione del lavoro