Laboratorio di Intelligenza Artificiale e Sistemi in Tempo Reale

0
577
Da sinistra a destra dall’alto in basso – Aldo Franco Dragoni, Andrea Claudi, Luca Palazzo, Paolo Sernani Gianluca Dolcini, Gianluigi Biancucci.

A colloquio con il professor Aldo Franco Dragoni, che in Ancona, presso il Dipartimento di Ingegneria dell’Informazione dell’Università Politecnica delle Marche, ha fondato e dirige il Laboratorio di Intelligenza Artificiale e Sistemi in Tempo Reale AIRTLab. Al servizio della piccola e media impresa.

Com’ha avuto inizio AIRTLab?

AIRTLab ha 2 anni di vita, ma la sua genesi può essere ricondotta a tre fattori, il primo dei quali richiama alla memoria il lontano 1988. Allora la neonata Associazione Italiana per l’Intelligenza Artificiale (AI*IA) tenne il suo primo convegno proprio qui ad Ancona all’Università Politecnica delle Marche. Mentore locale dello storico evento fu il professor Mauro Di Manzo che fino al 1991 insegnò qui i fondamenti dell’Intelligenza Artificiale. Per noi suoi tesisti, furono indubbiamente momenti di grande eccitazione scientifica e professionale, e oggi siamo ben 4 dei 5 professori di Informatica attualmente in servizio presso la Facoltà, che muovemmo proprio in quel contesto i primi passi da giovani ricercatori. Inoltre, in anni molto più recenti, la nostra Facoltà ha inteso recepire alcune istanze che richiamavano all’importanza della progettazione e gestione di sistemi informatici i cui tempi di risposta fossero rigidamente funzionali alle scadenze imposte da esigenze di servizio provenienti dal mondo reale, come sensori e attuatori, con l’istituzione dell’insegnamento di Sistemi in Tempo Reale che, in assenza di curricula scientifici locali specifici sull’argomento, fu pro-tempore affidato a me. Infine ci ha spronato il continuo predicato del Rettore, professor Marco Pacetti, ad avvicinare la ricerca al bene sociale, l’Università al Territorio, per mettere quindi le potenzialità delle giovani menti a servizio delle esigenze del comparto produttivo locale. Negli ultimi 20 anni molte ricerche nate sotto l’amplissimo cappello dell’Intelligenza Artificiale sono diventate tecnologie mature, ma l’elevato livello di innovazione e l’entità degli investimenti richiesti ne hanno per lo più limitato l’impiego dentro gli interessi e le possibilità di grandi compartimenti industriali. Inoltre, le tematiche IA, un po’ per vezzo un po’ per l’effettiva complessità dei loro scenari applicativi, sono sempre state piuttosto lontane dall’habitat mentale del real time. L’ambizione da cui nasce AIRTLab è quindi quella di coniugare l’IA alle tempistiche imposte dal mondo in cui i suoi artefatti andranno a operare, e al contempo contribuire a portare le tecnologie nate in ambito IA al servizio della piccola e media impresa locale, perché, secondo noi, queste tecnologie sono oggi alla sua portata.

 

Il microrobot Marvin durante le fasi del suo sviluppo: ancora il cellulare con visione stereoscopica era collegato tramite cavo (adesso tramite BlueTooth).

Nello specifico dunque che iniziative portate avanti?

AIRLab è un laboratorio universitario e come tale intende rimanere aperto a tutte le tematiche che hanno caratterizzato in questi anni l’attività scientifica del gruppo da cui ha preso vita. Per questo, per esempio, continua a supportare il tema dell’IA nella medicina, ideando e organizzando l’International Workshop on Artificial Intelligence and NetMedicine. La sua vocazione specifica però è collaborare con le altre anime del Dipartimento di Ingegneria dell’Informazione in cui opera, al fine di supportare programmi di ricerca finalizzati alla promozione dell’innovazione tecnologica. Filo conduttore delle nostre ricerche sono innanzitutto le attività intellettive che intendiamo abilitare nei nostri agenti artificiali, processi complessi che richiedono elevati gradi di parallelismo, sia a livello software che a livello hardware. Infatti, l’acquisizione di dati provenienti da vari sensori, l’elaborazione di strategie e piani di azione e la conseguente traduzione di questi ultimi in messaggi per gli attuatori, sono attività parallele che richiedono già di per sé di essere implementate su piattaforme multitasking, con parallelismo a livello software. Se poi nel comparto “acquisizione informazioni” mettiamo anche 2 telecamere per la visione stereoscopica e un sistema di riconoscimento vocale, e fra gli attuatori mettiamo un sistema di sintesi vocale per comunicare con gli esseri umani, allora il complesso delle attività da fare in parallelo richiederà probabilmente anche un certo grado di parallelismo a livello hardware. Perché questo complesso di attività abbia un senso è necessario venga eseguito in tempi utili a realizzare un’effettiva interazione con l’ambiente e con gli esseri umani. E questo implica che le task vadano programmate in maniera tale da comunicare esplicitamente le proprie scadenze temporali, che dipenderanno solo dall’attività espletata, e i loro tempi massimi di elaborazione, che dipenderanno anche dal sistema di elaborazione che le eseguirà. Ciò non avrebbe però senso se il sistema operativo che media il rapporto fra tali task, programmate a livello utente, e l’hardware, gestito con priorità e protezioni a livello kernel, non fosse in grado di gestire la schedulazione delle task in funzione delle loro deadline e in considerazione dei loro tempi massimi di elaborazione. Quindi esiste una nuova generazione di sistemi operativi in tempo reale specifici per queste applicazioni che possiamo/dobbiamo contribuire a sviluppare. Poichè questi nuovi sistemi operativi devono essere portabili sulle piattaforme hardware a basso costo su cui sono implementati i nostri sistemi artificiali intelligenti, che saranno generalmente anche distribuiti.

Vi sono dei campi in cui vi ponete all’avanguardia?

Ultimamente ci siamo ormai focalizzati su due temi: i sistemi “ibridi” e quelli “multi-agente”. Per ibridi intendiamo quei sistemi che integrano metodi di intelligenza artificiale logico-simbolica con tecniche di tipo connessionista. Queste ultime forniscono le funzionalità di classificazione e pattern matching, mentre le prime consentono di compiere inferenze, deduttive o abduttive. Negli scorsi anni, l’importanza di questa integrazione è stata confermata dallo sviluppo dei nuovi sistemi IA altamente specializzati, come per esempio quelli per computer vision e speech synthesis. Ora è tempo di integrare queste tecnologie in campi come la videosorveglianza, la domotica e il cosiddetto Ambient Assisted Living. Come esempio e caso d’uso d’eccellenza abbiamo il progetto che chiamiamo della “Badante Virtuale”. L’idea nacque anni fa, quando ci accorgemmo che molte delle funzionalità informative esplicate da una persona “badante” potevano essere automatizzate dai nostri sistemi, se solo avessimo trovato la formula per una giusta integrazione delle tecnologie coinvolte. Adesso stiamo lavorando a ché la badante virtuale risponda al telefono (con tecnologia Voice-XML) e ci dica dove si trova l’assistito, se ha un respiro regolare, se ha passato una buona nottata, se è di buon umore, chi è venuto a trovarlo e quando. La badante deve anche parlare con lui e ricordargli degli impegni, fargli notare le sue dimenticanze, financo a raccontargli barzellette (se può servire a qualcosa). Deve infine compiere semplici comandi come accendere e spegnere la TV, telefonare ai parenti o inviare SMS e messaggi di posta elettronica su dettatura. Sicuramente deve essere una presenza trasparente e discreta, associabile alla normalità e al buon umore, con assolutamente nulla che vada appeso al collo e possa richiamare concetti di emergenza o ricordare all’assistito che deve morire.

Quanto invece ai sistemi multi-agente?

Intendiamo con questo quei sistemi in cui le entità attive nell’acquisizione delle informazione e nella loro elaborazione sono più di una, e quindi sorgono interessantissime problematiche di gestione della messaggistica e di definizione di regole e prassi comportamentali che assicurino un buon comportamento globale alla constituenda società di agenti software intelligenti. Come caso d’uso stiamo pensando, anche noi, alla domotica. Stiamo ipotizzando uno scenario in cui, con ontologie e protocolli di comunicazione condivisi (questi ultimi sono già stati standardizzati), gli elettrodomestici e i cosiddetti smart objects che popoleranno la casa intelligente ricevano e si scambino richieste di servizi o informazioni, comportandosi come piccoli maggiordomi, che si potranno assumere o licenziare con assoluta facilità, e vadano fra loro d’accordo riuscendo, mediante la condivisione e il rispetto di opportune regole di servizio (ancora da capire) a far andare avanti la casa soddisfacendo, e magari anticipando, le esigenze degli abitanti umani.

Riferite intense collaborazioni con le piccole medie imprese del territorio, che tipo azioni portate avanti in questo senso?

Al momento le nostre collaborazioni sono con SPES, Smart System Group e TecnoMarche – Parco Scientifico e Tecnologico delle Marche. Si tratta di Aziende marchigiane che operano loro stesse per conto di altre Aziende, come fornitori di soluzioni tecnologiche. In particolare, hanno tutte alle spalle l’industria del bianco (elettrodomestici) e quello che qui dalle nostre parti è noto come Distretto della domotica.

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here