News

Maker Faire Rome 2013 e la Gaze Machine: sfida allo sguardo dell’uomo

Nella società in cui viviamo è interessante notare come la tecnologia stia influenzando in modo sempre più decisivo la collettività, coinvolgendo campi tra loro diversi con lo scopo di proporre soluzioni nuove. In modo particolare, i recenti sviluppi tecnologici stanno radicalmente cambiando il nostro “point of view”, improntandosi sulla visuale in prima persona.

Pensiamo, ad esempio, ai rivoluzionari Google Glass, ancora in fase di prototipo, che hanno aperto le porte alle migliori invenzioni tecnologiche dei nostri tempi. E’ diventato importante riuscire ad immedesimarsi nella visione degli oggetti stessi attraverso piccole telecamere. Lo scopo? Filmare tutto ciò tu stia guardando ed “entrare” nell’oggetto.
Oppure le videocamere fissate sui caschi degli sportivi che permettono di effettuare un filmato avvincente, cogliendo ogni più piccola emozione del pilota.
Viviamo un’epoca che vuole sfidare la sorte e andare oltre i limiti dell’uomo.

glass-img1

L’occasione giusta per poter toccare con mano questo genere di esperimenti è avvenuta a Roma qualche settimana fa in occasione del Maker Faire Rome 2013, una delle fiere più importanti al mondo dedicate all’innovazione e alla creatività dei makers digitali. Robot, bici interattive, stampanti 3D e circuiti viventi, centinaia di creazioni provenienti da tutto il mondo a disposizione di noi curiosi.

glass-img2

Ad esempio gli STIGglasses, “occhiali digitali in grado di registrare le attività di progettazione mentale”.
Tra tutto, ciò che ci ha colpito sono state le numerose presentazioni di macchinari per poter “registrare” il proprio sguardo o movimento su uno schermo.
Gli STIGglasses servono a documentare i processi di progettazione mentale e registrare in formato video tutto quello che si sta osservando. Procedimento intuitivo il loro e, anche se hanno un aspetto un po’ retrò, funzionano davvero.

Gaze Machine: oltre lo sguardo umano

glass-img3

A catturare la nostra massima attenzione è stata la Gaze Machine, letteralmente la “macchina dello sguardo”, attenta ad evidenziare i punti focali dei nostri occhi, il che non è sempre positivo se si considera i casi eccezionali in cui “è meglio non far vedere dove si guarda se ci sono belle ragazze nelle vicinanze”, come afferma Makis Douskos, uno dei progettisti.
Incuriositi dalla macchina ci siamo avvicinati ed abbiamo cercato di capire la reale funzionalità, rivolgendo alcune domande a Zoe Fragoulopoulou, la responsabile del progetto ALCOR (Vision, Perception and Cognitive Robotics Lab) promosso dall’Università degli studi di Roma La Sapienza.

Quale è stata la motivazione che vi ha spinto a dar vita alla Gaze Machine?

L’idea è nata dalla considerazione che gli esseri umani, anche tanti animali, non osservano le scene in modo esaustivo, ma, invece, focalizzano la loro attenzione verso particolari regioni nel loro campo visivo.
Questo è un aspetto importante nello studio della visione biologica e una fonte d’informazione importante nella progettazione di algoritmi di visione artificiale. Questo dispositivo ci permette di raccogliere su soggetti diversi i dati sull’attenzione nell’ambiente tridimensionale ed in vari scenari, dove loro possono muoversi liberamente nello spazio.

Come vi siete mossi per poterla mettere in pratica?

La progettazione della Gaze Machine è cominciata più di 6 anni fa e si sono realizzati diversi prototipi durante questo periodo. È stato un progetto realizzato completamente nel nostro laboratorio, ALCOR. L’idea principale è stata sempre la stessa. Due camere a colori, che coprono il campo visivo del soggetto, montate su una struttura che può essere portata sulla testa. In più, una camera infrarossa che punta verso l’occhio per tracciare i movimenti della pupilla.

Quale era il vostro principale obiettivo?

L’obiettivo è di raccogliere dati per l’attenzione non solo nelle immagini, ma nell’ambiente tridimensionale. I nostri studi con la Gaze Machine ci hanno permesso di osservare che c’è una grande differenza del comportamento mentale di una persona quando sta lavorando in due o tre dimensioni (immagini, schermi ecc). La struttura di una scena tridimensionale e la possibilità di muoversi liberamente in essa, influisce anche sul comportamento del soggetto. I dati che possiamo acquisire con la Gaze Machine ci permettono di capire questi fenomeni in modo più approfondito ed anche di progettare modelli di attenzione artificiale più precisi.

In cosa consiste di preciso il macchinario?

Oltre la struttura hardware descritta precedentemente, la Gaze Machine comprende anche diversi componenti software. Prima di tutto, ci sono i componenti SW che gestiscono le telecamere e l’acquisizione sincronizzata di immagini. La sincronizzazione è un elemento fondamentale per poter avere dati coerenti.
Dopo, un componente SW, appositamente progettato per il riconoscimento robusto e per la traccia della pupilla, viene usato per calcolare la direzione dello sguardo. Questo, tramite una fase iniziale di calibrazione ed un algoritmo basato sull’apprendimento automatico, ci permette di avere anche la posizione dello sguardo sulle immagini della scena.
Alla fine, un altro componente SW, usando le immagini della scena, crea una mappa tridimensionale dell’ambiente e nello stesso tempo fa la localizzazione della Gaze Machine nella scena. Questo ci permette di calcolare lo sguardo nella mappa tridimensionale dell’ ambiente.

Al fine di rendere il discorso sulla GM più esaustivo possibile, vi consigliamo di dare un’occhiata al video ufficiale.

Questo progetto è sicuramente innovativo, ma sarà anche utile?

A questo punto, oltre gli studi di modelli di attenzione, vogliamo esplorare anche altri campi di applicazione per la Gaze Machine. Alcune idee sono per esempio:

  • la riabilitazione neuropsicologica di pazienti che hanno subito danni cerebrali;
  • l’uso della GM da persone disabili per aiutarle nelle attività quotidiane ma anche per le attività relative alla creatività;
  • l’uso della GM in progetti di marketing, per raccogliere dati rispetto al comportamento delle persone in vari scenari;
  • l’uso della GM in applicazioni di realtà aumentata e videogiochi.

Per poter esplorare queste ma anche altre aree in cui la GM può risultare molto utile, in questo momento stiamo organizzando una riprogettazione per poterla diffondere, commercializzare e rendere disponibile a tutti gli utenti potenzialmente interessati.

Mi sembra un’ottima prospettiva, soprattutto il collegamento con la branca medica ed il mondo del marketing. Avete altri progetti oltre la GM?

Si certo. Si tratta di un progetto sperimentale quindi i risultati non sono sicuri. Il nostro laboratorio è coinvolto soltanto alla prima fase del progetto, cioè “the exploration of tracking saccadic eye-movements whilst looking at media images of violence and trauma from her country”, in collaborazione con Sonya Rademeyer, artista africana. Nello specifico:

ALCOR Lab and artist Sonya Rademeyer will collaborate on a new project which intends to explore the way embodied empathy impacts on perception. By incorporating the technology of ALCOR’s Gaze Machine, the visual artist who lives and works in South Africa, will work on the exploration of tracking saccadic eye-movements whilst looking at media images of violence and trauma from her country. After that, the biological patterning of seeing images of violence will be captured, documented and translated into a new algorithmic model. The new algorithm code will then create a new musical score to be transcribed for cello. From October 14th to 18th 2013, the artist will be in ALCOR lab, in order to start working on the first stage of the project.
ALCOR hopes – by way of this inter-disciplinary exploration between perceptual science and visual art – to create new knowledge in this field. What is particularly promising for such projects is that we are in an era when science needs, more than ever, to communicate its findings in ways that reach across traditional disciplinary boundaries and artists are particularly receptive to the challenges of understanding and interpreting its insights. The result of the project will hopefully initiate many public conversations, which will bring diverse audiences together to discuss the interplay between computer science and art.

Di seguito la nostra traduzione della spiegazione di Zoe riguardo al nuovo progetto.

Alcor e l’artista africana Sonya Rademeyer collaboreranno ad un nuovo progetto che intende esplorare il modo in cui gli “impatti empatici” si incarnano nella percezione. Incorporando la tecnologia della GM, l’artista visuale che vive e lavora in Sud Africa, lavorerà sull’esplorazione e monitoraggio del movimento degli occhi mentre guardano le immagini mediatiche di violenza e trauma del proprio paese. Dopodichè, il modello biologico del vedere le immagini di violenza sarà catturato, documentato e tradotto in un nuovo modello algoritmico. Il nuovo codice di procedura sarà quindi quello di creare una nuova partitura musicale per violoncello. Dal 14 al 18 ottobre, l’artista è stata ospite del Laboratorio Alcor al fine di iniziare a lavorare al primo stadio del progetto.
ALCOR spera, per mezzo di questa esplorazione interdisciplinare tra scienza percettiva e arte visiva, di creare nuove conoscenze in questo campo. La promessa per questo progetto è che noi siamo in un era dove la scienza ha bisogno, più di altre discipline, di comunicare di più di ciò che ha trovato superando i confini delle altre discipline e gli artisti sono particolarmente ricettivi ai cambiamenti del pensiero e delle interpretazioni di questi segnali.
Il risultato del progetto si spera possa avviare molte conversazioni pubbliche che porteranno un pubblico eterogeneo a discutere insieme, creando interazione tra informatica e arte.

Il marketing e la Gaze Machine?

A questo punto, due occhi non sono più sufficienti. L’uomo, abituato ad avere tutto, non si accontenta più ed ha bisogno di qualcosa che potenzi le sue capacità. Qui entrano in ballo gli special glasses, strumento intelligente in grado di presentare la “realtà aumentata”, più completa e dettagliata di quanto possa fare l’occhio umano.
Come ha accennato Zoe, se riuscissimo ad analizzare nel profondo questo nuovo approccio, riusciremmo a coglierne il reale punto di forza: sfruttare l’avanguardia tecnologica per scopi pubblicitari e commerciali. Può essere possibile? Certo. Attraverso una “tecnica di tracciamento dello sguardo” realizzata “in un dispositivo che si indossa sulla testa, in grado di individuare lo sguardo di chi lo indossa, e che comunica con un server”.

Nella Gaze Machine è possibile vedere un’appiglio utile per un’ipotetica strategia di marketing. Potrebbe essere interessante diffondere la macchina ai grandi brand per riuscire a capire quale pubblicità funziona e di “captare” dove guarda la pupilla umana.
In questo modo si potrebbe prevedere una possibile reazione ai propri messaggi pubblicitari ed improntare una buona campagna marketing in grado di far vendere i propri prodotti.
Ipotizziamo di essere i proprietari di un grande brand e di voler lanciare un nuovo prodotto. Come possiamo fare per scegliere il giusto messaggio o l’immagine più attraente? Lanciare sul mercato diverse type e far indossare gli occhiali ad un gruppo scelto di persone. In questo modo si potrebbe analizzare dove essi rivolgono maggiormente lo sguardo…l’immagine che verrà registrata più volte sarà quella giusta!
Questo procedimento non è totalmente nuovo ma, pur non diffuso, viene definito “pay per gaze”, capace di calcolare il successo di un’inserzione con un sistema che riesce a verificare quanto gli occhi dell’utente si siano concentrati su di essa, supportato dalla tecnologia “indossabile”.

Nei tempi odierni vendere un marchio passando per i canali pubblicitari tradizionali non è più così semplice, difatti c’è bisogno di un input che riesca ad attrarre più utenti possibili, per questo un buon uso delle “sponsorizzazioni visive” può fornire una marcia in più ed una scorciatoia.

Se la tecnologia ti dà la possibilità di facilitare questo meccanismo…perchè non utilizzarla?

Fabio Ferretti
Fabio Ferretti
CTO