Te lo leggo in faccia / 2 – Il volto di tutti i giorni

Quando si osserva un volto che esprime un’emozione, la decodifica della sua espressività sembra non essere un problema significativo per la maggior parte delle persone. L’informazione contenuta nell’espressione del volto sembra essere un’aspetto naturale delle interazione e delle relazione sociali e la sua elaborazione procede solitamente senza difficoltà.

Eravamo rimasti qui nel nostro viaggio attraverso le microespressioni (qui la prima parte), alla decodifica e la lettura delle espressioni umane.

È proprio qui che avviene la prima rivoluzione: Ekman e Friese nel 1978 hanno elaborato il sistema più sofisticato di sempre per la lettura e la decodifica delle microespressioni. Si chiama FACS, Facial Action Coding System, per gli amici FACS.

In questo sistema ogni movimento singolarmente rilevabile è stato indicato come unità di azione, a cui può essere attribuito un punteggio in base all’intensità.

Però c’è un problema: non tutti i movimenti rilevati possono essere associati ad una emozione.
E se mi prudesse un orecchio? Il naso? Il dolore fisico, ad esempio, non è un’emozione. Eppure essa comprare sul nostro volto in un modo che non possiamo nascondere.

Nel 1982, soltanto quattro anni dopo, gli stessi ricercatori hanno elaborato EM-FACS che assegna un punteggio soltanto alle unità o alle combinazioni di unità che la teoria considera segnali emozionali. Proviamo a vedere quali sono.

Cominciamo con il considerare che il volto veicola informazioni attraverso quattro segnali:

  • Statici, ovvero caratteristiche relativamente permanenti come le ossa e le masse di tessuto sottocutaneo che danno la forma al volto;
  • Lenti, costituiti dai cambiamenti del viso dovuti all’età ed all’invecchiamento;
  • Artificiali, come gli occhiali, la cosmesi o la chirurgia;
  • Rapidi, ovvero le nostre microespressioni.

La somma delle quattro classi determina la fisionomia di un volto e, da sole o combinate, comunicano messaggi.

Il FACS prende in considerazione 44 unità fondamentali denominate “Unità di Azione” (Action Units, AU per gli amici) che possono dare luogo a poco più di 7000 combinazioni possibili.

In totale sono classificati 58 movimenti diversi o caratteristiche mentre altri non sono associati a alcuna emozione in particolare.

Per ogni AU sono descritte, nel manuale del FACS, i cambiamenti osservabili sul volto, provocati da quel movimento (sezione A); indicazioni su come effettuare quello specifico movimento, con la descrizione di eventuali difficoltà e soluzioni untili a superarle (sezione B); come registrare l’intensità di quella singola AU (sezione C).

Il FACS è un sistema di osservazione puramente descrittivo e, in quanto tale, non traduce immediatamente quello che analizza in un significato. Per raggiungere l’obiettivo di avere un dato immediato, gli autori hanno fatto riferimento esclusivamente all’analisi dei movimenti del volto umano. Poiché ognuno di questi movimenti è il risultato dell’azione singola o sinergica dei muscoli facciali, il FACS prende in considerazione il modo in cui ogni muscolo facciale agisce nel modificare visibilmente la configurazione del volto. Inoltre, Ekman e Friesen hanno fatto ricorso anche alla tecnica di Duchenne che consiste nello stimolare diversi fasci di fibre muscolari con elettrodi, così da determinare, gli effetti cinesici esteriormente osservabili.

II livelli di intensità delle varie emozioni sono cinque, ovvero:

  • livello A, lieve traccia dell’azione
  • livello B, evidenza leggera
  • livello C, segni marcati
  • livello D, segni intensi o estremi
  • livello E intensità massima

Come utilizziamo questo strumento?

Interpretare le microespressioni, nell’immaginario scientifico, trova tantissime applicazioni e, sebbene sia sempre stato accolto con scetticismo, è innegabile la sua utilità qualora fosse attendibile. Nella ricerca psicologica, ad esempio, per realizzare sistemi di interpretazione emozionale e la simulazione della mimica facciale, nell’interazione uomo-macchina e in qualsiasi altro ambito che coinvolga dinamiche sociali.

In uno studio della Stanford University (Ahn et al. 2008) è stata utilizzata l’analisi delle microespressioni per valutare lo stato emotivo dei consumatori con l’obiettivo di identificare i reali clienti, sia che si rechino al punto vendita o che facciano i loro acquisti via internet. L’obiettivo, in questo caso, era rendere il procedimento più veloce e indirizzare il personale di vendita dove è più probabile ricevere possibili clienti, aumentando così le potenziali vendite future. Le applicazioni di questi studi permetteranno alle intelligenze artificiali di “leggere” i volti degli utenti, prevedere la sequenza successiva di comportamenti e agire di anticipo.

Anche in questo caso, la tecnologia reagisce e non rimane passiva al comportamento degli utenti.

In un’altro studio pubblicato nel 2007 viene affrontata la difficile questione della percezione del dolore (Feldt et al, 2007) nei soggetti con deterioramento cognitivo. Lo studio ha valutato le espressioni facciali come mezzo per identificare il dolore orofacciale in soggetti anziani sia con capacità cognitive intatte sia compromesse.

L’Università di Ottawa ha affrontato il problema di rappresentare espressioni facciali combinate (Arya et al. 2009). La ricerca è stata effettuata sia all’interno di ospedali che di scuole per migliorare la competenza sociale e la capacità di riconoscimento delle espressioni da parte di bambini autistici nonché dell’apprendimento di lingue native, ma i risultati possono essere estesi a tantissimi altri ambiti.

La sicurezza sociale è sicuramente un esempio di applicazione della lettura delle microespressioni.

Gli allievi tirocinanti dell’accademia nazionale dell’FBI vengono addestrati in modo da aumentare la loro naturale capacità di riconoscimento dei movimenti del volto, utilizzando software che permettono un apprendimento fino al 91%; strumenti di questo genere supportano anche la formazione di alti ufficiali della US Cost Guard, i quali hanno dimostrato una capacità post-apprendimento dell’80% e oltre. Infine, nei più importanti aeroporti del mondo, contro la lotta al terrorismo, vengono impiegati moltissimi strumenti di riconoscimento in supporto all’attività delle forze dell’ordine.

Il dipartimento di informatica dell’università di San Diego, in California, ha presentato nel 2006 i risultati di alcune ricerche scientifiche sulle espressioni facciali in cui sono stati raggiunti risultati concreti in educazione, medicina e psicologia del comportamento umano, utilizzando uno strumento automatico di riconoscimento in tempo reale. Lo strumento si chiama CERT, Computer Ezpression Recognition Toolbox.

Dal 2006 ad oggi lo strumento si è molto evoluto; nel 2011, ad esempio, era già in grado di rilevare automaticamente l’intensità di 19 azioni facciali del FACS e 6 differenti espressioni prototipiche (Barlett et al., 2006), riuscendo addirittura a calcolare 10 caratteristiche statiche facciali e l’orientamento tridimensionale (movimenti del volto, della testa e del collo).

Whitehill et al. (2008) hanno studiato l’utilità di integrare il riconoscimento delle espressioni in un sistema di insegnamento automatizzato. Questo lavoro utilizza l’espressione per stimare la velocità di visualizzazione dei video preferita dallo studente e il livello di di coltà della lezione come viene  percepito dal singolo studente, in ogni istante di tempo. Questo studio pilota ha compiuto i primi passi verso lo sviluppo di metodi di insegnamento con politiche a ciclo chiuso, come sistemi che danno accesso a stime in tempo reale degli stati cognitivi ed emotivi degli studenti e agiscono di conseguenza.

Applicazioni di successo sono state raggiunte anche nella studio di disturbi psichiatrici (Wang et al., 2008), rivolgendosi a due casistiche di pazienti: quelli a etti da schizofrenia e quelli con la sindrome di Asperger. Mentre è ben noto che i pazienti con problemi di schizofrenia presentano nell’espressione facciale appiattimenti e anormalità, ci sono pochi dati oggettivi sul comportamento facciale a causa del tempo richiesto per la codifica manuale.

Cassel et al. (2008) hanno prodotto la prima applicazione per la misurazione automatica dell’associazione naturale che si instaura in termini di espressioni facciali nelle interazioni fra bambino e genitore. Hanno studiato il comportamento facciale di due coppie di madri e bambini durante le sessioni di gioco, riscontrando sincronie nella produzione dei sorrisi (AU 12), contrazione degli occhi (AU 6) e apertura della bocca (AU 25, 26).

Le tecnologia per l’implementazione di questo tipo di sistemi è progredita al punto da poter applicare le analisi a espressioni facciali spontanee con un discreto successo. L’accuratezza spesso non è tale da renderli uno strumento indipendente dalla supervisione umana, però presentano punti di forza quali capacità di astrazione delle problematiche, identificazione di strutture latenti, rappresentazione dinamica tridimensionale e applicazione estensiva che rivelano come questo campo di ricerca possa risultare accattivante e proficuo negli anni a venire.

[segue…]

Michele Laurelli

Nato nel 1991 ad Albenga (SV), mi definisco curioso, ambizioso, creativo e passionale. Appassionato di comunicazione. Perfezionista ed ossessionato dal controllo. Incorreggibilmente romatico. Instancabile viaggiatore.

Lascia un commento

%d blogger hanno fatto clic su Mi Piace per questo: