Associazione Emotusologi

emotusologi_logo

Premessa

Questo blog vuole fornire materiali video, immagini e testi inerenti l’analisi del comportamento umano da un punto di vista della comunicazione non verbale. Pertanto si avvale della competenza degli Emotusologi, l’ente che raccoglie gli specialisti del settore, e del loro laboratorio di psicologia della comunicazione, il CRF, per svolgere al meglio tale attività.

Gli Emotusologi

L’Analista del comportamento emozionale del volto – Emotusologo indaga sul comportamento emozionale del soggetto esaminato. Egli lavora su materiali video e osservazione diretta e conduce il lavoro di analisi per soddisfare una richiesta di tipo professionale o privato. Può avvalersi di strumentazioni elettrofisiologiche per confermare i dati raccolti e di elaborazioni computerizzate per formulare i risultati dell’analisi. La sua attività comprende altresì le attività di sperimentazione, ricerca e didattica in tale ambito.

Quella dell’Analista del comportamento emozionale del volto – Emotusologo è una professione emergente in Italia, orientata all’analisi e al miglioramento delle relazioni interpersonali dell’individuo, ma in altri paesi, come gli Stati Uniti, è presente da molti anni.

Consiste in una serie di conoscenze tecniche e abilità finalizzati all’analisi del comportamento emozionale e, in questo senso, permette un agire professionale e consapevole di attitudini implicite e connaturate nella natura umana.

L’Analista del comportamento emozionale è preparato per far ricorso in modo sistematico a diverse competenze tecniche. La peculiarità di tale professione è quella di essere efficace e rispondente alle necessità dell’analisi del comportamento emozionale nei vari contesti sociali.

Il termine Analista del comportamento emozionale del volto – Emotusologo indica una specifica attività professionale che utilizza strumenti e tecniche per orientare, sostenere e sviluppare le potenzialità del cliente, promuovendone atteggiamenti positivi.

Brevi note sul CRF – laboratorio di Psicologia della comunicazione

Il CRF è un laboratorio di professionisti che operano nel settore dell’analisi del comportamento emozionale, con specializzazioni diversificate e complementari nel campo della psicologia, della medicina e della biologia.

La finalità dei membri del CRF è quella di elaborare ed utilizzare tecniche innovative nell’analisi delle espressioni emozionali del volto e del corpo applicando i risultati in ambiti diversi, dal settore medico a quello investigativo.

I professionisti del CRF si sono specializzati nell’analisi delle espressioni emozionali del volto ed hanno collaborato con esperti mondiali del settore come Erika L. Rosenberg, Harriet Oster, Daniel S. Messinger, Mark Frank, svolgendo anche periodi di lavoro in centri di ricerca internazionali come l’Università di Miami (USA) o l’Università di Ginevra.

Le applicazione delle tecniche elaborate dal CRF riguardano il settore investigativo (indizi comportamentali di menzogna), socio sanitario (la percezione delle emozioni e delle risposte facciali di neonati e bambini entro il primo anno di vita, baby FACS, e di soggetti affetti da disturbi dello spettro autistico; la comunicazione tra medico e paziente), e aziendale (aree della comunicazione e gestione dei conflitti, visual merchandising, negoziazione e motivazione dei collaboratori).

Si tratta quindi di specialisti che rispondono alle esigenze di ricerca sperimentale, assistenza e formazione. Nelle attività vengono coinvolti psicologi, psicoanalisti, esperti di comunicazione non verbale, neurobiologi, nonché docenti universitari di psicologia generale, psicologia della comunicazione, psicologia della personalità, psicologia dei gruppi, psicologia medica, psicologia clinica, i quali si confrontano continuamente partecipando a convegni internazionali e pubblicando articoli scientifici, e collaborando con università italiane ed estere, l’Università di Trieste (Italia), l’Università di Padova (Italia), l’Università di Lubiana (Slovenia), l’Università di Miami (USA), l’Università della California (USA), l’Università di Bufalo (USA), il CRNS di Strasburgo (Francia).

La storia

Nel 1999 fondai assieme al sociologo Francesco Pira il primo Master universitario postlaurea italiano in “Analisi e gestione della comunicazione” (Università di Trieste). Uno dei settori di ricerca era quello della comunicazione non verbale. Dapprima ci su orientò sull’analisi dell’abbigliamento, dell’aspetto fisico e dell’attrazione fisica, passando poi all’espressione del volto e delle emozioni. Questo divenne argomento di vari dottorati di ricerca in cui si utilizzò il FACS (Facial Action Coding System) relativamente ai neonati, alle relazioni medico-paziente e alle variabili di soggetti affetti da autismo nonché sulle espressioni facciali relative a emozioni suscitate dalla visione di film.

Nel 2004 contattammo, assieme a Vanessa Greco,  Paul Ekman (Università di San Francisco) che ci indirizzò alla sua allieva italiana la psichiatra Antonia Maio (Pistoia) che ci fornì le prime indicazioni sull’uso del FACS. Nel 2006 invitammo Erika Rosenberg (Università di Berkley) a tenere un Workshop sul F.A.C.S -Facial Action Coding System a Trieste. Nello stesso anno conseguimmo il brevetto di codificatori F.A.C.S. L’anno successivo invitammo Harriet Oster (Università di New York) a tenere un Workshop sul Baby-F.A.C.S. Infine è venuto più volte Mark Frank dell’Università di Buffalo sulle applicazioni dello strumento al riconoscimento della menzogna.

Durante il periodo di docente nel dottorato di ricerca due mie dottorande frequentarono l’Università di Miami con Daniel Messinger.

Oltre a numerose tesi di laurea presentammo relazioni in decine di convegni tra cui nel 2008 al 12th European Conference on Facial Expression – University of Geneva – CISA – Swiss Center for Affective Sciences, “Gender and Facial Expressions”,  Geneva, Switzerland, 28-31 luglio 2008. Titolo intervento: “The use of FACS in the analysis of facial expressions during the viewing of a film” e: “Analisi delle variabili emozionali nel rapporto bambino-madre-pediatra attraverso l’uso del F.A.C.S. di P. Ekman e W.V. Friesen e del Baby F.A.C.S. di P. Ekman E. H. Oster”.

Il CRF Onlus – Centro Ricerca FACS – onlus venne convenzionato con il Master universitario in Counseling sociosanitario e collabò con il Master in Pet Therapy per il settore sociosanitario dell’Università di Trieste.

Nel 2003 all’interno delle Facoltà di Medicina e Chirurgia e di Scienze della Formazione dell’Università di Trieste prese avvio un’attività di ricerca nel campo della Comunicazione non verbale. L’attività si è concretizzata grazie al coinvolgimento di un gruppo di laureandi e dottorandi di ricerca sotto la guida del prof. Enzo Kermol, PhD, all’epoca docente di Psicologia generale e di Psicologia della comunicazione. Sono state svolte numerosissime tesi di laurea sulla codifica delle espressioni emozionali e sono state assegnate varie borse di ricerca nei dottorati di ricerca in medicina relativi a queste tematiche. Contestualmente, venivano presi contatti con il prof. Paul Ekman dell’Università di San Francisco. Nel 2006 il prof. Kermol, insieme con i primi dottori di ricerca, Vanessa Greco e Sara Soloperto,  che studiavano l’analisi del comportamento emozionale del volto, utilizzando il sistema Facial Action Coding System, creò a Trieste il Centro di Ricerca FACS (CRF) ONLUS. I giovani collaboratori del CRF hanno pubblicato le loro ricerche su prestigiose riviste scientifiche e li hanno presentati a convegni internazionali. Tali lavori hanno riscontrato notevole successo e così sono iniziate le collaborazioni con diversi centri di ricerca esteri, quali il CNRS di Strasburgo (Francia), l’Università di Miami (USA) e l’Università di Lubiana (SLO), nonché con l’Università di Trieste, l’Università di Padova e l’Università privata Niccolò Cusano di Roma. Le metodologie utilizzate hanno suscitato notevole interesse anche da parte di enti pubblici, quali la Polizia di Stato, l’Arma dei Carabinieri e l’Azienda Sanitaria Locale, e da parte di aziende farmaceutiche, come la Menarini.

La tipologia di ricerca utilizzata  si concentra sul riconoscimento automatico della muscolatura del volto e del corpo, delle risposte del sistema nervoso autonomo, degli aspetti non verbali del parlato e dell’attività cerebrale, il tutto nell’ottica di universalità del comportamento espressivo emozionale. Le ricerche condotte mettono pertanto in connessione le varie aree scientifiche interessate (psicologica, ingegneristico- informatica, biologica e medica) per trasformare elementi di psicologia, fisiologia e genetica in espressioni emozionali. Si passa poi all’interpretazione sociale e alla ricostruzione computerizzata dei movimenti muscolari del volto, del corpo e della voce per ottenere una facile decodifica.

Gli ambiti applicativi sono innumerevoli. Attualmente l’attenzione è rivolta principalmente ai settori:

1) medico-sanitario (miglioramento dell’intervento sul bambino affetto da patologie delle spettro autistico, diagnosi precoce delle patologie dell’infanzia, supporto nelle attività diagnostica, psicologica e psicoterapeutica);

2) sicurezza, come mezzo che facilita la l’individuazione e la discriminazione di comportamenti a rischio in luoghi pubblici, nonché come strumento di rilevazione di comportamenti incongrui nel colloquio, nell’intervista e nell’interrogatorio;

3) aziendale, come strumento di riconoscimento dei tratti della personalità come sistema di facilitazione nei settori dell’addestramento del personale per le relazioni con il pubblico, delle relazioni interne, della negoziazione, della validità dei prodotti pubblicitari.

I progetti di ricerca riguardano la creazione di:

-innovativi test psicologici di personalità;

-strumenti di addestramento finalizzato alla formazione degli Analisti del comportamento emozionale del volto e del corpo;

-nuove tecniche per l’analisi del comportamento motorio gestuale;

-nuove tecniche nell’intervento su bambini affetti da disturbi dello spettro autistico

Le ricerche sperimentali mirano all’integrazione di aree disciplinari diverse: psicologica, biologica e ingegneristico-informatica. Si stanno progettando tecniche, tecnologie e strumentazioni all’avanguardia. I prodotti, risultato di progetti di ricerca, consistono in:

1) strumenti psicologici che riguardano i settori della psicologia generale (psicologia della personalità, psicologia della comunicazione), della psicologia dello sviluppo, della psicologia forense e della psicoterapia;

2) software, da installare su pc o utilizzabili esclusivamente in rete con accessi protetti, che riguarderanno un campo interdisciplinare che si estende tra psicologia, biologia e ingegneria informatica.

Il F.A.C.S. e il sistema di Hjortsjö

Ekman, Friesen e Hager (1978 – R 2002) crearono uno strumento sfruttando gli studi dell’anatomista svedese Hjortsjö, e il suo sistema che in seguito è stato elaborato ed è tuttora in fase di ulteriore miglioramento, specialmente con l’applicazione di programmi informatici. Il sistema porta il nome di «Facial Action Coding System – FACS». Sostanzialmente si tratta di una variante dell’opera dello studioso svedese.

Le tecniche atte alla misurazione del comportamento facciale sono nate sostanzialmente per rispondere a svariati quesiti riguardanti i legami esistenti tra le espressioni del viso e le caratteristiche di personalità, l’esperienza emotiva, i processi comunicativi, e così via. Gli studi che si occupano di questi temi si suddividono in studi di misurazione, che utilizzano metodi atti a fornire una descrizione o una misurazione delle reali modificazioni del volto, e studi di giudizio, che si basano sulle risposte di osservatori al comportamento facciale, e che si concentrano quindi sulla quantità e la qualità delle informazioni veicolate dal viso. All’interno degli studi di misurazione (ad esempio l’elettromiografia) troviamo sistemi, detti di codifica, che si basano sull’identificazione e la misurazione di unità visibili di comportamento facciale. Essi si distinguono dai metodi di giudizio in quanto l’attività di codifica, essendo puramente descrittiva, non ha carattere interpretativo. Questi metodi sono basati sulla riflessione teorica, in quanto mirano all’identificazione dei pattern di movimento facciale che risultano associati a particolari emozioni, quelle considerate «universali». Il «Facial Action Coding System» di Ekman (1978) Friesen (1978)[1] rientra in questa categoria di metodi. Secondo questi due autori, il volto è in grado di veicolare informazioni attraverso quattro classi di segnali:

1.segnali «statici» e relativamente permanenti, determinati dalla struttura ossea e dalle masse di tessuto che compongono il viso;

  1. segnali «lenti», determinati da cambiamenti che avvengono con il tempo e apportano delle mutazioni nell’apparenza della faccia di un individuo, come ad esempio la comparsa di rughe;
  2. segnali «artificiali», causati da trattamenti esterni, come l’applicazione di cosmetici o il fatto di indossare degli occhiali;
  3. segnali «rapidi», che comportano modificazioni dell’attività neuromuscolare e provocano dei cambiamenti visibili dell’apparenza del viso.

È proprio quest’ultimo tipo di segnali (modificazioni muscolari rapide e visibili) che può essere individuato e categorizzato attraverso il FACS, in cui ogni movimento facciale singolarmente riproducibile e individuabile visivamente è stato indicato come AU (action unit). Esistono in tutto 44 AU relative ai movimenti del volto, e 14 AU che rendono conto dei cambiamenti nella direzione dello sguardo e nell’orientamento della testa. Tali unità d’azione costituiscono la base del sistema di codifica e misurazione. Accanto a questo sistema Ekman (1978) e Friesen (1978) hanno predisposto una serie di strumenti da supporto per rendere maggiormente applicabile il sistema originario. Le AU possono essere convertite da un computer utilizzando un dizionario di interpretazione e predizione delle emozioni, appositamente creato (FACS/EMFACS Emotion Dictionary sostituito recentemente dal FACSAID – FACS Affect Interpretation Database). In questo modo è possibile tradurre le combinazioni di AU in configurazioni facciali che, a loro volta, corrispondono a determinate esperienze emotive.

Uno dei limiti del F.A.C.S. risiede nel fatto che è stato sviluppato per identificare solo i cambiamenti del viso chiaramente visibili e individuabili, ignorando tutti quei cambiamenti che non sono rilevabili tramite la semplice osservazione, come le modificazioni del tono muscolare. Inoltre non prende in considerazione fattori come il sudore, il fenomeno dell’arrossire, o le caratteristiche permanenti della morfologia del viso.

 

La tecnica di misurazione del Facial Action Coding System e del sistema di Hjortsjö

I sistemi di segnali del volto

Il volto è il luogo dove si concentra la maggior parte delle informazioni sensoriali sia che un soggetto le esibisca come emittente o che le «legga» sul volto dell’altra persona, come ricevente all’interno di un processo comunicativo. Secondo Ekman e Friesen «il volto è un sistema di risposta multisegnale, multimessaggio capace di un’enorme flessibilità e specificità». Secondo questi Autori, questo sistema veicola informazioni attraverso quattro classi generali di segnali :

  1. segnali facciali statici che rappresentano tratti relativamente permanenti della faccia, tali come la struttura ossea e le masse di tessuto sottostante che contribuiscono all’apparenza di un individuo;
  2. segnali facciali lenti che sono costituiti dai cambi, che avvengono col tempo, nell’apparenza della faccia di un individuo, tali come lo sviluppo di rughe permanenti e cambi nella grana della pelle;
  3. segnali artificiali rappresentati da tratti della faccia determinati esternamente come gli occhiali e i cosmetici;
  4. segnali facciali rapidi che rappresentano cambi di fase nell’attività neuromuscolare che può portare a visibili cambi nell’apparenza facciale. Tali segnali combinati insieme possono produrre diciotto differenti messaggi. Le quattro classi di segnali contribuiscono al riconoscimento facciale; la classe che pone più problemi è quella che riguarda i segnali facciali rapidi. Questi movimenti dei muscoli facciali tirano la pelle, distorcendo temporaneamente la forma degli occhi, delle sopracciglia, delle labbra e la sembianza delle pieghe, le rughe e i rigonfiamenti facciali in differenti parti della pelle. Questi cambi nell’attività dei muscoli facciali sono brevi in quanto durano pochi secondi (raramente durano più di cinque secondi e meno di 250 millisecondi). La terminologia più utile per descrivere e misurare le azioni facciali si riferisce al sistema di produzione, ovvero l’attività prodotta dai muscoli specifici. Questi muscoli, possono essere designati o col loro nome latino o con un sistema numerico per ogni Unità di Azione (Action Units , AUs) usato da P. Ekman e W.V. Friesen per il loro sistema di codifica (FACS – Facial Action Coding System).

Tra i tipi di messaggi che i segnali facciali rapidi possono veicolare vi sono:

  • le emozioni;
  • gli emblemi, ovvero comunicatori culturali simbolici specifici, tali come l’ammiccamento (fare l’occhiolino);
  • i manipolatori, che comprendono i movimenti di automanipolazione quali il mordersi le labbra;
  • gli illustratori, che comprendono tutte le azioni che accompagnano e sottolineano il parlato tali come l’alzare le sopracciglia;
  • i regolatori, che comprendono tutti i mediatori della conversazione non verbale quali assentire o sorridere.

A livello comportamentale fisiologico, le azioni dei segnali facciali rapidi possono esprimere:

  1. azioni riflesse sotto il controllo di input afferenti;
  2. azioni impulsive o rudimentali tipi di riflesso che accompagnano emozioni, poco identificabili a livello di processo delle informazioni, evidenziati all’interno del comportamento di orientamento nello spazio o durante la risposta comportamentale di difesa, di fronte ad uno stimolo ritenuto pericoloso. Tali azioni sembrano essere controllate da programmi motori innati;
  3. azioni adattabili, versatili, culturalmente variabili e spontanee che sembrano essere mediate dai programmi motori appresi;
  4. azioni volontarie.

Come si può notare da quanto detto sopra, classi di azioni facciali rapide possono essere esibite in modo relativamente indipendente dalla capacità di processare informazioni di un soggetto, svincolate dal controllo volontario, perché siano manifestate e associate con una rudimentale processazione emozionale e simbolica. Le condizioni necessarie, che permettono che altre rapide azioni facciali siano manifestate in un processo comunicativo, richiedono al soggetto una buona capacità di processazione; esse sono sotto il controllo volontario e sono governate da complesse prescrizioni specificate culturalmente, chiamate regole di esibizione.

Il Facial Action Coding System e il sistema di Hjortsjö

Le tecniche atte alla misurazione del comportamento facciale sono nate sostanzialmente per rispondere a svariati quesiti riguardanti i legami esistenti tra le espressioni del viso e le caratteristiche di personalità, l’esperienza emotiva, i processi comunicativi, ecc. Le emozioni di base quali sorpresa, paura, disgusto, disprezzo, tristezza e felicità sono registrate da cambiamenti dei muscoli della fronte, delle sopracciglia, delle palpebre, delle guance, del naso, delle labbra e del mento. Per cui l’area di maggiore interesse per lo studio della espressione delle emozioni è il volto.

Esistono numerosi metodi per misurare i movimenti facciali che risultano dall’azione dei muscoli. Il sistema di misura di Ekman e Friesen «Facial Action Coding System – FACS» è il più usato e versatile. Il FACS fu sviluppato per determinare come le contrazioni di ogni muscolo facciale, singolarmente o in combinazione con altri muscoli, cambiano le sembianze di una faccia. Gli Autori hanno videoregistrato più di 10.000 differenti combinazioni di azioni muscolari, che sono state esaminate accuratamente per determinare i cambi più significativi che ognuna di esse apportava alla struttura del volto, studiando anche come era possibile differenziare un movimento dall’altro. In realtà non è stato loro possibile arrivare ad una distinzione affidabile sulla determinazione dei muscoli che sono messi in gioco per produrre, per esempio, l’abbassamento di un sopracciglio e lo stiramento dei due sopraccigli insieme. Nonostante ciò, i tre muscoli coinvolti in questi cambi dell’apparire del volto sono combinati in una specifica Unità di Azione. Anche i segnali rapidi, che interessano l’apertura dei muscoli delle labbra, sono combinati insieme nella stessa Unità d’Azione, ma non è facile distinguere quando intervengono singolarmente. La misura delle espressioni facciali nel sistema FACS è fatta attraverso le Unità di Azione, invece che con unità muscolari, in quanto ci sono buoni motivi di economia nell’attività di decodifica. Un primo motivo potrebbe essere il fatto che pochi cambi nell’apparenza di un volto coinvolgono più di un muscolo in una singola Unità di Azione. Un secondo motivo è dato dal fatto che per mezzo del sistema FACS è possibile separare in due Unità di Azione l’attività dei muscoli frontali. Questo a causa del fatto che questi ultimi sono situati sia internamente che esternamente e, di conseguenza, possono agire indipendentemente, producendo cambi differenti nell’apparenza. Ekman e Friesen hanno calcolato 44 AU (Action Unit) che rendono conto dei cambi nelle espressioni facciali e 14 AU che più grossolanamente descrivono i cambi nella direzione dello sguardo e nell’orientamento della testa. Un analista FACS disseziona un’espressione osservata, decomponendola in specifiche AU che hanno prodotto il movimento. L’analista vede il nastro sia al rallentatore che fermando le immagini, per determinare quale unità di azione o combinazione di unità di azione sono coinvolte nei cambiamenti facciali. I punteggi, per la rilevazione di specifiche espressioni facciali, consistono nel determinare la lista di unità di azione che sono coinvolte in quell’espressione. E’ determinata anche la precisa durata di ogni azione, l’intensità di ogni azione muscolare e ogni asimmetria bilaterale. Nell’uso più esperto della metodologia FACS, l’analista riesce a determinare dai primi indizi l’unità di azione coinvolta in un movimento rapido, quando l’azione raggiunge l’apice, la fine del periodo apicale, quando inizia a declinare e quando scompare definitivamente dalla faccia. Le unità di punteggio di FACS, che di fatto listano le unità di azione coinvolte in un’espressione facciale, sono descrittive e non interferiscono con l’interpretazione delle emozioni e possono essere convertite da un computer usando un dizionario di interpretazione e predizione delle emozioni appositamente creato o le regole per ottenere i punteggi del FACS. Sebbene questo dizionario di interpretazione delle emozioni sia stato originariamente basato su una teoria, attraverso tutti gli studi condotti dal gruppo di P. Ekman e W.V. Friesen, c’è attualmente un supporto che proviene da una sperimentazione empirica che ha dimostrato che:

  1. i punteggi delle FACS producono predizioni e post – dizioni molto accurate delle emozioni segnalate agli osservatori in più di quindici culture, sia dell’Est che dell’Ovest, letterate e pre – letterate;
  2. punteggi specifici di Unità di Azione mostrano da moderata ad alta correlazione con i report soggettivi sulla qualità e l’intensità dell’emozione sentita dai soggetti che esprimono l’emozione stessa;
  3. circostanze sperimentali sono associate con specifiche espressioni facciali;
  4. modelli differenti e specifici di attività fisiologica concorrono con specifiche espressioni facciali.

Il dizionario delle predizioni delle emozioni fornisce punteggi sulla frequenza di sei emozioni primarie innate sorpresa, paura, rabbia, disgusto, tristezza, felicità e una che si verifica entro il primo anno di vita, disprezzo. Sono universali: condivise da tutte le culture. Tutte le altre azioni compiute con il volto sono emozioni secondarie o «non – emozioni» (Atti che regolano l’interazione verbale, commenti sulla comunicazione, messaggi volontari, ecc.).

 

 

Bibliografia indicativa

Clarke A.C., Curry T. J., Introducing Visual Sociology, Kendall Hunt Publishing Company, Iowa, 1981.

Curry T.J., Photo Comparison as a Visual Tecnique: using Photographic Portraits to study the self concept in sociology courses, in International Journal of Visual Sociology, 1, 1985.

Ekman, P, & Friesen, W. V., Manual for the Facial Action Coding  System, Palo Alto, CA: Consulting Psychologists Press, 1978.

Ekman, P, & Friesen, W., Investigator’s guide to the facial action coding system, Palo Alto: Consulting Psychologists Press, 1978a.

Ekman, P., & Oster, H., Facial expressions of emotion, Annual Review of Psychology, 1979, 30, pp. 527 – 554.

Ekman, P., Asymmetry in facial expression, Science, 1980, 209, pp. 833 – 834.

Ekman, P, Friesen, W. V., & Ancoli, S., Facial signs of emotional experience, Journal of Personality and Social Psychology, 1980, 39, pp. 1125 – 1134.

Ekman, P., Methods for measuring facial action, in K. R. Scherer & P. Ekman (Eds.), Handbook of methods in nonverbal behaviour research, Cambridge, England: Cambridge University Press, 1981, pp. 45 – 90.

Ekman, P., Emotion in the human face, Cambridge, England: Cambridge University Press, 1982.

Ekman, P, Davidson, R. J., & Friesen, W. V., The Duchenne smile: Emotional expression and brain physiology II, Journal of Personality and Social Psychology, 1990, 58, pp. 342 – 353.

Ekman, P., An argument for basic emotions, Cognition and Emotion, 1992, 6, pp. 169 – 200.

Ekman, P. and Davidson, R., The nature of emotion: fundamental questions, New York: Oxford University Press, 1994.

Ekman, P. & Rosenberg, E. L. (editors), What the face reveals: basic and applied studies of spontaneous expression using the facial action coding system (FACS), New York: Oxford University Press 1997.

Ekman, P. (Editor), Charles Darwin’s, The expression of the emotions in man and animals, (Third Edition with Introduction, Afterwards and Commentaries by Paul Ekman), London: Harper Collins, and, New York: Oxford University Press, 1998.

Hjortsjo C.H. (1969), Man’s face and mimic language, Lund, Sweden, Studentlitteratur.

Izard C.E. (1971), The face of emotion, New York, Appleton-Century-Crofts.

Izard C.E. (1977), Human Emotions, New York, Plenum Press.

Izard C.E. (1983), The maximaly discriminative facial movement coding system, Newark, DE, Instructional Resource Center, University of Delaware.

Izard, C.E., Dougherty L.M., Hembree E.A. (1983), A system for identifying affect espressions by holistic judgments (Affex), Newark, DE, Instructional Resource Center, University of Delaware.

Keltner D. (1995), “The signs of appeasement: Evidence for the distinct displays of embarrassment, amusement, and shame”, Journal of Personality and Social Psychology, 68, 441-454.

Keltner D., Buswell B.N. (1997), “Embarrassment: Its Distinct Form and Appeasement Functions”, Psychological Bulletin, Vol.  122, no. 3, 250-270.

Watzlawick P., Beavin J. H. e Jackson D. D., Pragmatic of Human Communication, New York, Norton (1967), trad. it., Pragmatica della comunicazione umana, Roma, Astrolabio, 1971.

[1] Ekman, P, & Friesen, W., The Facial action coding System: A technique for the measurement of facial movement, Palo Alto, CA: Consulting Psychologists Press, 1978. Revisione con Hager nel 2002.