Seguici anche su

13 luglio 2017

Neuromarketing: ti vedo, ti ascolto, capisco le tue emozioni

Analizzano l’espressione del volto, il tono di voce, il modo in cui battiamo sulla tastiera. Così il marketing traina la ricerca sull’intelligenza artificiale

Lelio Simi

Dal numero di pagina99 in edicola dal 7 luglio e in edizione digitale

Nel 1955 Isaac Asimov, in un racconto ambientato in un futuro che per noi è già passato, immaginava che negli Stati Uniti – «la più grande democrazia elettronica» – tutte le procedure di voto per le elezioni del 4 novembre 2008 fossero demandate a un computer, il potentissimo Multivac, al quale sarebbe bastato sottoporre a una sessione di domande un unico elettore, da lui scelto, per determinare tutti i risultati elettorali: dalla carica di presidente degli Stati Uniti a quella di consigliere nell’assemblea comunale di Wilkesboro. Il protagonista di Franchise (tradotto in italiano “Diritto di voto” e pubblicato nell’antologia La terra è abbastanza grande, Editrice Nord, oggi fuori catalogo) è un umile commesso di un magazzino, Norman Muller, che si trova a essere il prescelto: «L’Elettore dell’Anno».

Preoccupato per un ruolo così importante mentre i tecnici lo stanno collegando alla potentissima macchina, chiede: «Serve per controllare se mentirò o dirò la verità?». «No» gli viene risposto «non è questione di menzogna o verità. Si tratta soltanto di controllare l’intensità delle emozioni. Se la macchina chiede la sua opinione sulla scuola di sua figlia, lei può dire “mi sembra che sia sovraffollata”. Queste sono soltanto parole: ma dal modo con cui reagiranno il suo cervello, il cuore, i suoi ormoni, e le sue ghiandole sudorifere, Multivac potrà giudicare esattamente quanto sia intenso il suo pensiero a riguardo. E potrà capire i sentimenti meglio di quanto non possa farlo lei stesso».

Oggi in un reale 2017 le nostre emozioni possono effettivamente essere riconosciute e poi trasformate in dati da analizzare e aggiungere in qualche database, assieme alle moltissime altre informazioni che ci riguardano direttamente. Per farlo non è nemmeno necessario che una serie di sensori colleghino le nostre funzioni vitali a enormi e ingombranti macchine – come il Multivac immaginato da Asimov oltre sessanta anni fa – ma in alcuni casi possono bastare lo schermo touch di un telefonino o una fotocamera installata su un qualsiasi computer portatile.

 

I brevetti di facebook

Solo qualche settimana fa, ad esempio, l’agenzia di analisi CB Insight, ha dato un’occhiata alle domande di brevetto che Facebook ha depositato dal 2015 a maggio di quest’anno, facendo emergere quanto Zuckerberg e soci stiano puntando molto su questo tipo di tecnologie: uno di questi software, per esempio, può raccogliere dati dalla tastiera oppure dal mouse e dagli schermi touch deducendone le emozioni di chi scrive in base alla velocità di battitura, l’intensità della pressione esercitata sui tasti o il semplice movimento (utilizzando l’accelerometro del telefono).

Un altro brevetto di Facebook ha come obiettivo quello di catturare le immagini degli utenti attraverso il telefonino o dal computer portatile, anche quando l’utente non sta usando attivamente la fotocamera (proprio così!), tracciandone l’espressione facciale e monitorando così le sue reazioni emotive mentre legge un testo o guarda un video o una foto.

Questi tipi di software non sono una novità. Il mercato delle tecnologie legate al rilevamento e riconoscimento delle emozioni, secondo le previsioni dell’agenzia Kbv Research, crescerà a livello globale al ritmo del 27,4% l’anno raggiungendo i 29,2 miliardi di dollari nel 2022.Ma il vero valore di queste tecnologie è costituito dai dati che possono generare e memorizzare. La maggior parte delle aziende che lavorano in questo settore puntano a riconoscere gli stati d’animo che riveliamo attraverso le espressioni del viso, il tono della voce o il modo di digitare un testo, per poi trasformarli in dati da offrire alle agenzie di marketing e ai grandi marchi.

Sono numerose le startup che lavorano in questa direzione: Angus.ai – un’azienda parigina che ha tra i propri clienti la catena di supermercati Carrefour – ha sviluppato una tecnologia per trasformare in dati, in tempo reale, il livello di soddisfazione dei clienti grazie alla lettura delle loro espressioni facciali captate dalle telecamere installate all’interno dei negozi. Ma nel settore della grande distribuzione, per analizzare le emozioni dei clienti, possono essere utilizzati sistemi ancora più sofisticati: per esempio telecamere termiche in grado di rilevare la frequenza cardiaca, come ha rivelato recentemente l’Economist.

 

Quattro milioni di volti

Un’altra startup, iMotions (sede a Copenhagen) svolge ricerche di mercato per alcune delle più importanti agenzie di marketing (Nielsen e Standard & Poor’s) o marchi del calibro di Unilever e Procter&Gamble: elabora dati provenienti da quattro esami (elettroencefalogramma, movimento oculare, risposta galvanica della pelle e rilevamento delle espressioni facciali).

Probabilmente l’azienda più importante specializzata in ricerche di mercato e analisi dei dati da rilevamento facciale e riconoscimento delle emozioni è però Affectiva che ha sviluppato la sua tecnologia all’interno del Mit Media Lab. Wpp, la holding pubblicitaria più importante al mondo, ha versato tre milioni di dollari per una partecipazione di minoranza. Nelle sue presentazioni ufficiali l’azienda dichiara di «aver accumulato l’archivio dati più grande del mondo, con quattro milioni di volti analizzati in più di 75 Paesi, pari a 50 miliardi di dati puntuali relativi alle emozioni».

C’è un altro elemento da aggiungere: i giganti della tecnologia – Apple, Facebook, Google, Intel, Microsoft e tutti gli altri – non sono mai stati così attivi come nei primi mesi del 2017 nell’acquisto di startup legate all’intelligenza artificiale (molte delle quali stanno lavorando proprio nelle lettura delle emozioni). Da gennaio a marzo sono state 34 le acquisizioni di questo tipo – rivela l’agenzia Cb Insight in un report – quasi il doppio dello scorso anno nello stesso periodo.

La più attiva in queste operazioni è Google che dal 2012 ha acquisito 11 aziende di questo tipo: tra queste DeepMind, per 600 milioni di dollari. Nel marzo 2016 Facebook ha acquistato Masquerade Technologies, startup con sede a Minsk in Bielorussia specializzata nell’apprendimento automatico (machine learning) e riconoscimento delle espressioni facciali su dispositivi mobile e a novembre FacioMetrics altra startup che ha sviluppato un software per leggere le emozioni (per esempio analizzando i selfie).

Anche Apple è molto attiva su questo fronte: quest’anno ha acquisito per due milioni di dollari la startup israeliana RealFace, ma soprattutto nel 2016 ha acquistato Emotient, una startup che ha perfezionato uno dei sistemi più avanzati nell’utilizzare l’intelligenza artificiale per leggere le emozioni attraverso l’espressione facciale. E in precedenza aveva acquistato un’altra giovane azienda tecnologica VocalIQ che opera nel campo del riconoscimento delle emozioni in base al tono vocale.

Queste tecnologie possono essere utilizzate in molti settori: nella sanità e nella sicurezza, per esempio. Ma la ragione principale di questi investimenti è ovviamente la pubblicità. Facebook e Google hanno attratto gli investitori pubblicitari grazie al loro immenso talento nel raccogliere un numero crescente di dati sulle attività online e offline dei loro utenti. E se oggi queste aziende sono capaci di sapere tutto su di noi, cosa resta da aggiungere per alimentare la loro crescita? La risposta è scontata: le nostre emozioni per capire le nostre reazioni quando facciamo un acquisto o intuire quali sono i momenti in cui siamo più predisposti a farlo.

 

Se Amazon supera Google

Anche perché nei prossimi anni molte cose potrebbero cambiare nello scenario pubblicitario. Amazon sta entrando in rotta di collisione con Big G. Secondo un sondaggio condotto dalla società di servizi finanziari Raymond James, il 52% delle persone che fanno acquisti online iniziano le loro ricerche su Amazon (nel 2014 erano solo il 38%) mentre solo il 26% partono dai motori di ricerca (principalmente Google che due anni fa era al 55%).

Quella dei soli ricavi pubblicitari da search è una torta ricchissima e in continuo aumento, le previsioni per il 2017 parlano di 36,7 miliardi solo negli Usa (circa metà della spesa pubblicitaria su digitale e un quinto di quella complessiva) che diventeranno 45,6 miliardi già nel 2019. Questi ricavi finiscono per l’80% nelle casse di Google. Ma questa torta fa gola ad Amazon che sfrutta solo una parte minima del suo potenziale. Martin Sorrell (che con la sua holding Wpp gestisce oltre 60 miliardi di euro di investimenti pubblicitari) ha dichiarato alla rivista The Drum che Amazon potrebbe «allungare i propri tentacoli in questo settore minacciando il primato assoluto di Google nell’attrarre investimenti pubblicitari».

Ecco allora che la guerra tra i due colossi è già iniziata sul fronte degli assistenti digitali a risposta vocale: Amazon Echo e Google Home rappresentano la più recente evoluzione dei motori di ricerca e degli acquisti online. Amazon è già riuscita a vendere oltre 5 milioni di questi assistenti personali negli Stati Uniti: «il prossimo business miliardario per Amazon» prevede Business Insider. Un business nel quale oggi tutti vogliono entrare per sfruttare al meglio le tecnologie di riconoscimento vocale: a cominciare da Apple (con Siri) e Microsoft (con Cortana).

 

Alexa, l’arma vincente

L’arma vincente in questo mercato saranno i software di riconoscimento delle emozioni: Amazon sta lavorando da diversi mesi per implementare questa tecnologia su Alexa (l’assistente vocale installato su Echo). La Technology Review del Mit ha rivelato che già l’anno scorso Amazon era impegnata nel riconoscimento delle emozioni attraverso il tono della voce: per esempio se un utente deve ripetere una stessa richiesta ad Alexa, il software può essere in grado di rilevare l’irritazione nel tono di voce e scusarsi. Ma spesso questo tipo di innovazioni restano nascoste: lo stesso Bezos ha scritto recentemente: «Molto di quello che facciamo con l’apprendimento automatico avviene sotto la superficie».

In aprile è stato lanciato Echo Look, dotato oltre che di riconoscimento vocale anche di foto e videocamera. Il nuovo dispositivo è stato presentato come un assistente personale per consigliare capi di abbigliamento e come combinarli. «Alexa takes a video» dice una ragazza nel video di lancio del nuovo gadget digitale, facendo una mezza giravolta e mostrando il suo look al completo. Pochi istanti dopo Echo invia consigli sul miglior look da adottare, sui capi da acquistare, archiviando le foto e i video fatti. E «siccome Alexa è costruita sul cloud», dice la voce fuori campo, «diventerà sempre più abile e intelligente».

Come al solito tutte queste innovazioni, ci assicurano i giganti della tecnologia, servono per donarci nuovi servizi meravigliosi, gratuiti, pensati proprio per noi, e segnalarci nel momento giusto i prodotti giusti da comprare. Rileggendo Asimov è evidente che non voleva affatto metterci in guardia verso l’evoluzione della tecnologia, ma verso la nostra acritica fiducia nella sua infallibilità.

Alla fine del lungo “interrogatorio” con il potente computer, il buon Muller non ricorderà quasi niente, se non che tutte le domande erano perlopiù insignificanti. (Ne ricorderà solo una: «Che ne pensa del prezzo delle uova?»). Oggi che di pronipoti del Multivac ognuno ne possiede diversi, siamo noi a porre delle domande al computer. Ma non è importante chi fa domande a chi, «quelle sono solo parole», risponderebbe anche oggi uno dei tecnici: «Multivac può capire i sentimenti meglio di quanto non possa farlo tu stesso».

[Foto in apertura di Getty Images]

Altri articoli che potrebbero interessarti