{"id":578,"date":"2019-11-18T07:09:10","date_gmt":"2019-11-18T02:39:10","guid":{"rendered":"http:\/\/batteriamercato.com\/blog\/?p=578"},"modified":"2019-11-18T07:09:10","modified_gmt":"2019-11-18T02:39:10","slug":"a-che-punto-siamo-con-le-intelligenze-artificiali-che-non-percepiscono-le-emozioni","status":"publish","type":"post","link":"https:\/\/www.batteriamercato.com\/blog\/index.php\/2019\/11\/18\/a-che-punto-siamo-con-le-intelligenze-artificiali-che-non-percepiscono-le-emozioni\/","title":{"rendered":"A che punto siamo con le intelligenze artificiali che (non) percepiscono le emozioni?"},"content":{"rendered":"\n<p>\n\nUn&#8217;azienda americana ha raccolto le immagini di oltre 5 milioni di facce e le usa per insegnare alle macchine a capire gli umani. Si pu\u00f2 fare? Lo abbiamo chiesto ad Alessandra Sciutti, ricercatrice dell\u2019Iit di Genova.<\/p>\n\n\n\n<p>Nel 1968, lo scrittore Philip Dick si (ci) domandava se \u00abgli androidi sognano pecore elettriche\u00bb, immaginando che i robot, come gli umani, abbiano un\u2019attivit\u00e0 cerebrale anche inconscia: questo (quello che raccontava Dick) lo sappiamo. Alle soglie del 2020, quello che non sappiamo \u00e8 se esista un\u2019altra faccia della medaglia, ovvero se gli automi e le macchine siano capaci di percepirla, quest\u2019attivit\u00e0 cerebrale inconscia. Cio\u00e8: le intelligenze artificiali sono in grado di capire i sentimenti e le emozioni umane?<\/p>\n\n\n\n<p>I primi approcci al tema risalgono all\u2019inizio degli anni Duemila e si devono all\u2019industria dell\u2019automobile: nel 2001, la Toyota svel\u00f2 al Motor Show di Tokyo la Pod, il prototipo di una vetturetta da citt\u00e0 in grado di cambiare colore dentro e fuori per riflettere le emozioni del guidatore. Nella teoria, molto fantascientifico. Nella pratica, pi\u00f9 semplicemente, l\u2019auto usava sensori per monitorare gli occhi del conducente, ne analizzava lo stile e le abitudini di guida (presa sul volante, posizione del piede sull\u2019acceleratore, intensit\u00e0 delle frenate e cos\u00ec via) e accendeva o spegneva di conseguenza alcuni led colorati: toni del rosso in caso di comportamento \u201caggressivo\u201d, sfumature di verde e giallo in relazione a un atteggiamento pi\u00f9 tranquillo. Era un approccio primitivo, ancora non si parlava di intelligenza artificiale, ma era comunque un inizio.<\/p>\n\n\n\n<p>C\u2019era un database con 5 milioni di facce<br>Da allora di strada se n\u2019\u00e8 fatta, e parecchia. Nel mondo, sono al momento 2 le aziende impegnate nel capire se sia possibile (e come) fare riconoscere ai robot quello che provano gli umani, un business che secondo gli analisti ha attualmente un valore di mercato di circa 12 miliardi di dollari, che potrebbero superare i 90 (miliardi) entro i prossimi 5 anni: sono l\u2019americana Affectiva (nata all\u2019interno del Mit di Boston) e la giapponese Empath.<\/p>\n\n\n\n<p>Lavorano come lavorano pi\u00f9 o meno tutte le compagnie che si occupano di I.A.: raccolgono dati e poi li usano per nutrire, allenare, migliorare le intelligenze artificiali. E di dati ne raccolgono una quantit\u00e0 impressionante: Affectiva, che si vanta di avere \u00abil pi\u00f9 grande database di emozioni\u00bb, ha immagazzinato quasi 40 mila ore di video di oltre 5 milioni di facce, catturate riprendendo le persone nelle situazioni pi\u00f9 disparate, mentre guidano, guardano un film, un cartellone pubblicitario, vagano in un negozio o sono a passeggio. Che se ne fa? Le usa appunto per addestrare i computer a capire gli umani: il sorriso \u00e8 felicit\u00e0, le labbra in gi\u00f9 sono tristezza, gli occhi socchiusi sono rabbia, la bocca spalancata \u00e8 sorpresa e cos\u00ec via.<\/p>\n\n\n\n<p>A che cosa serve, tutto questo? Nel mondo dell\u2019auto, e nello specifico per le ormai tantissime vetture che sono in grado di muoversi da sole, a capire come sta il conducente, se \u00e8 stanco, ha sonno, \u00e8 arrabbiato e dunque potrebbe essere imprudente, se \u00e8 (troppo) rilassato, per poi agire di conseguenza. Pi\u00f9 in generale, serve a migliorare le interazioni uomo-macchina. Non (solo) oggi, ma soprattutto domani, quando avremo a che fare con intelligenze artificiali non solo a casa, negli assistenti vocali, ma magari su un taxi a guida autonoma, nell\u2019ascensore di un palazzo, nel commesso di un centro commerciale, nel cameriere di un ristorante: l\u2019idea \u00e8 che se il robot capisce che cosa prova la persona che ha di fronte (o di fianco, accanto, seduta dietro), allora \u00e8 in grado di offrire un servizio migliore. E anche di sembrare pi\u00f9&#8230; umano.<\/p>\n\n\n\n<p>Funziona? S\u00ec, no, forse: dipende a chi lo si chiede. Secondo i report di Affectiva ed Empath, non ancora, ma funzioner\u00e0 presto. Secondo la comunit\u00e0 scientifica, non tanto presto. O forse mai. Uno studio pubblicato a luglio 2019 e firmato da 5 diversi professori di diverse universit\u00e0 e con differenti specializzazioni (dalla psicologia alle scienze umane, all\u2019ingegneria), che hanno studiato e analizzato un migliaio di documenti pubblicati sull\u2019argomento, ha concluso che l\u2019animo umano \u00e8 troppo complesso perch\u00e9 le macchine siano in grado di capirlo: \u00abI nostri sentimenti non sono solo un sopracciglio che si alza, una lacrima che scende, un sorriso &#8211; ha chiarito nel testo la dottoressa Lisa Feldman Barrett, docente di Psicologia alla Northeastern University di Boston &#8211; Le emozioni non sono solo nel viso, quello che si vede l\u00ec \u00e8 solo l\u2019effetto finale di una cascata di cambiamenti interiori\u00bb. Insomma: analizzare solo gli occhi, o solo gli occhi e la bocca, o solo gli occhi, la bocca e il battito del cuore (s\u00ec, viene considerato pure questo) non sarebbe sufficiente per capire davvero un essere umano.<\/p>\n\n\n\n<p>L\u2019Iit: \u00abI robot dovranno capire anche il contesto\u00bb<br>Pi\u00f9 o meno cos\u00ec la pensa anche Alessandra Sciutti, ricercatrice dell\u2019Istituto italiano di Tecnologia di Genova, dove \u00e8 a capo del laboratorio Contact: \u00abIl legame tra espressioni facciali e stato emotivo \u00e8 molto pi\u00f9 elusivo di quanto si creda. Sono molti i fattori, tra cui in particolare il contesto, che possono influenzare l\u2019espressione adottata da una persona a parit\u00e0 di emozione provata. Per quanto sia possibile riconoscere accuratamente differenti espressioni e movimenti del viso, questo non garantisce automaticamente la comprensione dello stato emotivo della persona\u00bb.<\/p>\n\n\n\n<p>E per\u00f2, come ci spiega la Sciutti, che nel 2018 ha vinto un fondo europeo Erc proprio per proseguire le ricerche nel campo dell\u2019interazione uomo-robot, \u00abin futuro, approfondendo le diverse teorie e includendo nell\u2019analisi anche gli aspetti contestuali e culturali, possiamo auspicare di avere macchine che siano in grado di comprenderci pi\u00f9 a fondo. Per esempio, avere un robot in grado di comprendere se qualcosa che ha fatto ci ha infastidito o ci ha fatto innervosire, garantisce un\u2019interazione pi\u00f9 fruttuosa ed efficace e la possibilit\u00e0 per la macchina di correggersi pi\u00f9 rapidamente e fare procedere meglio il lavoro in comune\u00bb. \u00c8 questo l\u2019obiettivo pi\u00f9 facilmente raggiungibile rispetto a un riconoscitore \u201cuniversale\u201d di emozioni, perch\u00e9 \u00absi parte dal presupposto che si possano conoscere e definire gli aspetti contestuali e culturali di una specifica collaborazione, in modo da avere basi sufficienti per comprendere le reazioni (come espressioni facciali e comportamenti non verbali) della persona\u00bb.<\/p>\n\n\n\n<p>Serve tempo, insomma. Del resto, qualche anno fa si pensava che fosse impossibile fare guidare le macchine da sole, farci chiacchierare con un soprammobile per avere le previsioni del tempo, sapere le ultime notizie, correggere i compiti dei nostri figli o farci servire una birra da un cameriere robot. E invece tutto questo \u00e8 successo. Perch\u00e9 se \u00e8 vero che gli essere umani sono imprevedibili, lo sono evidentemente pure le macchine\u2026<\/p>\n\n\n\n<p>Vendita&nbsp;<a href=\"https:\/\/www.batteriamercato.com\/index.html\">online di batterie<\/a>, caricabatteria, batterie ricaricabili. Consegna rapida e gratuita da 22\u20ac! | Noi siamo Lo specialista della batteria.\u200e\n\n<\/p>\n","protected":false},"excerpt":{"rendered":"<div class=\"mh-excerpt\"><p>Un&#8217;azienda americana ha raccolto le immagini di oltre 5 milioni di facce e le usa per insegnare alle macchine a capire gli umani. Si pu\u00f2 <a class=\"mh-excerpt-more\" href=\"https:\/\/www.batteriamercato.com\/blog\/index.php\/2019\/11\/18\/a-che-punto-siamo-con-le-intelligenze-artificiali-che-non-percepiscono-le-emozioni\/\" title=\"A che punto siamo con le intelligenze artificiali che (non) percepiscono le emozioni?\">[&#8230;]<\/a><\/p>\n<\/div>","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":[],"categories":[7],"tags":[159],"_links":{"self":[{"href":"https:\/\/www.batteriamercato.com\/blog\/index.php\/wp-json\/wp\/v2\/posts\/578"}],"collection":[{"href":"https:\/\/www.batteriamercato.com\/blog\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.batteriamercato.com\/blog\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.batteriamercato.com\/blog\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.batteriamercato.com\/blog\/index.php\/wp-json\/wp\/v2\/comments?post=578"}],"version-history":[{"count":1,"href":"https:\/\/www.batteriamercato.com\/blog\/index.php\/wp-json\/wp\/v2\/posts\/578\/revisions"}],"predecessor-version":[{"id":579,"href":"https:\/\/www.batteriamercato.com\/blog\/index.php\/wp-json\/wp\/v2\/posts\/578\/revisions\/579"}],"wp:attachment":[{"href":"https:\/\/www.batteriamercato.com\/blog\/index.php\/wp-json\/wp\/v2\/media?parent=578"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.batteriamercato.com\/blog\/index.php\/wp-json\/wp\/v2\/categories?post=578"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.batteriamercato.com\/blog\/index.php\/wp-json\/wp\/v2\/tags?post=578"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}