Aldo Agostinelli

In the near future virtual assistants may be able to make assumptions about their users’ mood and react accordingly. This is a possible application of the AI which opens up to new opportunities and, at the same time, brings about some ethical and legal controversies

It seems ages since we first asked questions to Siri in front of our friends so as to show, in awe, its ability in answering them correctly. Indeed, AI and machine learning have progressed dramatically over the past few years. Nowadays, we can communicate with Alexa without even noticing and maybe without realizing how her ability to provide us with correct answers has actually improved. What would happen, though, if in addition to understanding our words she could also assume, thanks to the nuances and pitch of our voice, what our mood is?

The risks brought about by the fact of Alexa getting to smart

Professor Joseph Turow, a teacher at the Annenberg School for Communication of the University of Pennsylvania, has warned us against the possible risks brought about by such an evolution. To the point that, according to him, the law should already prohibit companies to analyze what we say and how we say it with the aim of customizing advertising or recommending some specific purchases of products or services. Such an approach is still not widespread, but it may soon find a practical application and therefore could easily become quite common on a large scale: better – said Turow –  to set the record straight from the beginning and set limits before it is too late. According to the scholar, without boundaries, such technology may expand beyond the borders of marketing and hence invade other sectors of our lives thus jeopardizing our privacy, but also ethics and the very concept of justice: police may decide who to arrest and banks who to give a mortgage to, on the basis of the interpretation of a specific mood or way of being (Should Alexa read our moods?).

The upside: possible applications in the sanitary system

It has to be said, however, that research into AI have also led to important results also beyond marketing. For instance in medicine. Voice profiling, for instance, allows us to specifically identify some serious illnesses, from Alzheimer to Coronavirus. Already in 2008, the current manager of the Amazon Alexa division, Rohit Prasad, ran a DARPA programme  that meant to use AI to understand veterans’ mental conditions starting from their voices. The target in this case was to identify in advance some symptoms of mental suffering so as to reduce the number of suicides among veterans who had come back from the Iraqi war (Amazon’s Alexa may soon know if you’re happy or sad).

Between present and future

Going back to Turow, the Professor clarified that the law should stop the commercial usage of these technologies. Some call centers, for instance, are already doing something similar: if the virtual assistant decides that the person on the other end of the line is tense or angry, it can re-address them to some people who may succeed in calming them down. Spotify has generated a huge debate by patenting a technology which allows the system to recommend special selections of songs or genres to users  by monitoring and recording their voices ( and therefore identifying their age, gender and accent, in addition to their mood (New Spotify Patent Involves Monitoring Users’ Speech to Recommend Music).

Considering the recent scenario, Turow’s concerns seem to be grounded. We need to monitor the diverse spin offs of a technology which may bring about both risks and opportunities.

Do you think that the possible developments of AI and virtual assistants may be more advantageous or riskier for our  privacy? Tweet @agostinellialdo

If you liked this post, you may also like “Luxury Stores: now Amazon is investing in on demand luxury

Giulia Foschi

Aldo Agostinelli

In un futuro molto vicino gli assistenti virtuali potrebbero intuire lo stato d’animo degli utenti e rispondere di conseguenza. Un’applicazione dell’intelligenza artificiale che apre opportunità e allo stesso tempo porta con sé dubbi etici e legali

Dai tempi in cui s’interrogava Siri in pubblico per mostrare agli amici, con divertito stupore, la sua capacità di rispondere in modo pertinente, sembrano passati secoli. In effetti, i progressi nel campo dell’intelligenza artificiale e del machine learning hanno subito un’accelerazione sorprendente negli ultimi anni. Oggi comunichiamo con Alexa senza neppure farci caso, e forse senza neanche renderci conto di quanto sia migliorata la sua abilità nel fornire risposte azzeccate. Cosa accadrebbe, però, se oltre a comprendere le nostre parole Alexa riuscisse anche a intuire, tramite le sfumature e l’inclinazione del tono di voce, il nostro stato d’animo?

I rischi di un’Alexa troppo perspicace

Il professor Joseph Turow, docente presso la Annenberg School for Communication dell’Università di Pennsylvania, mette in guardia dai possibili rischi di questa evoluzione. Al punto che, in base al suo parere, la legge dovrebbe impedire già da ora alle aziende di analizzare ciò che diciamo e come lo diciamo allo scopo di personalizzare i messaggi pubblicitari o suggerire l’acquisto di specifici prodotti o servizi. Un approccio oggi ancora poco diffuso, ma che potrebbe a breve trovare un’applicazione pratica e una conseguente diffusione su larga scala. Meglio – sostiene Turow –  mettere le cose in chiaro fin da subito e stabilire un limite prima che sia troppo tardi.

Secondo lo studioso, in assenza di un argine questa tecnologia potrebbe allargarsi dal semplice marketing a settori in cui metterebbe a rischio non solo la privacy, ma anche l’etica e il concetto stesso di giustizia. La polizia potrebbe decidere chi arrestare e le banche a chi concedere un mutuo in base all’interpretazione di uno stato d’animo o di un modo di essere (Should Alexa read our moods?).

L’altra faccia della medaglia: le applicazioni in ambito sanitario

C’è da dire, però, che le ricerche nel campo dell’intelligenza artificiale hanno trovato riscontri importanti anche al di fuori del marketing. Per esempio in medicina. La profilazione vocale permette in alcuni casi di individuare con precisione alcune patologie importanti, dall’Alzheimer al Coronavirus. Già nel lontano 2008, l’attuale responsabile di Amazon Alexa, Rohit Prasad, guidò un programma del DARPA che, mediante l’uso dell’intelligenza artificiale, puntava a comprendere lo stato di salute mentale dei veterani tramite il suono della loro voce. L’obiettivo in questo caso era individuare per tempo eventuali sintomi di disagio per arginare i dilaganti casi di suicidio tra i reduci della guerra in Iraq (Amazon’s Alexa may soon know if you’re happy or sad).

Tra presente e futuro

Tornando a Turow, il professore chiarisce in effetti che la legge dovrebbe bloccare esclusivamente l’utilizzo a puro fine commerciale di queste tecnologie. Alcuni call center, per esempio, fanno già qualcosa di simile. Se l’assistente virtuale valuta che la persona all’altro capo del telefono è tesa o arrabbiata, può indirizzarla a del personale in grado di tranquillizzarla. Spotify, sollevando numerose proteste nel settore, ha brevettato una tecnologia che permette di suggerire agli utenti particolari brani e generi monitorando e registrando la voce (e identificando quindi età, sesso e accento, oltre allo stato d’animo) e rumori di sottofondo (New Spotify Patent Involves Monitoring Users’ Speech to Recommend Music).

Considerando lo scenario più e meno recente, i timori di Turow non paiono infondati. Si tratta come sempre di monitorare le diverse ramificazioni di una tecnologia che porta con sé opportunità e rischi.

Nei probabili sviluppi dell’intelligenza artificiale e delle capacità degli assistenti virtuali prevalgono i vantaggi o i rischi per la privacy? Tweettate i vostri commenti a @agostinellialdo

LEGGI IL MIO NUOVO LIBRO: “Bling, il lusso del futuro parla Instagram, indossa sneaker e usa l’AI

Se ti è piaciuto questo post, leggi anche Luxury Stores: ora Amazon punta al lusso su invito

Giulia Foschi