Stiamo cercando di capire se sia più emozionante o più inquietante: Alexa, adesso, è in grado pure di imitare la voce di chi non c'è più. Familiari, parenti o amici passati a miglior vita, che potrebbero farsi sentire di nuovo grazie al dispositivo. Pensate che roba. A dimostrare la nuova funzione è stato Rohit Prasad, vicepresidente e scienziato responsabile di Amazon Alexa, che in una conferenza a Las Vegas ha riprodotto un video in cui Alexa legge una favola pre nanna a un bambino, imitando la voce della nonna morta. Ed è subito film horror, no? O magari viene fuori una cosa super dolce, vai a sapere.
Per Alexa sarà super easy memorizzare una voce: basterà solo farle ascoltare una clip audio di un minuto per renderla in grado di imitare tanto i vivi quanto i morti. "Un modo per ricordare i propri cari che non ci sono più", dicono da Amazon. "Viviamo in un’epoca d’oro dell’intelligenza artificiale – ha commentato Prasad – e se l’AI non può eliminare il dolore di una perdita, può di sicuro far sì che le memorie rimangano. Tantissimi, anche durante la pandemia, hanno perso le persone che amavano. Con questa funzione permettiamo loro di riascoltare la voce dei familiari e degli amici scomparsi". Detta così, per carità. Ma c'è pure tanta gente che ha esposto sacrosanti dubbi etici. Intanto, si aprono nuove golose opportunità per malintenzionati che così potranno sfruttare la voce di chi non c'è più, ad esempio, per accettare pratiche mai visionate e per truffe di vario genere.
E pure psicologicamente è un bel tema. Ascoltare la voce di un caro defunto potrebbe creare problemi e disagi nell'elaborazione del lutto, eccome no. Quindi è evidente che ci sia un botto di gente contraria a questa funzione. "Sono totalmente ammirato dal fatto che questa idea sia passata per le mani di così tante persone ad Amazon – dirigenti, sviluppatori, pubbliche relazioni – e che nessuno si sia fermato per chiedersi se fosse effettivamente una buona idea", ha detto l’ex direttore del sito di tecnologia Gizmodo UK, James O’Malley. "Se un criminale informatico può ricreare facilmente e in modo credibile la voce di un’altra persona con un piccolo campione vocale, potrà usare quella voce clonata per fingere di essere qualcun altro", ha giustamente osservato Rachel Tobac, responsabile di un’azienda di sicurezza e informatica di San Francisco. "Potrebbe in questo modo far credere a chi l’ascolta di essere quella persona, cosa che potrebbe portare a frodi, furto di dati, di account online e di molto altro".
Bah, noi troviamo la cosa un po' inquietante. Figa da progresso tecnologico a Black Mirror è un attimo.
Seguici anche su Instagram, taaac!