“Em vez da voz de Alexa lendo o livro, é a voz da avó do bebê”, explicou Rohit Prasad, vice-presidente sênior e cientista-chefe de IA da Alexa, com entusiasmo na quarta-feira durante um discurso em Las Vegas. (O fundador da Amazon, Jeff Bezos, é dono do The Washington Post.)
a oferta Foi o primeiro vislumbre do mais recente recurso do Alexa, que – embora ainda em desenvolvimento – permitirá que o assistente de voz repita as vozes das pessoas a partir de clipes de áudio curtos. O objetivo, disse Prasad, é construir maior confiança com os usuários, infundindo a IA com “os traços humanos de empatia e influência”.
O novo recurso pode ‘fazer [loved ones’] Flashbacks”, disse Prasad, mas embora a perspectiva de ouvir a voz de um parente morto possa ser muito comovente, também levanta uma miríade de preocupações éticas e de segurança, dizem os especialistas.
“Não sinto que nosso mundo esteja pronto para uma tecnologia de clonagem de voz fácil de usar”, disse Rachel Tobak, CEO da SocialProof Security, com sede em São Francisco, ao The Washington Post. Ela acrescentou que essa tecnologia pode ser usada para manipular o público por meio de clipes de áudio ou vídeo falsos.
“Se os cibercriminosos puderem clonar de forma fácil e confiável a voz de outra pessoa usando uma pequena amostra de voz, eles poderão usar a amostra de voz para se passar por outros indivíduos”, acrescentou Tupac, especialista em segurança cibernética. “Esse mau ator pode enganar os outros para que pensem que são a pessoa que estão se passando, o que pode levar a fraudes, perda de dados, controle de contas e muito mais.”
Há também o perigo de confundir as linhas entre o que é humano e o que é mecânico, disse Tama Lever, professora de estudos da Internet na Curtin University, na Austrália.
“Você não vai se lembrar de ter falado nas profundezas da Amazônia… e Seus serviços de coleta de dados Se ele está falando com sua avó, ou com a voz de seu avô, ou com a voz de um ente querido.”
“É um pouco como um episódio de Black Mirror”, disse Leaver, observando. Uma série de ficção científica que retrata um futuro sob o título de tecnologia.
Leaver acrescentou que o novo recurso Alexa também levanta questões sobre consentimento – especialmente para pessoas que nunca imaginaram que sua voz seria carregada por um assistente pessoal automatizado após a morte.
“Há uma ladeira escorregadia real de usar os dados de pessoas falecidas de uma maneira assustadora por um lado, mas muito antiética por outro, porque eles nunca pensaram em usar esses efeitos dessa maneira”, disse Leaver.
Tendo perdido recentemente o avô, Lever disse que simpatizava com a “tentação” de querer ouvir a voz de um ente querido. Mas, disse ele, a possibilidade abre uma porta de consequências que a sociedade pode não estar disposta a suportar – por exemplo, Quem tem direito aos pequenos trechos que as pessoas deixam para os influenciadores da World Wide Web?
Se meu avô me enviou 100 mensagens, eu tenho o direito de colocar isso no sistema? E se sim, quem é o dono? A Amazon tem essa gravação então? ‘ ele perguntou. ‘Você desistiu do direito à voz do meu avô?’
Prasad não deu detalhes sobre esses detalhes durante o discurso de quarta-feira. No entanto, ele postulou que a capacidade de imitar sons era um produto de “inquestionavelmente viver na era de ouro da inteligência artificial, onde nossos sonhos e ficção científica se tornaram realidade”.
Se a demonstração da Amazon se tornar um recurso real, Leaver disse que as pessoas podem precisar começar a pensar em como usam sua voz e aparência quando morrem.
“Devo considerar em meu testamento que preciso dizer: ‘Minha voz e minha história retratada nas mídias sociais são propriedade de meus filhos, e eles podem decidir se querem ou não reviver isso no bate-papo comigo? — perguntou Lever.
“Isso é uma coisa estranha de se dizer agora. Mas provavelmente é uma pergunta para a qual precisamos ter uma resposta antes que Alexa comece a falar como eu amanhã.”
“Estudante amigável. Jogador certificado. Evangelista de mídia social. Fanático pela Internet. Cai muito. Futuro ídolo adolescente.”