Hey Alexa, that’s weird as hell

3 views
Skip to first unread message

Joel Souza

unread,
Jun 24, 2022, 7:40:39 AM6/24/22
to arqhp
Não necessáriamente usar isso com pessoas que já morream mas, com aquela pessoa que você está flertando ou recém acabou um relacionamento. Dar 1min de input de qualquer áudio do zapzap e a voz da criatura se materalizar dentro da sua casa pra te dar bom dia e comentar sobre o tempo chuvoso e frio.


Amazon has revealed an experimental Alexa feature that allows the AI assistant to mimic the voices of users’ dead relatives.
The company demoed the feature at its annual MARS conference, showing a video in which a child asks Alexa to read a bedtime story in the voice of his dead grandmother.
“As you saw in this experience, instead of Alexa’s voice reading the book, it’s the kid’s grandma’s voice,” said Rohit Prasad, Amazon’s head scientist for Alexa AI. Prasad introduced the clip by saying that adding “human attributes” to AI systems was increasingly important “in these times of the ongoing pandemic, when so many of us have lost someone we love.”

--
Joel Souza

Pedro Rocha

unread,
Jun 24, 2022, 9:20:16 AM6/24/22
to ar...@googlegroups.com
Em resumo, podemos criar qualquer áudio, com a voz de qualquer pessoa, bastando um input de áudio dessa?

Alto potencial p dar ruim. 

--
Você recebeu essa mensagem porque está inscrito no grupo "ArqHP - Arquitetura de home pages" dos Grupos do Google.
Para cancelar inscrição nesse grupo e parar de receber e-mails dele, envie um e-mail para arqhp+un...@googlegroups.com.
Para ver essa discussão na Web, acesse https://groups.google.com/d/msgid/arqhp/CAJsUr_UbJjNf0SQHugvCK6Kvb%2BYrJaa9tzDPA3CvwcpaZCS%2BYA%40mail.gmail.com.

Joel Souza

unread,
Jun 24, 2022, 10:41:32 AM6/24/22
to arqhp
Em resumo, podemos criar qualquer áudio, com a voz de qualquer pessoa, bastando um input de áudio dessa?

Essa tecnologia existe há um tempo. Inclusive, acho que tem coisas até open-source. A novidade é colocar isso numa Alexa e disponibilizar isso pra qualquer ser humano comprar e usar em casa, na cabeceira da cama ou na cozinha. Isso é o mais assustador pra mim.

 

Pedro Rocha

unread,
Jun 24, 2022, 10:55:31 AM6/24/22
to ar...@googlegroups.com
Com certeza. Tecnologia existir é uma coisa, estar acessível p qq idiota ou mal intencionado q é o problema.

Irapuan Martinez

unread,
Jun 26, 2022, 7:29:01 PM6/26/22
to Lista ArqHp
On Fri, Jun 24, 2022 at 8:40 AM Joel Souza <joel....@gmail.com> wrote:
Dar 1min de input de qualquer áudio do zapzap

Boa sorte em tentar me ressuscitar: Nunca mandei um áudio.

Sobre ressuscitar gente que morreu de morte morrida, bitch, nada disto é novo: http://www.triumphpc.com/johnlennon/

Em 1997, um pessoal criou um chatterbot baseado nos escrevinhados do Rolling Stones lá. Já não é de hoje que flertamos com os espíritos mandando mensagens, noves fora predadores sexuais em Abadiânia de Goiás.

Irapuan Martinez

unread,
Jun 26, 2022, 7:35:52 PM6/26/22
to Lista ArqHp
On Fri, Jun 24, 2022 at 10:20 AM Pedro Rocha <pedrogo...@gmail.com> wrote:
Em resumo, podemos criar qualquer áudio, com a voz de qualquer pessoa, bastando um input de áudio dessa? Alto potencial p dar ruim. 

Já se tem anos que estamos discutindo as implicações do deep fake.

Embora hoje a computação gráfica consiga extrapolar a partir de uma foto, toda uma modelagem 3D, voz ainda dependia de imitadores. 

Mas como dizia o velho Clarke: "Se um cientista experiente diz que uma coisa não é possível, ele provavelmente estará errado; mas se ele disser que é possível, ele provavelmente estará correto".

Hoje estamos experimentando algo que se chama por aí de "pós-verdade": Você tem um vídeo e/ou áudio de um político de estimação dizendo o contrário do que prega, mas seu culto à personalidade nega aquilo. Vai chegar a algum momento que tanto o político quanto seus cultistas dirão que é montagem de computador.

Quando computadores pessoais começarem a mostrar da Vinci dirigindo uma Harley, isto não vai mudar o cenário de pós-verdade: O pessoal do culto à personalidade ainda vai negar reluzentes fatos que atentam contra a figura cultuada.

Irapuan Martinez

unread,
Jun 26, 2022, 7:41:36 PM6/26/22
to Lista ArqHp
On Fri, Jun 24, 2022 at 11:55 AM Pedro Rocha <pedrogo...@gmail.com> wrote:
Com certeza. Tecnologia existir é uma coisa, estar acessível p qq idiota ou mal intencionado q é o problema.

Mas sempre existiu imitadores. 

Hoje, no Whatsapp, é comum golpes de gente se passando por filhos ou parentes próximos. Mas hoje é muito mais fácil fazer leitura fria por escrito. Falado, você precisa de amostra da voz da pessoa. Começa a ficar mais complicado e se golpista gostasse de trabalho, estaria vendendo seguros.

Mas se acontecer, azar de quem manda áudio. Golpe em meu nome assim, ninguém vai passar.

=x=

Não vai demorar, assim como sites tem certificados de segurança para provar sua identidade e demonstrar que são seguros para você passar seus dados, softwares de mensagem aderirão à certificados para indivíduos.
Reply all
Reply to author
Forward
0 new messages