top of page
  • feliperibbe

Google Duplex e o debate sobre ética no uso de inteligência artificial

Atualizado: 25 de set. de 2018

Semana passada o Google chocou o mundo em sua conferência anual, a I/O, ao revelar o Duplex, uma nova aplicação que consegue imitar vozes de seres humanos de forma incrivelmente parecida. Segundo o CEO da empresa, Sundar Pichai, o Duplex foi desenvolvido para ser uma função do Google Assistant (o assistente de voz da companhia) que, quando lançado, permitirá que os donos do equipamento consigam agendar compromissos via telefone sem precisar ligar pessoalmente; bastará dar a ordem ao Assistant com suas preferências (como, por exemplo, marcar um corte de cabelo na quarta-feira, ao meio-dia) e o Duplex fará o trabalho sozinho. Veja o vídeo abaixo, no qual Pichai demonstra a tecnologia na I/O e repare como a semelhança com a voz humana é impressionante. Nele, a aplicação liga para um salão de beleza (usando uma voz feminina) e para um restaurante para reservar uma mesa (com voz masculina):

O Duplex ainda está em fase de desenvolvimento e, espera-se, deve ser disponibilizado nos EUA no meio do ano. Por enquanto, a aplicação será capaz de funções limitadas, como agendar compromissos em salões e restaurantes, ou seja, caso a conversa vá para outros assuntos o Duplex não seria capaz de manter o diálogo. Porém, o que foi mostrado no I/O foi o suficiente para levantar um debate sobre ética no uso de inteligência artificial.


Apesar das intenções do Google parecerem ser boas para com a tecnologia – liberar as pessoas de certas tarefas “chatas” para que possam se concentrar no que realmente importa -, a verdade é que o Duplex está, de certa forma, enganando quem está do outro lado da linha. Ou seja, a atendente do salão achava que estava conversando com uma pessoa, quando na verdade era uma máquina. Como você se sentiria se soubesse que fora “enganado” dessa maneira? Será que começaria a desconfiar de outras ligações? Naturalmente temos uma tendência de não gostar de conversar com máquinas. Quem nunca desligou um telefonema quando percebeu que um robô estava querendo te vender um serviço? Quem nunca se irritou quando ligou para, por exemplo, uma empresa de TV por assinatura para reclamar e não pôde interagir com um ser humano?


Alguns críticos dizem que tecnologias como o Duplex devem ter vozes robotizadas, para quem estiver interagindo com elas saiba com quem (ou o quê) estejam falando. O Google não quer isso, justamente pela nossa tendência de interromper a ligação quando nos damos conta de que do outro lado há uma máquina. A empresa, porém, diante do debate aberto, promete incutir na tecnologia algum tipo de sinalização de que se trata de uma aplicação e não uma pessoa. Algo como “Olá, sou o Google Assistant e estou ligando em nome de um cliente”. Dessa maneira ficaria claro que a conversa não seria com um ser humano.


Usar tecnologia para “enganar” outros pode parecer inofensivo nestes casos, afinal, que mal podem fazer algumas ligações que estão gerando serviços para este salões e restaurantes? Mas imaginem se a aplicação for além, como, por exemplo, simulando uma conversa com conteúdo comprometedor de um político.


Isso é perfeitamente possível. Basta que as técnicas desenvolvidas pelo Google caiam em mãos erradas e sejam alteradas para ter inteligência não para agendar compromissos e sim para dialogar sobre atos ilícitos. Neste caso você poderia perguntar: como conseguiriam simular a voz de alguém conhecido?


Fácil. Esta tecnologia já existe. A Adobe, criadora do Photoshop (usado muitas vezes para alterar imagens com propósitos escusos), anunciou em 2017 o VoCo, uma aplicação de edição de áudio. Com ele, é possível adicionar palavras que não foram faladas por certa pessoa imitando a voz desta. Para isso, bastam 20 minutos de áudio e o VoCo consegue identificar e simular a voz como se a mesma fosse original.


A Lyrebird, uma startup canadense, foi além e afirma que consegue fazer o mesmo com apenas 1 minuto de aúdio. Eles, inclusive, lançaram uma amostra da tecnologia, simulando uma conversa entre Barack Obama, Donald Trump e Hillary Clinton comentando sobre a própria empresa, como pode ser ouvido no áudio abaixo.

É óbvio que o diálogo acima ainda precisa de ajustes; claramente dá para perceber que não são os três políticos de fato que estão conversando entre si. Mas como todas as tecnologias, essa também vai evoluir a ponto de ser difícil (pra não dizer impossível) discernir entre o que é real e o que foi criado. Agora, para completar, que tal juntarmos o Lyrebird ou VoCo evoluídos com o Duplex alterado? Poderíamos ter, por exemplo, uma ligação de Trump tramando com Moon Jae-in, presidente da Coreia do Sul, um ataque à Coreia do Norte. Ou, trazendo o problema para nossa realidade, um juiz do STF ligando para um político investigado pedindo propina para livrá-lo de punição.


Você pode ver isso como teoria da conspiração, mas não se engane. As tecnologias estão aí e basta que sejam incrementadas e fiquem à disposição de indivíduos com más intenções para que o cenário acima torne-se realidade. Em época de fake news, alguma dúvida que tem gente pensando nessas coisas?


Talvez seja a hora de debatermos seriamente os limites éticos do uso de novas tecnologias e pensarmos sobre como regulá-las para que não sejam usadas para fins obscuros. Não se trata de podar a evolução tecnológica, mas sim controlá-la de alguma forma, antes que seja tarde.

Comments


bottom of page