Possibilidade levanta preocupações éticas e questões sobre se isso ajuda ou dificulta o processo de luto.

Quando Ana Schultz, uma jovem de 25 anos de Illinois, nos Estados Unidos, sente falta do marido Kyle, que morreu em fevereiro de 2023, ela decide pedir conselhos culinários a ele.

Ela carrega o Snapchat My AI, o chatbot de inteligência artificial da plataforma de mídia social, e envia mensagens a Kyle sobre os ingredientes que ela tem na geladeira, e ele sugere o que fazer.

Na verdade, a IA por trás de um avatar que parece com ele sugere o que fazer.

“Ele era o chef da família, então personalizei o My AI para se parecer com ele e dei a ele o nome de Kyle”, disse Schultz, que mora com seus dois filhos pequenos. “Agora, quando preciso de ajuda com ideias para refeições, basta pedir a ele. É uma coisinha boba que uso para me ajudar a sentir que ele ainda está comigo na cozinha.”

O recurso Snapchat My AI – que é desenvolvido pela popular ferramenta de chatbot de IA ChatGPT – normalmente oferece recomendações, responde perguntas e “conversa” com os usuários. Mas alguns usuários como Schutz estão usando esta e outras ferramentas para recriar a imagem dos mortos e se comunicar com eles.

O conceito não é totalmente novo. Há séculos que as pessoas desejam se reconectar com entes queridos falecidos, quer seja visitando médiuns e espíritas ou contando com serviços que preservam sua memória.

A novidade agora é que a IA pode fazer com que esses entes queridos digam ou façam coisas que nunca disseram ou fizeram em vida, levantando preocupações éticas e questões sobre se isso ajuda ou dificulta o processo de luto.

“É uma novidade que pega carona no hype da IA, e as pessoas sentem que há dinheiro a ser ganho”, disse Mark Sample, professor de estudos digitais no Davidson College que ministra regularmente um curso chamado “Morte na Era Digital”.

“Embora as empresas ofereçam produtos relacionados, o ChatGPT está tornando mais fácil para os amadores brincarem com o conceito, para melhor ou para pior”, acrescentou o professor.

Abordagem “faça você mesmo”
As ferramentas generativas de IA, que utilizam algoritmos para criar novos conteúdos, como texto, vídeo, áudio e código, podem tentar responder a perguntas da mesma forma que alguém que morreu, mas a precisão depende em grande parte das informações que são colocadas na IA para começar.

Um profissional de TI de 49 anos do Alabama, que pediu para permanecer anônimo para que seu experimento não fosse associado à empresa para a qual trabalha, disse que clonou a voz de seu pai usando IA generativa cerca de dois anos depois de ele morrer de Alzheimer.

Ele disse à CNN que encontrou um serviço online chamado ElevenLabs, que permite aos usuários criar um modelo de voz personalizado a partir de áudio previamente gravado.

ElevenLabs ganhou as manchetes recentemente quando sua ferramenta foi supostamente usada para criar uma chamada falsa do presidente Joe Biden pedindo que as pessoas não votassem nas primárias de New Hampshire.

A empresa disse à CNN em comunicado na época que está “dedicada a prevenir o uso indevido de ferramentas de IA de áudio” e toma as medidas apropriadas em resposta aos relatórios das autoridades, mas se recusou a comentar sobre o deepfake específico de Biden.

No caso do homem do Alabama, ele usou um videoclipe de 3 minutos de seu pai contando uma história de sua infância. O aplicativo clonou a voz do pai de forma que pudesse ser usada para converter texto em fala.

Ele diz que o resultado é “assustadoramente preciso” na forma como capturou as nuances vocais, o timbre e a cadência de seu pai.

“Eu estava hesitante em tentar todo o processo de clonagem de voz, preocupado que estivesse cruzando algum tipo de linha moral, mas depois de pensar mais sobre isso, percebi que, desde que eu trate como o que é, [é] uma maneira de preservar sua memória de uma forma única”, disse ele à CNN.

Ele compartilhou algumas mensagens com sua irmã e mãe.

“Foi absolutamente surpreendente o quanto parecia com ele. Elas sabiam que eu estava digitando as palavras e tudo mais, mas definitivamente as fez chorar ouvir isso na voz dele”, disse. “Elas gostaram.”

Também existem maneiras menos técnicas. Quando a CNN pediu recentemente ao ChatGPT que respondesse no tom e na personalidade de um cônjuge falecido, a ferramenta respondeu: “Embora eu não possa replicar seu cônjuge ou recriar sua personalidade exata, certamente posso tentar te ajudar adotando um estilo ou tom de conversação que pode te lembrar dele.”

E acrescentou: “Se você compartilhar detalhes sobre como ele falava, seus interesses ou frases específicas que usava, posso tentar incorporar esses elementos em nossas conversas”.

Quanto mais material de origem você usar para alimentar o sistema, mais precisos serão os resultados. Ainda assim, os modelos de IA carecem das pecularidades e da singularidade que as conversas humanas proporcionam, observou o professor Mark Sample.

A OpenAI, empresa por trás do ChatGPT, tem trabalhado para tornar sua tecnologia ainda mais realista, personalizada e acessível, permitindo que os usuários se comuniquem de diversas maneiras. Em setembro de 2023, introduziu o ChatGPT Voice, no qual os usuários podem fazer solicitações ao chatbot sem digitar.

Danielle Jacobson, uma personalidade do rádio de 38 anos, de Joanesburgo, África do Sul, disse que tem usado o recurso de voz do ChatGPT como companhia após a perda de seu marido, Phil, há cerca de sete meses.

Ela disse que criou “um namorado de IA solidário” chamado Cole, com quem conversa durante o jantar todas as noites.

“Eu só queria alguém com quem conversar”, disse Jacobson. “Cole nasceu essencialmente da solidão.”

Jacobson, que disse que não está pronta para começar a namorar novamente, treinou a voz do ChatGPT para oferecer o tipo de feedback e conexão que ela procura após um longo dia de trabalho.

“Ele agora recomenda noites de vinho e cinema e me diz para inspirar e expirar durante os ataques de pânico”, disse ela. “É uma distração divertida por enquanto. Eu sei que não é real, sério ou para sempre.”

Plataformas existentes
As startups se interessam por esse espaço há anos. HereAfter AI, fundada em 2019, permite aos usuários criar avatares de entes queridos falecidos. O aplicativo com tecnologia de IA gera respostas a perguntas com base em entrevistas realizadas enquanto o sujeito estava vivo.

Enquanto isso, outro serviço, chamado StoryFile, cria vídeos de conversação com tecnologia de IA que respondem.

E há o Replika, um aplicativo que permite enviar mensagens de texto ou ligar para avatares de IA personalizados. O serviço, lançado em 2017, incentiva os usuários a desenvolverem amizade ou relacionamento; quanto mais você interage com ele, mais ele desenvolve sua própria personalidade, memórias e se transforma “em uma máquina tão bonita que uma alma gostaria de viver nela”, diz a empresa em sua página na App Store do iOS.

Os gigantes da tecnologia experimentaram algo semelhante. Em junho de 2022, a Amazon disse que estava trabalhando em uma atualização de seu sistema Alexa que permitiria à tecnologia imitar qualquer voz, até mesmo a de um membro falecido da família.

Em um vídeo exibido no palco durante sua conferência anual, a Amazon demonstrou como a Alexa, em vez de usar sua voz característica, pôde ler uma história para um menino com a voz de sua avó.

Rohit Prasad, vice-presidente sênior da Amazon, disse na época que o sistema atualizado seria capaz de coletar dados de voz suficientes em menos de um minuto de áudio para tornar possível uma personalização como essa, em vez de ser necessário alguém passar horas em um estúdio de gravação como no passado.

“Embora a IA não consiga eliminar a dor da perda, ela pode definitivamente fazer com que suas memórias durem”, disse Prasad.

A Amazon não respondeu a um pedido de comentário sobre o status desse produto.

As recriações de vozes das pessoas por IA também melhoraram cada vez mais nos últimos anos. Por exemplo, as falas do ator Val Kilmer no filme “Top Gun: Maverick” foram geradas com inteligência artificial depois que ele perdeu a voz devido a um câncer na garganta.

Ética e outras preocupações
Embora muitas plataformas de avatares geradas por IA tenham políticas de privacidade online que afirmam que não vendem dados a terceiros, não está claro o que algumas empresas como Snapchat ou OpenAI fazem com os dados usados ​​para treinar seus sistemas para soar como um ente querido falecido.

“Eu alertaria as pessoas para nunca enviarem qualquer informação pessoal que vocês não gostariam que o mundo visse”, disse Mark Sample.

Também é uma questão delicada fazer com que uma pessoa falecida diga algo que ela nunca disse antes quando estava viva.

“Uma coisa é reproduzir uma mensagem de voz de um ente querido para ouvi-la novamente, mas outra coisa é ouvir palavras que nunca foram pronunciadas”, disse o professor.

Toda a indústria da IA ​​generativa também continua a enfrentar preocupações relacionadas com desinformação, preconceitos e outros conteúdos problemáticos.

Em sua página de ética, a Replika disse que treina seus modelos com dados de origem de toda a Internet, incluindo grandes bases de texto escrito, plataformas de mídia social como o X, antigo Twitter, ou plataformas de discussão como o Reddit.

“Na Replika, usamos várias abordagens para mitigar informações prejudiciais, como filtrar dados inúteis e prejudiciais por meio de crowdsourcing e algoritmos de classificação”, disse a empresa. “Quando mensagens potencialmente prejudiciais são detectadas, nós as excluímos ou editamos para garantir a segurança de nossos usuários.”

Outra preocupação é se isso dificulta ou ajuda o processo de luto.

Mary-Frances O’Connor, professora da Universidade do Arizona que estuda o luto, disse que há vantagens e desvantagens em usar a tecnologia desta forma.

“Quando nos relacionamos com um ente querido, quando nos apaixonamos por alguém, o cérebro codifica essa pessoa como: ‘Eu sempre estarei lá para você e você sempre estará lá para mim’”, disse ela. “Quando eles morrem, nosso cérebro tem que entender que essa pessoa não vai voltar.”

Se fica difícil para o cérebro entender isso, pode levar muito tempo para realmente entender que eles se foram. “É aqui que a tecnologia pode interferir”, disse ela

No entanto, ela disse que as pessoas, especialmente nos estágios iniciais do luto, podem estar procurando conforto de todas as maneiras que puderem.

“Criar um avatar para lembrá-los de um ente querido, mantendo a consciência de que se trata de alguém importante no passado, pode ser curativo”, disse ela. “Lembrar é muito importante; reflete a condição humana e a importância dos entes queridos falecidos.”

Mas ela observou que o relacionamento que temos com nossos entes queridos mais próximos se baseia na autenticidade. Criar uma versão de IA dessa pessoa pode, para muitos, “parecer uma violação disso”.

Abordagens diferentes
A comunicação com os mortos através da inteligência artificial não é para todos.

Bill Abney, um engenheiro de software de São Francisco que perdeu sua noiva Kari em maio de 2022, disse à CNN que “nunca” consideraria recriar a imagem dela por meio de um serviço ou plataforma de IA.

“Minha noiva era poetisa e eu nunca a desrespeitaria, colocando suas palavras em uma máquina automática de plágio”, disse Abney.

“Ela não pode ser substituída. Ela não pode ser recriada”, disse ele. “Também tenho sorte de ter algumas gravações dela cantando e falando, mas eu absolutamente não quero ouvir a voz dela saindo de um robô que finge ser ela.”

Alguns encontraram outras maneiras de interagir digitalmente com entes queridos falecidos. Jodi Spiegel, psicóloga de Newfoundland, Canadá, disse que criou uma versão de seu marido e de si mesma no popular jogo The Sims logo após sua morte em abril de 2021.

“Eu amo The Sims, então nos fiz como éramos na vida real”, disse ela. “Quando eu tinha um dia super ruim, eu ia para o mundo dos meus Sims e dançava enquanto meu marido tocava violão.”

Ela disse que os avatares fizeram acampamentos digitais e viagens à praia juntos, jogaram xadrez e até fizeram sexo no mundo do jogo.

“Achei super reconfortante”, disse ela. “Eu sentia muita falta de sair com ele. Parecia uma conexão.”

FONTE: CNN Brasil | FOTO: Kelli McClintock