A OpenAI, conhecida por desenvolver o ChatGPT, está enfrentando um processo inédito por difamação. O caso levanta questões legais complexas sobre a responsabilidade dos chatbots gerativos e a disseminação de informações imprecisas. Embora esses bots de inteligência artificial sejam utilizados de forma ampla, eles já adquiriram uma reputação duvidosa quanto à confiabilidade como fontes de informação.
O processo em questão envolve um jornalista da Geórgia que estava trabalhando em um artigo sobre um caso federal. Ao solicitar ao ChatGPT um resumo do caso, fornecendo um arquivo PDF para análise, o chatbot forneceu um resumo contendo alegações falsas contra um terceiro, Mark Walters, um conhecido apresentador de rádio em Atlanta. Segundo o ChatGPT, Walters teria desviado US$ 5 milhões de uma organização que apoia a Segunda Emenda, algo pelo qual ele nunca havia sido acusado anteriormente.
Walters, sentindo-se difamado pela disseminação dessas falsas alegações, decidiu processar a OpenAI. Alega-se que o chatbot da empresa efetivamente publicou "matéria difamatória" ao transmitir as alegações falsas ao jornalista. Isso resultou na exposição de Walters a danos à sua reputação e possíveis consequências negativas em sua vida pública. Embora o jornalista não tenha publicado as informações, ainda é desconhecido como Walters tomou conhecimento delas.
No processo, Walters busca indenizações gerais e punitivas não especificadas, além do reembolso de despesas legais. A decisão sobre o valor das indenizações será determinada por um júri.
Novidade no mundo jurídico
Esse caso pioneiro levanta uma série de questões legais complexas. Embora seja evidente que os chatbots não devem fabricar informações sobre pessoas, especialmente quando envolvem crimes, ainda não está claro se a OpenAI pode ser responsabilizada pelos danos causados. O próprio ChatGPT alerta que não é uma fonte confiável e a OpenAI já fez declarações semelhantes no passado.
A controvérsia em torno desse processo envolve a aplicação de regulamentações existentes. Pode-se argumentar que as proteções legais aplicáveis ao conteúdo gerado por usuários em plataformas online, como a Seção 230 nos Estados Unidos, não se aplicam diretamente a sistemas baseados em IA que geram conteúdo de forma autônoma.
Este caso marca apenas o início de uma série de desafios legais que provavelmente surgirão com o avanço da inteligência artificial. A rápida expansão desses serviços de texto generativo tem desencadeado discussões sobre a necessidade de regulamentações mais robustas e salvaguardas adequadas para lidar com a disseminação de informações imprecisas ou difamatórias.
FONTE: MUNDOCONECTADO.COM.BR