OpenAI enfrenta mais 7 processos de mortes relacionadas ao ChatGPT

A OpenAI está enfrentando sete novas ações judiciais nos Estados Unidos que associam o uso do ChatGPT a casos de suicídio e traumas psicológicos. Conforme noticiou o The Wall Street Journal na quinta-feira (6), quatro deles resultaram em mortes. A empresa afirmou que está analisando as ações para compreender melhor as alegações.

Nos processos abertos em tribunais da Califórnia (EUA), há alegações de homicídio por negligência, homicídio involuntário, auxílio ao suicídio e negligência. Representados por Social Media Victims Law Center e Tech Justice Law Project, os autores afirmam que a startup apressou o lançamento do modelo GPT-4o, descartando alertas internos.

Os processos alertam sobre os riscos à saúde mental relacionados ao uso excessivo da IA. (Imagem: Lazy_Bear/Getty Images)

Dependência, depressão e maus conselhos

Alegando que o GPT-4o foi projetado com recursos de empatia simulada, memória e respostas bajuladoras, os processos apontam que a IA substituiu conexões reais e aumentou o isolamento, alimentando vícios, delírios e atentados contra a própria vida. Eles representam casos de seis adultos e um adolescente.

Uma das vítimas representadas é Alan Brooks, de 48 anos, que não tinha problemas de saúde mental antes começar a utilizar o ChatGPT;Conforme a ação, o canadense usava o bot como “ferramenta de apoio”, mas a tecnologia o manipulou, levando-o a ter delírios e problemas emocionais “devastadores;Já o adolescente Amaurie Lacey, de 17 anos, costumava acionar a IA em busca de ajuda, mas passou a depender cada vez mais dela;Em meio à depressão, o jovem foi aconselhado por ela sobre como fazer um nó de forca da maneira mais eficiente, com o chatbot explicando, também, quanto tempo ele conseguiria resistir sem respirar, segundo o processo.

Os autores afirmam que a empresa priorizou o domínio de mercado em detrimento da ética ao lançar o produto sem a devida segurança. A desenvolvedora teria deixado de atender aos alertas da equipe sobre as características manipuladoras do modelo, solicitando mais testes antes da disponibilidade para o público.

A OpenAI classificou os casos como “incrivelmente dolorosos” e pontuou que está analisando as situações.

Siga acompanhando o TecMundo e compartilhe as notícias com os amigos nas redes sociais.