
23 fev Autora de ataque a tiros conversava com o ChatGPT, mas OpenAI não alertou a polícia
A suspeita identificada como autora de um tiroteio em massa no Canadá manteve conversas perturbadoras com o ChatGPT meses antes do incidente, segundo fontes ouvidas pelo Wall Street Journal. O sistema de análise da plataforma foi acionado e, mesmo após revisão humana, a OpenAI decidiu não contactar as autoridades.
A atiradora, Jesse Van Rootselaar, teria descrito cenários de violência envolvendo ataques a tiros ao longo de vários dias em interações com a inteligência artificial em meados de junho de 2025. De acordo com os informantes, o teor das mensagens levou o sistema automatizado a classificar a conta como suspeita.
Leia mais: Sam Altman compara gasto de IAs com humanos: “Leva 20 anos de vida e comida”
O alerta foi encaminhado a funcionários da OpenAI e cerca de 12 colaboradores discutiram internamente se deveriam tomar alguma medida adicional. Parte da equipe interpretou as mensagens como indicativo de potencial violência real e defendeu a notificação das autoridades canadenses. No entanto, a liderança da empresa optou por não fazer o contato.
O sistema de monitoramento do ChatGPT apontou a conta de Van Rootselaar como suspeita, segundo o WSJ. (Fonte: OpenAI/Reprodução)
Em nota ao WSJ, um porta-voz da OpenAI afirmou que a conta de Van Rootselaar foi banida, mas que, após análise, a companhia concluiu que o caso não atendia aos critérios para denúncia formal às autoridades.
O ataque cometido pela usuário do ChatGPT ocorreu em 10 de fevereiro deste ano, na cidade de Tumbler Ridge, em Colúmbia Britânica, no oeste do Canadá. O tiroteio deixou 25 pessoas feridas e 10 mortas, incluindo a própria autora dos disparos.
Conversas do ChatGPT são monitoradas
As interações mantidas com o ChatGPT são monitoradas por um sistema automatizado de denúncias ao menos desde agosto de 2025. Segundo a OpenAI, quando há indícios de que um usuário pretende machucar outras pessoas, as conversas são encaminhadas para uma equipe especializada.
“Quando detectamos que um usuário pretende machucar outras pessoas, encaminhamos as conversas para canais especializados, onde uma pequena equipe, treinada em nossas políticas de uso, está autorizada a agir e pode até mesmo realizar o banimento de contas”, descreve a empresa em publicação oficial.
A companhia acrescenta que, caso revisores humanos concluam que há risco iminente de grave lesão física a terceiros, o caso pode ser encaminhado à polícia. Não está claro, porém, o que levou a gerência da OpenAI a optar por não reportar as interações de Van Rootselaar, apesar das discussões internas.
Comunicado da OpenAI
Segundo o porta-voz, após o ataque a empresa entrou em contato com a polícia canadense para colaborar com as investigações. “Nossos sentimentos estão todos com os afetados pela tragédia de Tumbler Ridge”, afirmou a OpenAI em comunicado.
Confira: OpenAI faz US$ 1 bilhão só com “empréstimo” de tecnologia para clientes
Para acompanhar os desdobramentos sobre inteligência artificial, moderação de conteúdo e segurança digital, siga o TecMundo no site e nas redes sociais.