OpenAI endurece regras para denunciar crimes após atentado no Canadá

A OpenAI anunciou políticas mais rígidas para denunciar possíveis crimes às autoridades. As novas diretrizes foram detalhadas em carta enviada a Evan Solomon, ministro federal do Canadá responsável por inteligência artificial, na quinta-feira (26).

Segundo o Wall Street Journal, a OpenAI havia detectado conversas perturbadoras entre a autora do atentado em Tumbler Ridge e o ChatGPT. O sistema de monitoramento identificou atividade suspeita e, após revisão humana, a conta da usuária foi banida — mas nenhuma autoridade foi alertada sobre o possível crime.

Leia mais: OpenAI faz US$ 1 bilhão só com “empréstimo” de tecnologia para clientes

“Os eventos em Tumbler Ridge são uma tragédia indescritível, e nossos corações permanecem com as vítimas, suas famílias e toda a comunidade”, afirma a carta da OpenAI, assinada pela vice-presidente de políticas globais, Ann O’Leary.

O que a OpenAI prometeu mudar?

Como parte das novas políticas, a OpenAI prometeu:

• Continuar fortalecendo o “Protocolo Aprimorado de Encaminhamento às Forças da Lei”, mantendo colaboração com autoridades canadenses e considerando o contexto do incidente de Tumbler Ridge;
• Estabelecer um ponto de contato direto com as autoridades policiais canadenses;
• Incorporar o contexto nacional e comunitário nos esforços de desescalada em conversas;
• Aprimorar o sistema de detecção para violações repetidas das políticas de serviço.

“Esses compromissos imediatos são apenas o primeiro passo no trabalho que devemos realizar em parceria com o governo canadense para aprimorar a segurança da IA”, ressaltou a executiva.

Atiradora mantinha conversas perturbadoras com o ChatGPT

A suspeita de ser autora do atentado em Tumbler Ridge mantinha conversas consideradas perturbadoras com o ChatGPT. O sistema de monitoramento automático detectou o comportamento incomum e solicitou revisão humana, que confirmou a suspeita.

A conta foi banida, mas líderes da OpenAI optaram por não informar as autoridades locais, segundo apuração do WSJ.

Na carta enviada ao governo canadense, a empresa afirmou ter identificado uma segunda conta associada à suspeita e prometeu compartilhar os dados do perfil com as autoridades.

As conversas no ChatGPT são monitoradas por um sistema automático de denúncias ao menos desde agosto de 2025.

Confira: OpenAI pode atingir valor de mercado de US$ 850 bilhões, diz site

Quer acompanhar os desdobramentos sobre segurança em IA e as mudanças nas políticas das big techs? Fique ligado no TecMundo para mais atualizações sobre tecnologia, regulação e inteligência artificial.