Familiares de vítimas de um massacre armado em Tumbler Ridge, no Canadá, processaram a OpenAI sob acusação de neglicência. A ação afirma que a pessoa atiradora discutiu o tiroteio com o ChatGPT e a empresa tinha ciência disso, mas não alertou as autoridades.
- 5 situações em que você não deveria pedir conselho a uma IA
- Por que a IA sempre concorda com você, e quais os riscos disso
Ao todo, sete ações foram apresentadas para um tribunal federal em San Francisco, EUA. A empresa também é acusada de oferecer uma versão “perigosamente defeituosa” do ChatGPT, especialmente com o modelo GPT-4o, que permitiu que as conversas continuassem sem avisos mais incisivos.
Ação menciona negligência
De acordo com os dados do processo, a atiradora Jesse Van Rootselaar, que tinha 18 anos, conversava com o ChatGPT sobre temas sensíveis envolvendo o ataque. O tiroteio em fevereiro deste ano teve nove vítimas fatais, incluindo a própria atiradora, e foi considerado um dos massacres mais letais do Canadá.
-
Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.
-
Uma das ações acusa que o sistema de segurança do ChatGPT sinalizou a conta da atiradora por “planejamento e atividades com violência armada” em junho de 2025, meses antes do ocorrido. Uma equipe de proteção teria avaliado o conteúdo e pedido para que a OpenAI entrasse em contato com autoridades, mas isso não aconteceu.
A conta original foi banida, mas a jovem criou um perfil secundário logo depois. O processo ainda alerta para um “produto defeituoso” da OpenAI, visto que o modelo GPT-4o tendia a reforçar as ideias do usuário no lugar de interromper qualquer comportamento nocivo.
CEO pediu desculpas
A OpenAI enviou uma carta assinada pelo CEO, Sam Altman, ao município de Tumbler Ridge no começo da semana. Altman prestou condolências aos familiares das vítimas e pediu desculpas por não ter alertado as autoridades sobre a conta banida em junho do ano passado.
A empresa ainda publicou um comunicado no site oficial para destacar algumas medidas aplicadas para aumentar a segurança da comunidade do ChatGPT. O assistente é treinado para impedir conversas quando uma interação avança para ameaças, planejamento de ações no mundo real e prejuízo em potencial para outras pessoas.
Com relação ao contato com autoridades, a companhia afirma que isso acontece quando “as conversas indicam um risco crível de prejuízo a outros”.
Leia a matéria no Canaltech.

