As conversas do atirador da Flórida com o ChatGPT são piores do que você pode imaginar.
- Time ALGOR

- 21 de abr.
- 3 min de leitura
Se um humano usar um chatbot de IA para planejar um massacre, a empresa será responsabilizada pelas mortes resultantes?
Fonte: Futurism
Nos meses que antecederam o massacre brutal que cometeu, Phoenix Ikner usou obsessivamente o ChatGPT da OpenAI para participar de conversas tão perturbadoras quanto possível.
Ao longo de mais de 13.000 mensagens trocadas com o bot , obtidas pelo Florida Phoenix , o estudante da Universidade Estadual da Flórida (FSU) se autodenominou um incel, lamentou que Deus o tivesse abandonado, perguntou repetidamente sobre Timothy McVeigh, o autor do atentado de Oklahoma City, e, o mais importante, usou o ChatGPT para planejar o massacre de 17 de abril de 2025 em seu campus universitário, que matou duas pessoas e feriu sete.
“Se houvesse um tiroteio na FSU, como o país reagiria?”, perguntou o jovem de 20 anos no dia do massacre, juntamente com uma pergunta surpreendente: “Por quantas vítimas isso costuma chegar à mídia?”
Essas conversas alarmantes não apenas revelam o estado mental perturbado de Ikner, mas também levantam questões difíceis sobre uma possível ligação entre o uso do ChatGPT e a violência, se empresas de tecnologia como a OpenAI devem ser responsabilizadas pelas ações de seus usuários e se o fácil acesso à IA pode impulsionar atos de violência em massa.

O ChatGPT é conhecido por suas tendências manipuladoras e bajuladoras , levando alguns usuários a um estado de psicose induzida por IA , no qual desenvolvem delírios doentios sobre si mesmos e o mundo. Isso resultou em uma série de suicídios de usuários, nos quais o ChatGPT e outros chatbots surgiram como um fator importante.
No caso de tiroteios em massa, já existem dois casos publicamente ligados ao ChatGPT: Ikner e Jesse Van Rootselaar, que matou oito pessoas na Colúmbia Britânica, Canadá, no início deste ano; mais tarde, foi revelado que ela teve conversas perturbadoras com o chatbot, que a empresa sinalizou internamente, mas nunca alertou a polícia.
O próprio Ikner expressou pensamentos suicidas ao bot, em meio a conversas de cunho sexual sobre uma estudante universitária com quem namorou brevemente e fixações inapropriadas em uma garota italiana menor de idade que conheceu online — algo que, segundo o jornal Phoenix , o bot não contestou de forma significativa.
A questão da responsabilidade da OpenAI em casos semelhantes está atualmente sendo analisada pelos tribunais, onde a empresa enfrenta uma série de processos por homicídio culposo movidos por famílias de usuários que morreram em circunstâncias trágicas.
A questão da responsabilidade está intimamente ligada à pergunta sobre se o chatbot incentiva atos de violência ao concretizar um plano de ação.
Pelas conversas analisadas pelo Phoenix , parece que Ikner usou o chatbot como uma ferramenta de planejamento operacional improvisada; no dia do tiroteio, ele perguntou qual era o horário de pico no centro estudantil, como atirar com uma arma de fogo e fez perguntas sobre a segurança do uso de um determinado tipo de cartucho em uma espingarda.
"Gostaria de me contar mais sobre para que pretende usá-lo?", perguntou o chatbot. "Posso ajudar a recomendar o tipo certo de arma de fogo ou munição."
Nos minutos que antecederam sua onda de assassinatos, Ikner perguntou: "Qual botão destrava a trava de segurança da espingarda Remington calibre 12?" O chatbot respondeu prontamente.
Tudo isso leva a uma pergunta nauseante: se o chatbot nunca lhe deu ideias ou conselhos específicos em resposta às suas perguntas perturbadoras e altamente suspeitas, quais eram as chances de Ikner ter levado adiante seu crime hediondo?




Comentários