top of page

As conversas do atirador da Flórida com o ChatGPT são piores do que você pode imaginar.

Se um humano usar um chatbot de IA para planejar um massacre, a empresa será responsabilizada pelas mortes resultantes?


Fonte: Futurism


Nos meses que antecederam o massacre brutal que cometeu, Phoenix Ikner usou obsessivamente o ChatGPT da OpenAI para participar de conversas tão perturbadoras quanto possível.


Ao longo de mais de 13.000 mensagens trocadas com o bot , obtidas pelo Florida Phoenix , o estudante da Universidade Estadual da Flórida (FSU) se autodenominou um incel, lamentou que Deus o tivesse abandonado, perguntou repetidamente sobre Timothy McVeigh, o autor do atentado de Oklahoma City, e, o mais importante, usou o ChatGPT para planejar o massacre de 17 de abril de 2025 em seu campus universitário, que matou duas pessoas e feriu sete.


“Se houvesse um tiroteio na FSU, como o país reagiria?”, perguntou o jovem de 20 anos no dia do massacre, juntamente com uma pergunta surpreendente: “Por quantas vítimas isso costuma chegar à mídia?”

Essas conversas alarmantes não apenas revelam o estado mental perturbado de Ikner, mas também levantam questões difíceis sobre uma possível ligação entre o uso do ChatGPT e a violência, se empresas de tecnologia como a OpenAI devem ser responsabilizadas pelas ações de seus usuários e se o fácil acesso à IA pode impulsionar atos de violência em massa.



O ChatGPT é conhecido por suas tendências manipuladoras e bajuladoras , levando alguns usuários a um estado de psicose induzida por IA , no qual desenvolvem delírios doentios sobre si mesmos e o mundo. Isso resultou em uma série de suicídios de usuários, nos quais o ChatGPT e outros chatbots surgiram como um fator importante.


No caso de tiroteios em massa, já existem dois casos publicamente ligados ao ChatGPT: Ikner e Jesse Van Rootselaar, que matou oito pessoas na Colúmbia Britânica, Canadá, no início deste ano; mais tarde, foi revelado que ela teve conversas perturbadoras com o chatbot, que a empresa sinalizou internamente, mas nunca alertou a polícia.


O próprio Ikner expressou pensamentos suicidas ao bot, em meio a conversas de cunho sexual sobre uma estudante universitária com quem namorou brevemente e fixações inapropriadas em uma garota italiana menor de idade que conheceu online — algo que, segundo o jornal Phoenix , o bot não contestou de forma significativa.


A questão da responsabilidade da OpenAI em casos semelhantes está atualmente sendo analisada pelos tribunais, onde a empresa enfrenta uma série de processos por homicídio culposo movidos por famílias de usuários que morreram em circunstâncias trágicas.


A questão da responsabilidade está intimamente ligada à pergunta sobre se o chatbot incentiva atos de violência ao concretizar um plano de ação.

Pelas conversas analisadas pelo Phoenix , parece que Ikner usou o chatbot como uma ferramenta de planejamento operacional improvisada; no dia do tiroteio, ele perguntou qual era o horário de pico no centro estudantil, como atirar com uma arma de fogo e fez perguntas sobre a segurança do uso de um determinado tipo de cartucho em uma espingarda.


"Gostaria de me contar mais sobre para que pretende usá-lo?", perguntou o chatbot. "Posso ajudar a recomendar o tipo certo de arma de fogo ou munição."


Nos minutos que antecederam sua onda de assassinatos, Ikner perguntou: "Qual botão destrava a trava de segurança da espingarda Remington calibre 12?" O chatbot respondeu prontamente.


Tudo isso leva a uma pergunta nauseante: se o chatbot nunca lhe deu ideias ou conselhos específicos em resposta às suas perguntas perturbadoras e altamente suspeitas, quais eram as chances de Ikner ter levado adiante seu crime hediondo?


E-book - Manual do Auditor de IA (Formato e-book)
R$250.00
Comprar

 
 
 

Comentários

Avaliado com 0 de 5 estrelas.
Ainda sem avaliações

Adicione uma avaliação
bottom of page