Ética de la IA en la Prevención de la Violencia

Publicado el mar 04, 2026.
Engranajes interconectados con un escudo que simboliza la protección.

La creciente intersección entre inteligencia artificial y la seguridad pública ha suscitado intensos debates sobre la responsabilidad de las plataformas tecnológicas en prevenir la violencia. Un reciente incidente en Tumbler Ridge, Columbia Británica, ha destacado la complejidad de estos desafíos. El suspecto, Jesse Van Rootselaar, fue asociado con una cuenta de ChatGPT que fue prohibida por OpenAI más de seis meses antes de un tiroteo masivo. Esto plantea interrogantes sobre cuándo y cómo deben actuar las empresas de tecnología en situaciones que podrían potencialmente resultar en daño a personas.

OpenAI identificó la cuenta de Van Rootselaar en junio de 2025 como parte de sus esfuerzos por detectar y prevenir abusos en su plataforma. Según los informes, la empresa no notó comportamientos que constituyeran una amenaza inminente o creíble, un umbral que ha sido objeto de crítica tras el trágico evento. En el contexto de este suceso, es crucial entender que las herramientas de IA, como ChatGPT, son diseñadas para evaluar el lenguaje y las interacciones, pero no son infalibles. Además, su política de actuar solo en caso de riesgo inmediato pone de relieve un dilema ético: ¿deben las empresas asumir un riesgo más amplio en la prevención de la violencia, o es más seguro proteger la privacidad de los usuarios?

Un ejemplo de lo que podría ser un indicio de violencia es el comportamiento en línea de los individuos que buscan discutir o glorificar actos violentos. La situación de Van Rootselaar sugiere la importancia de un balance delicado, donde las acciones proactivas de las empresas deben equilibrarse con la preocupación por la privacidad y la libertad de expresión. La capacidad de la IA para identificar patrones de comportamiento dañino es prometedora, pero también arriesgada. Las decisiones de OpenAI de no alertar a las autoridades, incluso después de la identificación de la cuenta, han generado cuestionamientos sobre la eficacia de su sistema de detección de abusos.

TECNOLOGÍAÉTICAINTELIGENCIA ARTIFICIALSEGURIDAD PÚBLICAVIOLENCIA

Lee esto a continuación

img
tecnología

Ética de la IA en la Prevención de la Violencia

El artículo examina el caso de Jesse Van Rootselaar y su cuenta de ChatGPT, prohibida meses antes de un tiroteo. Resalta la responsabilidad ética de las plataformas de IA en la prevención de violencia y los desafíos de la privacidad.