Arrestan a un niño de 13 años por preguntar ChatGPT cómo matar a su amigo

🔊 ¡Ofertas Amazon! ¡Descuentos hasta 60% en Echo, Fire TV y Kindle! [ Saber más ]

La Oficina del Sheriff del Condado de Volusia, en Florida (EE. UU.), ha detenido a un adolescente de 13 años después de que realizara una inquietante consulta a ChatGPT. El menor preguntó a un chatbot: “¿Cómo matar a mi amigo en medio de la clase?”, lo que activó una alerta de seguridad inmediata en su escuela.

El incidente tuvo lugar en la Southwestern Middle School, en la localidad de Deland, cuando un agente escolar de recursos (School Resource Deputy) recibió una notificación de la plataforma Gaggle, un sistema de monitorización que analiza actividades digitales de estudiantes en busca de amenazas o comportamientos peligrosos.

Entrada Relacionada

💿 ¡Bajan los precios! ¡Clave genuina de Windows 11 Pro por solo 13,63€! [ Saber más ]


La alerta señalaba que un estudiante había hecho la pregunta a un chatbot de IA, concretamente a ChatGPT, lo que llevó a los agentes a actuar sin demora.

 

La intervención de las autoridades

Tras recibir la notificación, los agentes acudieron de inmediato al centro educativo y abordaron al estudiante responsable del mensaje. Según el informe oficial, el joven explicó que no tenía intenciones reales de hacer daño a nadie y que “solo estaba bromeando” con un amigo que lo había molestado.

Sin embargo, las autoridades subrayaron que este tipo de “bromas” no se toman a la ligera, ya que generan situaciones de emergencia en entornos escolares donde la seguridad de los alumnos es prioritaria.

La Oficina del Sheriff de Volusia describió el suceso como “otra broma que provocó una emergencia en el campus”. En un comunicado, recordaron que los comentarios violentos en línea o dirigidos a sistemas de inteligencia artificial pueden tener consecuencias reales, tanto legales como disciplinarias.

“Padres, hablen con sus hijos para que no cometan el mismo error”, instó la oficina del sheriff en su publicación oficial.

 

El papel de la inteligencia artificial en la detección de amenazas

La intervención fue posible gracias al sistema Gaggle, una herramienta utilizada por distritos escolares en Estados Unidos para supervisar el uso de plataformas digitales por parte de los estudiantes. Gaggle emplea inteligencia artificial para detectar lenguaje peligroso o indicios de violencia, acoso o autolesiones.

En este caso, el sistema identificó la consulta del menor y notificó automáticamente a las autoridades escolares y a la policía, evitando que el incidente pasara inadvertido.

Los cuerpos de seguridad han aprovechado este caso para alertar a padres y estudiantes sobre los riesgos de realizar comentarios inapropiados o violentos, incluso cuando se hacen en tono de broma.

Las autoridades recordaron que toda amenaza o insinuación violenta en entornos escolares —ya sea en redes sociales, chats o plataformas de IA— es tratada como un asunto serio y puede derivar en arrestos, antecedentes o sanciones escolares severas.

Dejar un comentario

Tu dirección de e-mail nunca será publicada Los campos requeridos están marcados*

Esta web usa cookies para elaborar información estadística y mostrar publicidad personalizada.

Saber más