Imagen vía EFE
Este martes se anunció que el estado de Florida abrió una investigación penal para determinar si el chatbot ChatGPT desempeñó algún papel en un mortal tiroteo en una universidad hace un año. Se trata de la primera causa penal de este tipo en Estados Unidos.
De acuerdo con elementos recabados por la fiscalía, el atacante intercambió mensajes con el chatbot asistente de la empresa OpenIA, antes de abrir fuego contra varias personas en el campus de la Universidad Estatal de Florida (FSU), que causó dos muertos y seis heridos en abril de 2025.
El fiscal general del estado, James Uthmeier, afirmó que el atacante mantuvo conversaciones con el chatbot antes del ataque y que este le habría proporcionado “indicaciones significativas”. Según la fiscalía, el sistema habría generado respuestas relacionadas con el tipo de arma, munición, así como sugerencias sobre el momento y lugar para maximizar el impacto del ataque.
“Si ChatGPT fuera una persona, estaría frente a cargos de asesinato”, declaró el funcionario en rueda de prensa.
Por su parte, OpenAI rechazó cualquier responsabilidad en el hecho, señalando que el sistema únicamente generó “respuestas objetivas” a las solicitudes del atacante. La empresa también indicó que colaboró con las autoridades y entregó información relevante tras conocer lo ocurrido, además de subrayar que el juicio contra el agresor comenzará en octubre.
El responsable del tiroteo fue identificado como Phoenix Ikner, un estudiante de 20 años de la FSU que utilizó el arma de servicio de su madre, quien trabajaba como ayudante del sheriff local. El joven fue abatido por la policía tras el ataque y hospitalizado con heridas graves, aunque fuera de peligro.
Autoridades locales señalaron que el atacante tenía acceso a armas debido a su entorno familiar y su participación en programas vinculados a la oficina del sheriff.
El caso abre un debate sin precedentes sobre la responsabilidad penal de las herramientas de inteligencia artificial y aunque la legislación de Florida contempla sanciones para quienes ayuden o inciten a cometer delitos, aplicar esta figura a un sistema automatizado representa un desafío jurídico.
El propio fiscal Uthmeier reconoció que se trata de “territorio desconocido”, pero insistió en que el hecho de que sea un chatbot “no debe excluir la responsabilidad”.
Desde su lanzamiento en 2022, ChatGPT, junto a otros sistemas como Gemini y Claude, ha sido objeto de críticas y demandas civiles, principalmente relacionadas con casos de daño psicológico o suicidios. Sin embargo, este caso podría marcar un antes y un después al intentar establecer responsabilidad penal en un homicidio.
Mientras avanza la investigación, el debate sobre los límites, riesgos y regulación de la inteligencia artificial se intensifica, en un contexto donde la tecnología avanza más rápido que las leyes que buscan controlarla.