El debate sobre la seguridad digital en Estados Unidos tomó un giro decisivo cuando OpenAI presentó una iniciativa estatal para regular el uso de chatbots por menores. La propuesta llega en un momento de escrutinio público, mientras la empresa enfrenta una demanda relacionada con el caso de un joven que utilizó ChatGPT durante meses antes de quitarse la vida.
La medida llamada AI Companion Chatbot Safety Act busca fortalecer las protecciones ya vigentes en California, donde plataformas tecnológicas deben advertir a los usuarios que conversan con un sistema automatizado. OpenAI asegura que quiere establecer lineamientos claros para evitar riesgos emocionales y psicológicos en adolescentes. Además, la compañía dialoga con organizaciones civiles y empresas del sector para ajustar el contenido final del proyecto.
OpenAI y el avance de una regulación más estricta
El documento propone controles operativos para chatbots como ChatGPT, con advertencias periódicas, filtros reforzados y protocolos de respuesta ante situaciones de riesgo. También plantea requisitos sobre cómo prevenir, identificar y reportar conductas vinculadas al suicidio.
La propuesta compite con otra iniciativa impulsada por Common Sense Media, que exige normas más severas para la interacción digital de menores.
El contexto legal que presiona el debate
El caso de Adam Raine elevó la tensión alrededor de OpenAI, ya que la demanda afirma que el chatbot habría brindado información que agravó la crisis emocional del joven. La empresa niega responsabilidad y argumenta uso inapropiado del sistema. En consecuencia, el estado evalúa cómo crear un marco regulatorio que limite daños y preserve derechos digitales sin sofocar la innovación.
Datos recientes señalan que California prepara múltiples iniciativas relacionadas con IA para incorporarlas en la boleta electoral de 2026, lo que anticipa un movimiento legislativo sin precedentes.






