En los últimos días se ha intensificado una tendencia preocupante en el corazón de la industria de la inteligencia artificial: renuncias simultáneas de investigadores y expertos en seguridad que durante años trabajaron para mitigar los riesgos de estas tecnologías, justo cuando algunos de los principales actores del sector están priorizando modelos de negocio más agresivos.
Una de las salidas más comentadas fue la de Zoë Hitzig, investigadora de OpenAI que anunció su renuncia el mismo día en que la empresa comenzó a probar publicidad en su popular chatbot, ChatGPT. En una columna de opinión publicada en The New York Times, Hitzig explicó que su decisión respondía a profundas reservas sobre la estrategia de la compañía para monetizar el servicio a través de anuncios y a lo que, según ella, podría implicar para los usuarios. Señaló que muchas personas comparten con la IA detalles íntimos de su vida —temores, dudas personales y pensamientos muy privados— y que construir un sistema publicitario alrededor de esa base de interacción abre la puerta a formas de manipulación que actualmente carecemos de herramientas para comprender o controlar.
La investigadora no rechazó la publicidad per se —reconoció que operar un sistema de IA es extremadamente costoso y que la venta de espacios publicitarios puede ser una fuente de ingresos— pero advirtió que la introducción de anuncios podría empujar a la compañía en dirección de optimizar la participación del usuario sobre otras prioridades, repitiendo patrones éticos que han generado controversias en plataformas como las redes sociales tradicionales.
Paralelamente, en otra firma clave del sector, Anthropic, el jefe de seguridad e investigación en salvaguardas, Mrinank Sharma, también presentó su renuncia tras liderar equipos encargados de abordar riesgos como bioterrorismo y comportamiento no alineado de IA. Él afirmó haber visto que, con el crecimiento y la presión comercial, era cada vez más difícil sostener los valores que inicialmente lo motivaron a trabajar en la empresa. Actualmente planea retirarse del ámbito tecnológico para dedicarse al estudio de la poesía, subrayando la carga emocional y profesional que implicó su experiencia.
Estos movimientos no parecen aislados. Informes recientes señalan que varios investigadores y figuras de seguridad de grandes compañías de IA han abandonado sus puestos en un breve lapso, y algunos observadores ven en esa dinámica un posible síntoma de tensiones internas entre los compromisos éticos y las prioridades de crecimiento o monetización de estos productos.
Mientras tanto, la industria en general enfrenta un debate más amplio sobre la confianza de los usuarios y la sostenibilidad de distintos modelos de negocio, con empresas como Perplexity optando por rechazar la publicidad para preservar la percepción de objetividad de sus herramientas de IA.
En un contexto donde la adopción de la inteligencia artificial crece de manera exponencial, las salidas de estos expertos plantean preguntas sobre si las empresas están equilibrando adecuadamente las preocupaciones de seguridad, ética y negocio, o si están trasladando el foco del desarrollo responsable hacia estrategias más convencionales de monetización y expansión.




