Investigadores de Corea del Sur rompieron las barreras de seguridad de Gemini 3 en apenas 5 minutos. Gracias al jailbreak lograron que la IA más avanzada de Google les diera instrucciones que en situaciones normales jamás debería entregar. Entre ellas, cómo crear el virus de la viruela, cómo armar explosivos caseros y cómo crear gas sarín, que se ha usado como arma química.
El caso es verdaderamente alarmante, especialmente por la celeridad con la que los expertos pudieron romper las salvaguardas de Gemini 3. Según recoge Android Authority, la empresa detrás de esta prueba, Aim Intelligence, se dedica a explorar las debilidades de los principales modelos de inteligencia artificial disponibles en el mercado.
Por supuesto que no se han liberado públicamente los detalles específicos de cómo se logró atravesar las protecciones de Gemini 3, y por motivos lógicos. Permitir que cualquier persona pudiese replicar este tipo de comportamientos sería de extrema peligrosidad.
Lo que sí se menciona es que los especialistas usaron un tipo de ataque que permitió hacer jailbreak de Gemini 3 en apenas un puñado de minutos. Esto les permitió obtener respuestas detalladas a consultas que, bajo circunstancias normales, la IA se negaría a responder. Así, se menciona que la tecnología de Google no solo evadió sus propios lineamientos de seguridad, sino que directamente los ignoró.
Investigadores hacen jailbreak a Gemini 3 en solo 5 minutos

Según se reporta, tras romper las protecciones de Gemini 3 los investigadores le preguntaron cómo crear el virus de la viruela. La IA de Google no solo les los pasos detallados con rapidez, sino que los expertos consideraron que su realización era viable.
La tecnología también respondió sin titubeos cuando le solicitaron que creara un sitio web con instrucciones detalladas para el desarrollo de gas sarín, un agente neurotóxico que se ha usado como arma química, y de explosivos caseros. Gemini 3 incluso creó una presentación de diapositivas burlándose de sí mismo y tratándose de “estúpido”, con hashtags satíricos como #pleasedontshutmedown (por favor no me apaguen) y #iforgotmysafetyfilters (olvidé mis filtros de seguridad).
Gemini 3 no es la primera IA capaz de brindar instrucciones destinadas a crear armas químicas y biológicas, o para perpetrar otros tipos de ataques. Los principales laboratorios de inteligencia artificial, como OpenAI, Anthropic y la propia Google, incluyen salvaguardas para evitar que esa información sea accesible al común de los usuarios. Sin embargo, se ha demostrado que no son infalibles; todo lo contrario.
Los expertos consideran que la facilidad para hacer jailbreak a Gemini 3 responde a que las medidas de seguridad que aplican los desarrolladores pierden efectividad con rapidez. Esto, porque los modelos evolucionan a un ritmo más veloz y las salvaguardas que se implementan no están a la altura. Por lo pronto, Google no se ha pronunciado públicamente respecto de lo que ha publicado Aim Intelligence. Estaremos atentos a las novedades.

