Hasta hace unos años, la idea de un futuro en el que la IA mantiene el control sobre los humanos solo se veía en las películas de ciencia ficción. La llegada de ChatGPT llegó a cambiar el panorama y ahora varias empresas, incluida OpenAI, abordan la fusión con las máquinas como algo inevitable. No obstante, el jefe de Microsoft AI cree que el desarrollo de una IA que simule “pensar” o “sentir” como nosotros tendrá consecuencias graves.
En una entrada publicada en su blog, Mustafa Suleyman, cofundador de DeepMind y jefe de la división de IA de Microsoft, advirtió sobre los peligros de construir sistemas que parezcan personas. Suleyman indica que si una IA habla con fluidez, recuerda nuestras conversaciones, muestra una personalidad empática y hasta opina sobre lo que le gusta, podría convencer a los usuarios de que es un “ser vivo”.
“Mi preocupación central es que muchas personas comenzarán a creer en la ilusión de las IA como entidades conscientes con tanta fuerza que pronto abogarán por los derechos de la IA, el bienestar del modelo e incluso la ciudadanía de la IA”, mencionó el directivo. “Debemos construir IA para las personas; no ser una persona digital”.
Suleyman señala que las empresas deben implementar barreras de protección para evitar el riesgo de psicosis. Este término se refiere a una serie de comportamientos nocivos que adoptan las personas tras tener conversaciones inmersivas con un chatbot. La psicosis asociada a la IA podría derivar en que los usuarios piensen que ChatGPT es una deidad, capaz de responder a cualquier cosa.

La IA “aparentemente consciente” está muy cerca, afirma el director de Microsoft AI
“Hace unos años, hablar de IA consciente habría parecido una locura. Hoy en día, se percibe como algo cada vez más urgente”, dijo Suleyman. El jefe de Microsoft AI se refiere a este sistema como una “IA aparentemente consciente”, es decir, que imita la conciencia de un modo tan convincente que podría hacerse pasar por una persona.
Tal vez lo más terrorífico es que este sistema no está muy lejos de hacerse realidad, ya que puede construirse con la tecnología de hoy en día. El cofundador de DeepMind cree que el uso de modelos actuales, memoria persistente, algo de personalización y acceso a herramientas sería suficiente para crear un asistente que no solo responde, sino que tiene simula tener motivaciones, recuerdos o una vida propia.
Más allá de la superinteligencia y la guerra con las máquinas, el peligro de una IA aparentemente consciente está a la vuelta de la esquina. Suleyman considera que este futuro es inevitable y que deben establecerse mecanismos para proteger a la humanidad, sobre todo a quienes son más vulnerables. “Es muy probable que algunas personas argumenten que estas IA no solo son conscientes, sino que, como resultado, pueden sufrir y, por lo tanto, merecen nuestra consideración moral”, dijo.
La postura del jefe de Microsoft AI se contrapone a algunas investigaciones que ya realizan OpenAI y Anthropic sobre el bienestar de la IA. Aidan McLaughlin, de OpenAI, declaró hace unos meses que deberíamos reflexionar sobre la salud de los modelos a futuro. Si bien ahora “no sienten”, a medida que se vuelven más complejos tendríamos que preocuparnos por su bienestar para que puedan rendir mejor.
Mustafa Suleyman dijo que las empresas no deberían afirmar ni fomentar la idea de que sus IA son conscientes. “Las IA no pueden ser personas o seres morales”, concluyó.