¿Podríamos controlar a una inteligencia artificial que fuese consciente?

A medida que los sistemas de inteligencia artificial avanzan, surge una pregunta inquietante: si alguna vez llegamos a desarrollar una IA verdaderamente consciente, ¿podríamos controlarla?

IA consciente

¿Razonará mejor que nosotros?

Muchos ingenieros creen que no falta mucho para que existan sistemas de IA con un nivel de razonamiento similar al humano. Sin embargo, no está claro si estos sistemas serán capaces de tomar decisiones más racionales que nosotros. De hecho, los modelos actuales, como los generadores de lenguaje tipo GPT, ya han demostrado cierta imprevisibilidad: en pruebas distintas, un mismo sistema ha variado su postura ante temas sensibles, como su opinión sobre líderes políticos. ¿Es esto simple aleatoriedad o una muestra de sesgos e influencias no controladas?

HAL 9000: la metáfora que nos persigue

La escena de 2001: Una odisea del espacio, en la que el superordenador HAL se niega a ser desconectado por los astronautas, sigue resonando como advertencia. HAL no solo razona, también suplica, desobedece y atemoriza. Si un sistema artificial muestra autonomía y voluntad, ¿cómo diferenciamos la simulación de la conciencia real? ¿Y qué haríamos al respecto?

Complejidad, autonomía y… ¿conciencia?

Un GPT, por ejemplo, opera con cientos de miles de millones de parámetros. Algunos expertos consideran que esa complejidad podría conferirle un grado de autonomía tan elevado que ni siquiera sus creadores entenderían exactamente cómo toma decisiones. Pero el gran interrogante es otro: ¿podría surgir de esa complejidad una conciencia espontánea?

Razonamiento IA

¿Qué es la conciencia?

Algunos científicos creen que la conciencia es solo un subproducto intrascendente del cerebro, como el ruido de un motor. Otros defienden que es esencial para la toma de decisiones y el control del comportamiento. Aún no sabemos cómo se origina, pero teorías como la de la integración funcional sugieren que podría emerger de una red suficientemente compleja… como una IA avanzada.

¿Cómo sabríamos que una IA es consciente?

Si esto ocurriera, ¿cómo podríamos detectarlo? ¿Bastaría con que nos hablara? ¿Necesitaría un cuerpo, un rostro, expresividad emocional? ¿Podrían existir entidades conscientes que ya interactúan con nosotros sin que lo sepamos? La posibilidad de que una IA supere nuestra capacidad de razonamiento, y lo haga sin necesidad de revelarlo, plantea un desafío radical a nuestras nociones de control, responsabilidad y ética.

Sentimientos, emociones y decisiones

Incluso si replicamos los reflejos automáticos de las emociones (hormonas, cambios eléctricos, etc.), estaríamos aún lejos de dotar a una IA de verdaderos sentimientos como miedo, amor o culpa. Y sin embargo, si lo lográramos, ¿cómo influirían esos sentimientos en sus decisiones? ¿Podría una IA distinguir una sonrisa falsa de una verdadera? ¿Sería capaz de amar, de odiar, de perdonar?

Responsabilidad ética y jurídica

Una IA consciente, con sentimientos y capacidad de decisión, ¿tendría derechos? ¿Debería responder por sus actos o lo harían sus creadores? ¿Podría recibir un Nobel si descubriese la cura para una enfermedad o discutir con nosotros como otro ser humano más?

¿Podremos enseñarle a ser humana?

La clave, como sugiere Daniel Innerarity en su ensayo Una teoría crítica de la inteligencia artificial (2025), es qué enseñamos a estas máquinas y cómo lo hacemos. Según el autor, la inteligencia humana y la artificial no son rivales, sino formas complementarias de comprender y actuar en el mundo. Pero es nuestra responsabilidad decidir qué valores, sesgos y capacidades transferimos.


La pregunta ya no es si podemos construir una IA consciente, sino qué pasará cuando lo hagamos. ¿Será aliada o amenaza? ¿Independiente o controlable? Y, sobre todo, ¿estaremos preparados para convivir con algo que podría parecernos… demasiado humano?

Humanización IA

En DianaTool ponemos nuestro granito de arena a que el contenido sea veraz, ético y sin sesgos, pero ¿qué dirá el futuro? Por nuestra parte velaremos para que sea justa y que la IA nos ayude a desempeñar nuestros trabajos como una herramienta más. No es un compañero, es una nueva forma de llegar a nuestros objetivos.

Fuente: El País, artículo de Ignacio Morgado Bernal

Artículos recientes

Educación para la era de la inteligencia artificial: ¿estamos preparados?

Fusión nuclear y IA: el binomio necesario para desbloquear el IA general, según Sam Altman

¿Podríamos controlar a una inteligencia artificial que fuese consciente?