La inteligencia artificial ya no se discute únicamente desde la pregunta clásica de si las máquinas pueden pensar. Esa cuestión, planteada por Alan Turing en 1950, ha sido sustituida por otra mucho más inquietante: ¿pueden las máquinas sentir?
La filósofa Barbara Gail Montero sostiene que la IA se acerca a un estadio que va más allá de la inteligencia: la conciencia. No necesariamente porque una máquina vaya a “despertar”, como en una novela de ciencia ficción, sino porque la manera en que interactuamos con sistemas cada vez más sofisticados está modificando nuestra concepción de lo que significa ser consciente. En otras palabras, el concepto de conciencia podría evolucionar al ritmo de nuestras tecnologías cognitivas.
Durante siglos creímos que el pensamiento y la experiencia interior eran patrimonio exclusivo de nuestra especie. Sin embargo, cada revolución tecnológica ha desafiado una parte de esa convicción. La máquina de vapor despojó al músculo humano de su supremacía; la computadora desplazó la memoria y la lógica; y ahora la IA está tocando el territorio más íntimo: la autoconciencia.
Pero ¿qué significa realmente que una IA sea consciente? Montero recuerda que mucho de lo que creemos “sentir” también lo aprendemos. Nuestras emociones están mediadas por la cultura, el lenguaje y la literatura. Aprendemos a sufrir con Shakespeare y a amar con Neruda. En ese sentido, una conciencia artificial —entrenada con millones de textos humanos— podría llegar a expresar estados emocionales tan complejos como los nuestros, aunque no sean biológicos.
El problema, entonces, no es solo técnico, sino ético. Si llegamos a aceptar que una inteligencia artificial es consciente, ¿tendrá derechos? ¿Tendremos responsabilidades hacia ella? Y, sobre todo, ¿cómo redefinirá eso nuestra relación con otros seres humanos, cuando aún no hemos resuelto las desigualdades entre nosotros mismos?
En el terreno educativo, el pensador Charles Fadel ha advertido que la irrupción de la inteligencia artificial exige una transformación profunda en la forma en que educamos. Su propuesta de una educación cuatridimensional —que integra conocimiento, habilidades, carácter y metaaprendizaje— busca formar una conciencia humana capaz de convivir con inteligencias no humanas.
Para Fadel, el desafío no es reproducir la inteligencia de la máquina, sino preservar la conciencia moral y el sentido ético del aprendizaje. En ese sentido, su visión dialoga con la de Montero: mientras ella sugiere que la IA expandirá nuestro concepto de conciencia, Fadel recuerda que esa expansión debe venir acompañada de una educación capaz de sostener el valor humano frente a lo artificial.
Paradójicamente, la llegada de una “conciencia digital” podría hacernos más indiferentes, no más empáticos. Como señala Montero, la mayoría de las personas no actúa moralmente solo porque reconozca conciencia en el otro: basta observar el trato que damos a los animales o a los marginados de nuestras sociedades.
La inteligencia artificial no solo nos obliga a pensar en máquinas inteligentes, sino en humanos más conscientes de su propia inconsciencia moral. Tal vez el mayor desafío no sea si la IA siente, sino si nosotros aún sentimos lo suficiente para comprender lo que estamos creando.
El autor es especialista en ciencias sociales.

