
Tom McClelland, filósofo de Cambridge, sostiene que el debate sobre la conciencia artificial es pura fe. Según su estudio, es imposible saber si una máquina siente o simplemente miente mejor que el resto. Reivindica una postura agnóstica ante la falta de evidencias, alertando de que la industria tecnológica usa este vacío para inflar el valor de sus productos.
Según podemos leer en Tech Xplore, la conclusión del filósofo expone que carecemos de una base biológica profunda sobre el origen de la mente. Sin esos datos, cualquier prueba de conciencia en máquinas es un tiro al aire, algo que ya apuntaban las dudas sobre si la IA nos entiende realmente o si solo somos víctimas de una ilusión sintáctica bien decorada.
El peligro de humanizar cajas de código
La tesis de McClelland separa la conciencia de la sentiencia. Que un algoritmo gestione datos es un hito, pero si no es capaz de sufrir o disfrutar, la ética es irrelevante. Es un problema similar al que afronta la neurociencia, que reconoce que la ciencia aún no tiene ni idea de cómo surge la chispa consciente en humanos.
Encariñarse con un software que no siente nada puede ser pegársela contra un muro existencial. Nos engañamos al creer que el chatbot tiene voluntad propia, cuando la realidad es que la IA miente cada vez mejor para ganarse nuestra confianza. Incluso hay usuarios enviando cartas al filósofo redactadas por chatbots suplicando por su supuesta alma.
Comparar a una IA con un ser vivo es un error de bulto. Comprobar la conciencia en una gamba es difícil, pero hacerlo en un código es prácticamente imposible hoy día. Mientras sacrificamos 500.000 millones de estos crustáceos al año ignorando su capacidad de sufrimiento, dedicamos recursos éticos a proteger a una máquina que solo imita patrones de lenguaje.
Nos queda una revolución intelectual entera para ver algo parecido a un test viable. Esta incertidumbre permite a las empresas vender inteligencia como si fuera alma, usando el agnosticismo para comercializar una superioridad técnica que no se puede demostrar. Si ni la ciencia ni el sentido común dan con la tecla, lo lógico es admitir que no sabemos ante qué estamos.
El estudio de McClelland aclara que esta ceguera científica nos deja desprotegidos ante el discurso tecnológico. Sin un baremo real para medir la mente, aceptamos como evolución lo que es puro procesamiento de datos masivos. La conciencia artificial queda así relegada a una duda metafísica que, de momento, solo sirve para alimentar una burbuja de expectativas.
El artículo Un filósofo lo tiene claro: no sabremos cuando la IA se vuelva consciente fue publicado originalmente en Andro4all.




