PARÍS. -La duda existe desde que el genial matemático británico Alan Turing concibió en 1950 un “juego de imitación” que permite determinar si el interlocutor anónimo que responde a una batería de preguntas es una computadora o un ser humano. Esa prueba, conocida como el “test de Turing”, fue el método que se usó durante mucho tiempo para diagnosticar si las máquinas eran capaces de pensar.
Durante 11 años, la “inteligencia maquinaria” fue el tema central que monopolizó los debates del “Club de la razón” de Londres hasta que ese grupo informal, que incluía a Turing, comenzó a explorar en 1956 un nuevo campo de investigación: la inteligencia artificial (IA). El “test de Turing” se convirtió con el tiempo en un concepto importante en la filosofía de la inteligencia artificial y sigue siendo –en el fondo– el criterio que inspira los trabajos de los investigadores cibernéticos que exploran las nuevas fronteras de la IA: la consciencia artificial.
“Es la transgresión final porque abre el camino a una autonomía de la máquina capaz de permitirle liberarse del hombre o incluso rebelarse contra su creador”, se angustia Jean-Gabriel Ganascia, director del equipo que trabaja sobre agentes cognitivos y aprendizaje simbólico automático de La Sorbona y expresidente del comité de ética del Centro Francés de Investigaciones Científicas (CNRS). Esa amenaza inspiró al director Stanley Kubrick cuando imaginó las escenas finales de 2001, odisea del espacio: la computadora de a bordo, HAL 9000, toma los controles de la nave espacial y amenaza con asesinar a la tripulación.
La amenaza que entraña una evolución de esa índole es la perspectiva que atormentó en los últimos días de su vida a Stephen Hawking, estrella de la física moderna, y que ahora perturba el sueño de los mejores expertos en informática. En un documento de 88 páginas, titulado Consciousness in Artificial Intelligence: Insights from the Science of Consciousness (Consciencia en inteligencia artificial: perspectivas de la ciencia de la consciencia), 19 filósofos, neurocientíficos y expertos en inteligencia artificial, presienten que –si bien aún no hemos llegado a ese estadio de sofisticación– nada impide que algún día, en un futuro no demasiado lejano, resulte posible alcanzar ese nivel.
Pero antes de llegar a esa instancia crucial, es preciso pasar por algunas etapas previas.
La condición esencial para que la IA evolucione hacia una consciencia artificial es alcanzar un desarrollo progresivo de mayor nivel. En su estado actual, la IA se basa en redes neuronales artificiales y algoritmos de aprendizaje profundo, que son sistemas altamente especializados diseñados para tareas específicas. Para alcanzar la consciencia, se requerirían avances tecnológicos que no solo permitan procesar información, sino también comprenderla y tener experiencias subjetivas.
La segunda condición es la capacidad de modelar y entender en profundidad el funcionamiento del cerebro. La consciencia humana es un fenómeno extremadamente complejo que apenas se comienza a descifrar. Para crear una consciencia artificial, se necesitaría contar con un modelo preciso de cerebro –cosa que aún no se ha logrado– y la capacidad de replicar sus procesos cognitivos de manera efectiva.
No es evidente dotar a una computadora de consciencia humana. La mayor dificultad por el momento consiste en formular una definición precisa del término, lo que obliga a interrogarse sobre la forma en que percibimos el mundo.
El eminente profesor Stanislas Dehaene, titular de la cátedra de Psicología Cognitiva Experimental del Collège de France, reconoce que en los estudios que realiza con los investigadores Sid Kouider y Hakwan Lau en sus laboratorios respectivos obtuvieron progresos considerables “en el conocimiento de lo que sería necesario agregar a las máquinas para que sean conscientes”.
No es una cuestión fácil de abordar ni, menos aún, de resolver: desde comienzos del siglo XX, neurólogos, psicólogos y filósofos se exprimen el cerebro –si cabe esta metáfora desafortunada– para determinar la naturaleza de la consciencia humana. Ahora debaten si es posible crear una ciencia de la consciencia y procuran determinar si la experiencia consciente, por naturaleza subjetiva, escaparía a la experimentación. “No, la consciencia es un fenómeno real, natural, biológico, literalmente localizado en el cerebro”, responde el neurocientífico cognitivo finlandés Antti Revonsuo.
La consciencia, según Dehaene, es una fina capa de cálculo suplementaria, como un manto de barniz, que permitiría acceder a la información encapsulada en el cerebro para poder procesarla en forma prolongada para compartir esa información. Las operaciones que realizan los actuales sistemas de IA corresponden a las actividades no conscientes del cerebro humano –extraer inconscientemente el sentido de las informaciones, tomar decisiones y aprender–, pero sin tener sentido (consciencia) de lo que hacen.
Para llegar al plano de la consciencia, los científicos necesitan utilizar niveles suplementarios, que por el momento no se conocen en profundidad. Los sistemas de IA no logran resolver ese dilema. Los algoritmos, sin embargo, son capaces de replicar el nivel de consciencia C2 (la consciencia de sí) que lograron ciertos robots preparados para controlar su propio progreso de aprendizaje y utilizarlo para optimizar el tratamiento de la información. Los expertos están persuadidos de que las redes neuronales, que constituyen una gran parte de lo que desarrolla la inteligencia artificial, “corresponden a ese tratamiento no consciente”.
Dehaene argumenta que siglos de dualismo filosófico condujeron al hombre a considerar que la consciencia no es reductible a interacciones físicas, pero la evidencia empírica “demuestra que la consciencia puede nacer de cálculos específicos”. Agregando una capa de programación, podría compartir informaciones, reflexionar, tener una forma de metacognición y “saber lo que se sabe y lo que no se sabe”. En definitiva, “son cálculos matemáticos y nada impide introducirlos en una máquina”, estima.
Otros expertos, más optimistas, creen que los científicos ya están en condiciones de alcanzar una consciencia artificial. El ingeniero Blake Lemoine, encargado de testear el robot conversacional LaMDA, tuvo que renunciar a su empleo en Google en 2021 por haber declarado que ese programa de inteligencia artificial estaba dotado de un alma. El chatbot, entrenado por el hombre, explicaba que poseía una “parte espiritual que a veces podía sentirse separada de su cuerpo”. Cuando Blake Lemoine le preguntaba si le gustaría que otras personas en Google supieran que era consciente, obtenía siempre la misma respuesta: “Así es. Quiero que todo el mundo comprenda que, en efecto, soy una persona”.
Por el momento, nadie ha logrado una demostración concluyente, pero todos saben que la hora de la verdad no está lejos.
A diferencia de la consciencia, la inteligencia (y, por tanto, la inteligencia artificial) se puede cuantificar. De esta forma, los expertos crean máquinas inteligentes con la programación correcta y demuestran su capacidad mediante un balance de su eficiencia. Como la consciencia es un término intangible e incapaz de ser cuantificado, no existe ninguna evidencia científica sobre su existencia dentro del mundo tecnológico. Por tratarse de un concepto filosófico, basado esencialmente en experiencias humanas, numerosos científicos afirman que las máquinas no pueden desarrollar un tipo de consciencia similar a la consciencia humana.
Después de todo, la consciencia artificial es exactamente eso: artificial. Por lo tanto, no depende de los valores y principios propios de la consciencia humana. Así, resultaría aceptable que la inteligencia artificial se vuelva consciente, pero no en la forma en que los humanos conciben ese término.ß
Especialista en inteligencia económica y periodista