La semana pasada terminé de leer Tecnoceno, por recomendación del boletín Hipergrafía.
Un libro al estilo Homo Deus de Harari pero centrado en "algoritmos, biohackers y nuevas formas de vida", como reza la portada. Sintetiza la investigación de la académica argentina Flavia Costa sobre diversos aspectos "que provienen de utilizar las tecnologías digitales: la vida 24/7 en las pantallas, la cultura de la vigilancia, la tendencia a la búsqueda de la optimización, entre otras."
El libro concluye con este llamado:
"La tarea inaplazable de nuestro tiempo es prevenir los próximos "accidentes normales" de una inteligencia artificial diseñada según un código técnico de competitividad no sustentable, que profundiza las desigualdades y es, en definitiva, poderosamente destructivo."
Y es que como relata Flavia, la preocupación —o deseo— de muchos tecnólogos y pensadores futuristas es que la Inteligencia Artificial (AI) alcance un nivel de desarrollo tal que las máquinas "poseerán una inteligencia que será tan incomprensible para nosotros que ni siquiera podemos adivinar racionalmente cómo se alterarían nuestras experiencias de vida."
Flavia describe la transición:
Pasaremos desde una Inteligencia Artificial Estrecha (ANI, en inglés) —la que conocemos hoy y que se especializa en tareas puntuales y limitadas—, transitando por una Inteligencia Artificial General (AGI), con un desarrollo intelectual comparable al del ser humano, para derivar finalmente en una Superinteligencia Artificial, o ASI, "mucho más veloz y cualitativamente mucho más inteligente que cualquier humano, e incluso que la humanidad en su conjunto."
La noción de que las máquinas pueden llegar a ser más inteligentes que los humanos es lo que los pensadores llaman la Singularidad.
Todo esto, ciertamente, posible gracias al desarrollo científico y tecnológico.
Pero debiéramos ser cautos y escépticos de este catastrofismo técnico. Rescatando la opinión del cofundador de Microsoft Paul Allen, el informático de la Universidad de Nueva York Ernest Davis y el empresario tecnológico Mitch Kapor (en una cita de Tecnoceno):
“La asombrosa complejidad de la cognición es el verdadero asunto, porque sin tener una comprensión científicamente profunda de la cognición es imposible crear el software que podría desencadenar la Singularidad.”
O sea, necesitamos saber más de la ciencia de la mente antes de pensar en el Skynet de Terminator.
Y es que al leer Tecnoceno no pude no recordar a Humberto Maturana y Francisco Varela, los biólogos chilenos que redefinieron lo que constituye un ser vivo, y con ello iniciaron (re)planteamientos en biología, evolución, cognición, filosofía, lenguaje, y un nutrido y variado etcétera.
Mi rudimentario entendimiento sobre cognición se inició con la lectura de El árbol del conocimiento, de 1984, donde Maturana y Varela reflexionan sobre diversas materias que se entrelazan cuando el fenómeno del conocer es explicado como fenómeno biológico.
Ciencias cognitivas
En el libro Conocer, publicado en 1988, Francisco Varela entrega una radiografía de lo que denomina las ciencias y tecnologías de la cognición (CTC), un híbrido que reúne diversas disciplinas: inteligencia artificial, lingüística, epistemología, psicología cognitiva y neurociencias.
En su ensayo divide la historia de las CTC en cuatro etapas conceptualmente distintas que surgieron en los últimos 80 años, y cuyo hito fundacional es el nacimiento de la cibernética, neologismo acuñado por el científico estadounidense Norbert Wiener.
Varela lo describe así:
"La intención expresa del movimiento cibernético se puede resumir en pocas palabras: crear una ciencia de la mente. Sus líderes opinaban que el estudio de los fenómenos mentales había estado demasiado tiempo en manos de psicólogos y filósofos."
Durante esta primera etapa o fase, la cibernética descansó en el principio de que la lógica matemática era la disciplina adecuada para comprender el cerebro y la actividad mental. Así, el cerebro operaba a través de sus elementos constitutivos, las neuronas, las cuales mostraban un valor lógico de verdad o falsedad según su estado (activo o inactivo).
La segunda etapa, iniciada a fines de la década del '50, descansa en cambio en la hipótesis cognitivista de que:
"La inteligencia (incluida la inteligencia humana) se parece tanto a un ordenador o computador, en sus características esenciales, que la cognición se puede definir como la computación de representaciones simbólicas."
O sea, la cognición no es más que procesamiento de información. Manipulación de símbolos basada en reglas. Lo que importa son los símbolos, su forma. No el mensaje.
Varela sostiene que el paradigma cognitivista es el que impera en las CTC:
"La idea básica de que el cerebro es un dispositivo para procesar información y que reacciona selectivamente ante ciertas características ambientales persiste en el núcleo de la neurociencia moderna y de la percepción del público."
Y aquí encontramos la primera relación del análisis de Francisco Varela y mi lectura de Tecnoceno: el biólogo chileno sostiene en su ensayo que la inteligencia artificial es una proyección literal de la hipótesis cognitivista.
Quizás, pues, el cognitivismo se trate del primer estado de la Singularidad —la Inteligencia Artificial Estrecha que comenta Flavia en su libro—.
La tercera etapa de las CTC es la hipótesis conexionista, que entra con fuerza a fines de la década del '70 y que entiende la cognición como "la emergencia de estados globales en una red de componentes simples."
Dicho en simple, el conexionismo reconoce propiedades emergentes dentro de la red neuronal que son fundamentales para la operación del cerebro. "Si dos neuronas tienden a actuar en conjunto, su conexión se refuerza; de lo contrario disminuye. Por lo tanto, la conectividad del sistema se vuelve inseparable de su historia de transformación", explica Varela.
Así, el conexionismo entiende a las neuronas como "miembros de grandes conjuntos que aparecen y desaparecen constantemente a través de sus interacciones cooperativas."
Para Varela, pues, "los modelos conexionistas están mucho más cerca de los sistemas biológicos, así que se puede trabajar con un grado de integración entre IA y neurociencia."
¿Podría esta integración dar origen a la Inteligencia Artificial General, la segunda transición hacia la Singularidad que comenta Flavia?
Finalmente, Varela se refiere a la cuarta y última etapa —recordemos, escribió Conocer en los '80—, y que es una alternativa a la representación como base de la cognición.
Y es que tanto el cognitivismo como el conexionismo hacen referencia a la representación de un mundo externo que está dado de antemano, en palabras de Varela. En ambos se habla de elementos informativos a ser captados (cognitivismo), o de la resolución de problemas en un mundo definido (conexionismo).
Pero Varela piensa otra cosa:
"La mayor capacidad de la cognición viviente consiste en gran medida en plantear las cuestiones relevantes que van surgiendo en cada momento de nuestra vida. No son predefinidas sino enactuadas: se las hace emerger desde un trasfondo, y lo relevante es aquello que nuestro sentido común juzga como tal, siempre dentro de un contexto."
Es así como Varela denomina a esta fase la enacción, o de hacer emerger un mundo (es un neologismo). La noción básica es que las aptitudes cognitivas están inextricablemente enlazadas con la historia vivida.
Varela explica que la orientación de la enacción:
"(...) pone en tela de juicio el supuesto más arraigado de nuestra tradición científica: que el mundo tal como lo experimentamos es independiente de quien lo conoce. En cambio, si estamos obligados a concluir que la cognición no se puede entender adecuadamente sin sentido común, el cual no es otra cosa que nuestra historia corporal y social, la inevitable conclusión es que conocedor y conocido, sujeto y objeto, se determinan el uno al otro y surgen simultáneamente."
Así, para la hipótesis enactiva el cerebro se transforma en un órgano que "construye mundos en vez de reflejarlos."
Bajo esta mirada, pues, "las representaciones ya no desempeñan un papel central, la inteligencia ha dejado de ser la capacidad de resolver un problema para ser la capacidad de ingresar en un mundo compartido."
¿Conocerá la tradición científica estadounidense esta orientación no-representacional?
Sin duda que sí, pero entonces ¿por qué prevalece el paradigma cognitivista del cerebro como computador?
Después de todo, cuando nos dicen que "el cerebro procesa información del mundo exterior", todos entendemos, ¿cierto?
Quizás si no superamos ese paradigma difícilmente será posible la Singularidad.
O Skynet.
La vida sin representación
En una columna anterior (Realidad: ¿objetiva o construida?) hacía eco del aforismo "Todo hacer es conocer y todo conocer es hacer", que aparece en El árbol del conocimiento, como la máxima de la biología del conocer, esta concepción de Maturana y Varela de entender el fenómeno del conocer como fenómeno biológico.
En relación al sistema nervioso, compartía la explicación de los biólogos chilenos de que:
"(...) El sistema nervioso puede definirse, en cuanto a su organización, como teniendo una clausura operacional. Esto es, el sistema nervioso está constituido de tal manera que, cualesquiera que sean sus cambios, estos generan otros cambios dentro de él mismo, y su operar consiste en mantener ciertas relaciones entre sus componentes invariantes frente a las continuas perturbaciones que generan en él tanto la dinámica interna como las interacciones del organismo que integra. En otras palabras, el sistema nervioso opera como una red cerrada de cambios de relaciones de actividad entre sus componentes."
Esto quiere decir, entonces, que como sistema determinado por su estructura, el sistema nervioso no opera ni puede operar con representaciones de un medio ambiente externo, pues todo lo que ocurre en él depende de los cambios ocurridos en la red cerrada que es.
Este es el corazón de la hipótesis de la enacción de Varela. (Recordemos: "las representaciones ya no desempeñan un papel central, la inteligencia ha dejado de ser la capacidad de resolver un problema", como sostiene en Conocer.)
El cerebro y el computador
Este largo preámbulo lo he estimado necesario para poder compartir una crítica a una metáfora que aparece en El árbol del conocimiento, que la primera vez que leí en mis tiempos universitarios despertó mucho mi atención y curiosidad, pero que en verdad entendí poco (o nada).
Me faltaron un par de años —y más lecturas, clases y conversaciones— para digerir un poco más el pensamiento de Maturana y Varela.
Aún sigo entendiendo poco.
("De cuerpo presente" y "El fenómeno de la vida" de Varela son mi equivalente biólogo al Ulises de Joyce para los literatos.)
Pero espero que con la comprensión básica de lo que significan las hipótesis cognitivista y conexionista de la cibernética —que parecen dominar las neurociencias (me lo tendrían que aclarar mis amigos neuros)—, y de que la representación como modelo para entender el operar del cerebro no es el único camino (pensemos en la clausura operacional, la enacción y la objetividad entre paréntesis), podamos reflexionar de que quizás la Inteligencia Artificial no es la disciplina tan segura, autocontenida y vanguardista teóricamente como a veces nos plantean los medios.
No olvidemos que el cognitivismo y el conexionismo se desarrollaron en la decáda del '50 y '70, respectivamente. Ya van 50 años hasta hoy.
Aparentemente hay innovación en la técnica pero no en la teoría.
En ese sentido, me suscribo a la cuestión de la "asombrosa complejidad de la cognición" que aún persiste, como plantean Allen, Davis y Kapor (que cita Flavia en Tecnoceno y que compartí al inicio de esta columna).
Porque así como Flavia escribe que "la mente es aquello que el cerebro realiza, en la medida en que los procesos mentales surgen de los procesos físicos del cerebro", yo recomendaría la lectura del ensayo de Maturana —ingeniosamente— titulado: The mind is not in the head.
El texto de Maturana y Varela que comparto a continuación se titula "El cerebro y el computador" (1984):
La clausura operacional del sistema nervioso nos dice que su operar no cae en ninguno de los dos extremos: ni representacional, ni solipsista. En efecto, no es solipsista porque, como parte del organismo, el sistema nervioso participa en las interacciones de éste en su medio, las que continuamente gatillan en él cambios estructurales que modulan su dinámica de estados. De hecho, ésta es la base de por qué, como observadores, nos parece que las conductas animales en general son adecuadas a sus circunstancias, y por qué éstos no se comportan como si estuviesen siguiendo su propio guión con independencia del medio. Esto es así a pesar de que, para el operar del sistema nervioso, no hay afuera ni adentro, sino sólo mantención de correlaciones propias que están en continuo cambio (...). No es tampoco representacional porque, en cada interacción, es el estado estructural del sistema nervioso el que especifica cuáles perturbaciones son posibles y qué cambios gatillan ellas en su dinámica de estados. Sería un error, por lo tanto, definir el sistema nervioso como teniendo entradas o salidas en el sentido tradicional. Esto significaría que tales entradas o salidas forman parte de la definición del sistema, como ocurre con un computador y otras máquinas de origen ingenieril. Hacer esto es enteramente razonable cuando uno ha diseñado una máquina, en la cual lo central es cómo se quiere interactuar con ella. Pero el sistema nervioso (o el organismo) no ha sido diseñado por nadie, es el resultado de una deriva filogénica de unidades centradas en su propia dinámica de estados. Lo adecuado, por lo tanto, es reconocer al sistema nervioso como una unidad definida por sus relaciones internas en las que las interacciones sólo actúan modulando su dinámica estructural, esto es, como una unidad con clausura operacional. Dicho de otra manera, el sistema nervioso no capta información del medio como a menudo se escucha, sino que al revés, trae un mundo a la mano al especificar qué configuraciones del medio son perturbaciones y qué cambios gatillan éstas en el organismo. La metáfora tan en boga del cerebro como computador no es sólo ambigua sino francamente equivocada.
Quizás para que la Singularidad del Tecnoceno se haga posible, y la transición ANI-AGI-ASI ocurra, debiéramos rescatar el pensamiento de dos biólogos chilenos.