Debemos usar estos avances para reforzar nuestra conexión con la realidad del misterioso universo que habitamos, para ser más reales, no menos.
Nuestra experiencia de la vida diaria nos revela un mundo complicado y, a menudo, violento que intentamos hacer más habitable, razonable y controlable a través de la ciencia y la tecnología. El cambio climático y los conflictos bélicos nos alertan de que nos encontramos en un momento arriesgado en esta empresa científico-tecnológica, que, por una parte, está desgastada ante los ojos de la gente por una historia plagada de consecuencias imprevistas y, por otra, nos ha dado tales poderes que las personas más privilegiadas ya sueñan que la utópica emancipación de la realidad física está al alcance de la mano. Los premios Nobel de este año dan claves para entender de donde viene y por dónde va el peligroso camino por el que estamos transitando.
Empiezo el rápido recorrido en la una Europa traumatizada por el horror de la Primera Guerra Mundial donde los matemáticos Kurt Goedel y Alan Turing revelaron las limitaciones de la lógica y los algoritmos digitales para interpretar la realidad, es decir, la crucial diferencia entre conocer y computar. Por su parte, la física rompió nuestra noción de “sentido común” con el puzle que creaban la mecánica cuántica y la relatividad general. Las ideas de Sigmund Freud empujaron el desarrollo de la neurociencia, que en esa época digería los descubrimientos de Ramón y Cajal, las redes de neuronas individuales que dan sustrato físico a la mente humana.
El estallido de Segunda Guerra Mundial concentró en los EE UU a los científicos más brillantes, físicos, matemáticos e ingenieros que, colaborando con los neurocientíficos, diseñaron máquinas capaces de actuar como sustratos físicos de ideas matemáticas. Las computadoras marcaron un hito histórico, ya que, rompiendo la división entre disciplinas académicas, fracturaron la frontera entre lo artificial y lo natural, lanzando la aventurada dialéctica entre “mecanización de la mente” y la “humanización de la máquina”.
Fue un físico cuántico, Max Delbrück, quien dio con la clave para entender el papel de los genes en la evolución de los seres vivos, convirtiéndose en uno de los fundadores de la biológica molecular en la década de 1930. Este campo, inspirado por el desarrollo simultáneo de la computación, intentó simplificar la complejidad de la vida como relaciones algorítmicas entre genes y proteínas, encapsuladas en “el Dogma Central” que enunció Francis Crick en 1957.
El Premio Nobel de Fisiología o Medicina en 2024 se ha concedido a Victor Ambros y Gary Ruvkun por el descubrimiento de un importante mecanismo de manipulación de genes que destruye la simplicidad del Dogma. En la década de 1980, Ambros y Ruvkun descubrieron unas moléculas de microARN capaces controlar la acción de los genes. En esa época, la mayor parte de la comunidad biológica pensaba que solo el 1% o 2% de nuestro ADN contenía información para fabricar proteínas (el resto se consideraba ADN basura, junk DNA) y que la regulación de los genes la hacían proteínas.
En los últimos 10 años, se ha demostrado (con la oposición de buena parte del establishment científico) que alrededor del 75% de nuestro ADN no es basura, sino que la célula lo traduce en ARN. Ya se han identificado más de 2.000 microARNs en el genoma humano, que en su mayoría tienen funciones reguladoras de genes. Estos descubrimientos complican la historia algorítmico-molecular, pero abre nuevas posibilidades de intervención “digital”. La cantidad y diversidad de estos ARN ha atraído inmediatamente a los científicos que aplican la inteligencia artificial (IA) al análisis de datos para intentar descubrir relaciones entre microARN, fármacos y enfermedades que permitan su aplicación médica. Está por ver si los pueden encontrar y qué consecuencias habrá si lo hacen.
Esta confianza en que la IA pueda ayudar a resolver problemas de gran complejidad biológica se justifica con los resultados que han merecido el premio Nobel de Química, otorgado a los científicos de Google DeepMind, Demis Hassabis y John Jumper, por predecir formas y funciones de proteínas y al bioquímico David Baker por crear proteínas que no existen en la naturaleza. En realidad, fue el equipo de Baker el que, en 2014, demostró que era posible resolver uno de los problemas más difíciles de la ciencia, predecir la estructura de una proteína. Su enfoque se sustentaba en décadas de investigación y colaboración experimental y computacional: no usaba IA, sino la física y la historia evolutiva de las proteínas en la Tierra.
El equipo de Baker no se quedó ahí, e inmediatamente pasaron a aplicar el proceso al revés, es decir, a diseñar proteínas en el ordenador y usar los métodos de la biología molecular para convertir células vivas en fábricas de esas proteínas a partir de genes sintéticos. Así, hicieron realidad uno de los sueños de la nanotecnología, el diseño con precisión atómica de nanoestructuras complejas.
El equipo de Baker usó esta tecnología para diseñar, por ejemplo, una vacuna contra la covid (SKYCovione). Aunque el potencial médico y tecnológico es enorme, todavía queda mucho por aprender, porque las células imponen restricciones en los diseños digitales que se pueden o fabricar usando este método, no todo es posible en el mundo real. En 2021, DeepMind hizo público su algoritmo Alphafold, capaz de encontrar la estructuras de las proteínas de una manera más eficiente que el de Baker, usando la capacidad de computación DeepMind que puso al servicio de toda la comunidad científica. Aquí la IA revela su poder útil para avanzar la investigación médica rápida y eficazmente y democratizar las herramientas científicas.
Cabe resaltar que no todas las proteínas humanas tienen estructura fija, y que el desorden es un arma física que usa la biología que está fuera del alcance de estos avances.
Este auge de los métodos de IA ha motivado el Nobel de Física se haya concedido a John Hopfield y al Geoffrey Hinton (también de Google), que utilizaron las herramientas de la Física para desarrollar redes neuronales artificiales que sentaron las bases de muchas de las aplicaciones actuales de IA. Hopfield se inspiró en los modelos de las interacciones de los átomos en materiales magnéticos para desarrollar su famosa red neuronal en la década de 1980. Hinton contribuyó con la llamada máquina de Boltzmann.
Las similitudes de las redes neuronales con la física de la magnetización ya habían sido sugeridas por Walter Pitts y Warren MacCulloch en 1947.
Muchos han criticado este Nobel por apuntarse a la promoción de la IA en un contexto comercial complicado (el Departamento de Justicia de EE UU está considerando romper Google) y porque las redes neuronales basadas en estos métodos no han descubierto nada sobre la realidad por ellas mismas; al contrario, su nivel de abstracción, produce errores a-físicos y las conocidas “alucinaciones”. Además, en su estado actual las redes siguen necesitando muchísimos datos y muchísima energía para calcular sus predicciones (6 órdenes de magnitud más que el cerebro humano). La reacción de Hinton ante estas críticas es reveladora de la mentalidad de muchos en este campo. Hinton defiende que las alucinaciones son prueba de que las redes neuronales piensan como los humanos porque los humanos, en realidad, “alucinamos” nuestra conciencia. Para Hinton la realidad humana es “virtual”.
Con estas afirmaciones, Hinton se apunta al fetichismo que parte de la comunidad científica ha desarrollado con sus modelos computacionales; al enfrentarse a su falta la capacidad de dominar y entender completamente una parte de la realidad, el científico construye una imagen idealizada de ella, adquiriendo así un dominio sobre la imagen, que convierte en una especie de fetiche. En este caso, la ilusión de la mecanización de la mente funciona como una fantasía de dominación de la conciencia humana y de la realidad. Es la fantasía que Hinton usa ahora para crear escenarios apocalípticos donde la IA acaba con los humanos…
No nos dejemos llevar por el miedo, porque si algo nos recuerdan los premios Nobel de este año es que necesitamos los imperfectos poderes de la IA y de la ciencia para solucionar los grandes retos a los que nos enfrentamos. También nos advierten de que no debemos olvidarnos de que la evidencia histórica de los últimos siglos, que nos previene contra las utopías y las fantasías de la razón, que suelen terminar en catástrofes bélicas o desastres ecológicos.
Hay otra opción: usar estos avances para reforzar nuestra conexión con la realidad del misterioso universo que habitamos, para ser más reales, no menos. Como sabemos los físicos, para acceder a esa realidad que da sentido a nuestras vidas necesitamos recurrir a capacidades humanas no digitales, como la intuición, la esperanza, la emoción y la empatía, que siempre han estado presentes guiando nuestras vidas en el arte, la literatura, las tradiciones culturales y la historia. No abandonemos nuestra humanidad por sueños utópicos que nunca han acabado bien.