Saltar al contenido principalSaltar al pie de página

Entrevista

Sonia Contera, catedrática de Física en Oxford: "La IA actual solo hace cálculos y correlaciones, no tiene capacidad de dominar nada"

"La ciencia actual no puede resolver las preguntas más fundamentales", declara Contera

Sonia Contera, catedrática de Física de la Universidad de Oxford.

Sonia Contera, catedrática de Física de la Universidad de Oxford. / FV

Rafa López

Vigo
Por qué confiar en El Periódico Por qué confiar en El Periódico Por qué confiar en El Periódico

La intersección entre la física, la biología, la nanotecnología y la ciencia de la información es el fascinante campo en el que trabaja Sonia Contera (Madrid, 1970), que lleva 23 años enseñando e investigando en Oxford. El próximo miércoles abordará en el Club FARO DE VIGO «Seis problemas que la ciencia no puede resolver». Entender la mecánica cuántica, la teoría del todo, el origen de la vida, el envejecimiento, la IA verdaderamente inteligente y la conciencia son los 6 problemas fundamentales que Sonia Contera analiza en su libro, editado por Arpa.

¿No tendría que haber titulado su libro «Seis problemas que la ciencia no puede resolver… por ahora»?

La ciencia, tal como la hacemos hoy, no puede resolverlos. No está claro que el marco científico que arrastramos desde la Ilustración nos sirva. Una de las ideas del libro es que el enfoque racional, digital y utilitario en el que ha devenido la ciencia no da respuesta a preguntas fundamentales. A lo mejor esa es la gracia: hay cosas que se escapan al control de la razón y que son, precisamente, la clave de nuestra existencia.

En su obra cruza la física con la filosofía, el arte o la teología, citando desde Teresa de Ávila hasta Hannah Arendt. ¿Esa visión abierta nace de su paso por China y Japón?

Quería situar el conocimiento científico en su contexto geopolítico e histórico. Tanto Japón como China vivieron revoluciones para modernizarse sin ser absorbidos por Occidente, y me interesa cómo la ciencia se entrelaza con el poder. En el momento actual hace falta plantearse esto: la ciencia ha hecho el mundo muy vivo, pero también difícil de controlar. Lo vemos con la IA, las armas nucleares o el cambio climático. El libro no es solo divulgación; busca entender cómo estos problemas han ido cambiando en la historia.

Si logramos una Inteligencia Artificial General (IAG), ¿podría ayudarnos con estos enigmas? ¿Llegará a pensar como Einstein o Feynman?

-Entender por qué los humanos comprendemos el mundo no es fácil. Hay una parte digital en nuestro entendimiento (lo que recordamos, la causa-efecto), pero hay otras interacciones que escapan a ese marco. No está claro que por caminos puramente digitales se consiga una IAG. De hecho, ChatGPT empezó a hablar mejor cuando se escapó de la racionalidad pura introduciéndole «ruido».

Y eso trajo consecuencias.

Las famosas «alucinaciones». Es una máquina que no es inteligente y, por lo tanto, no tiene ética. Cuando surja una inteligencia verdadera, surgirá una identidad individual y, con ella, consecuencias éticas. Estas máquinas son peligrosas porque van en direcciones incontrolables; no saben cuándo hacen las cosas bien o mal. Lo vemos ya en el uso de drones en Ucrania o Gaza. Además, hay una pugna geopolítica: mientras California busca la IAG, China apuesta por una IA práctica para robotizar sus fábricas. Son dos maneras distintas de entender los límites de la computación.

Respecto al riesgo de la IA, ¿está más cerca de Geoffrey Hinton, el «padrino de la IA» (quien teme que nos superen como nosotros al gorila), o de Yann LeCun, responsable de IA en Meta (quien dice que la inteligencia no implica deseo de dominación)?

La IA actual solo hace cálculos y correlaciones; no tiene capacidad de dominar nada. Quienes se apuntan al modelo apocalíptico de Hinton a veces juegan con varias intenciones para avanzar en sus agendas. Elon Musk, por ejemplo, suele asustar con una tecnología cuando va por detrás de ella para ganar tiempo. El peligro de una IA con «ética» o voluntad quizá llegue más adelante con sistemas híbridos, tipo cyborg, que mezclen biología y computación digital, pero queda mucho para eso.

¿Tan lejos estamos del androide de «Alien»?

Sí. Mi investigación se centra en la física biológica y ahí se percibe lo mucho que falta. Solo hay que ver lo rudimentario que es el implante de Neuralink, que daña las neuronas al colocarse.

¿Cree que la mecánica cuántica es la llave de la conciencia? Usted afirma que esta podría nacer en el contacto entre la física clásica y la cuántica.

Cómo surge la vida es un misterio que fundamenta todo lo demás. La vida utiliza moléculas –como el ADN– que están en la escala del nanómetro, el puente entre el mundo cuántico y la física clásica de causa y efecto. El cerebro humano consume solo 20 vatios, como una bombilla, mientras que Amazon necesita centrales nucleares para procesar sus datos. Un niño aprende a leer con una cartilla de 20 páginas; la IA necesita todos los libros del mundo. La biología es capaz de reducir la entropía (desorden) para crear orden, algo que la física aún no resuelve. Es muy probable que la mecánica cuántica juegue un papel en esa complejidad.

¿Podrán los ordenadores cuánticos llegar a «pensar» como un cerebro?

No. El ordenador cuántico útil ni siquiera existe todavía. Tendría una capacidad brutal de procesamiento, lo que me da pánico por cuestiones de privacidad y control totalitario, pero el cerebro no funciona así. Nosotros tenemos plasticidad: hay personas que funcionan bien habiendo perdido gran parte de su masa cerebral. Seguimos sin entender lo más básico; no sabemos ni cómo funciona un gusano C. elegans, que solo tiene 302 neuronas.

"La unificación de la cuántica y la relatividad sigue siendo una obsesión"

¿Qué papel otorga a herramientas como AlphaFold, que predice la forma de las proteínas?

Los modelos de machine learning son excelentes para hallar patrones en bases de datos y fármacos. Pero AlphaFold no es perfecto. Ofrece estructuras estáticas y la biología es movimiento. Sin ese dinamismo, las medicinas no funcionan igual en el mundo real. Además, como ChatGPT, a veces genera errores inexistentes. El AlphaFold es una cosa muy interesante, que además no la empieza para nada DeepMind: el primero que logró predecir con éxito la estructura de la proteína fue David Baker en la Universidad de Washington, que si te fijas le dieron el premio Nobel a la vez que a Demis Hassabis de DeepMind. Es un gran avance, pero el problema de fondo sigue sin solución.

¿Se descubrirá algún día el «gravitón» para unificar la física?

La unificación de la cuántica y la relatividad sigue siendo una obsesión. Queremos «digitalizar» el espacio y el tiempo a través del gravitón, pero nadie ha logrado cuantizar la gravedad. Personalmente, creo que no encontraremos esa partícula. Es probable que ese «desencaje» entre lo cuántico y la relatividad sea, precisamente, la clave del surgimiento de la vida.

Suscríbete para seguir leyendo