Física e ingeniería

Los sistemas físicos pueden ser entrenados para convertirse en redes neuronales

Realizan cálculos precisos de aprendizaje automático y son más eficientes que los procesadores electrónicos convencionales

Puntos de vista.

Puntos de vista. / Shubham Dhage. Unplash.

Cornell/T21

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

Investigadores de la Universidad de Cornell han enseñado a sistemas físicos, como los altavoces de ordenador, láseres o circuitos electrónicos simples, a realizar tareas propias de las redes neuronales. Son más eficientes que los procesadores electrónicos convencionales y su código está disponible en Internet.

Investigadores de la Universidad de Cornell en Estados Unidos han encontrado una manera de entrenar a sistemas físicos, como los altavoces de ordenador, láseres o circuitos electrónicos simples, para que realicen cálculos de aprendizaje automático, como identificar números escritos a mano y reconocer sonidos vocales. A esos sistemas físicos "evolucionados" los han llamado Redes Neuronales Físicas.

Al convertir estos sistemas físicos en el mismo tipo de redes neuronales que impulsan servicios como el traductor de Google o las búsquedas en línea, los investigadores han demostrado una alternativa temprana pero viable a los procesadores electrónicos convencionales.

Esa alternativa tiene la capacidad de ser mucho más rápida y energéticamente eficiente que los chips devoradores de energía que existen actualmente en los centros de datos y las granjas de servidores, que admiten muchas aplicaciones de inteligencia artificial.

"Muchos sistemas físicos diferentes tienen la complejidad suficiente para que puedan realizar una amplia gama de cálculos", explica Peter McMahon, profesor asistente de física aplicada e ingeniería en la Facultad de Ingeniería, director de este proyecto.

“Los sistemas con los que realizamos nuestras demostraciones no se parecen en nada, y no tienen nada que ver, con el reconocimiento de dígitos escritos a mano o la clasificación de vocales y, sin embargo, puedes entrenarlos para que lo hagan”, añade.

Física y computación

El tema central de la investigación del grupo de McMahon se sitúa en la intersección entre la física y la computación: cómo aprovechar los sistemas físicos para realizar la computación de manera más eficiente o rápida que las computadoras convencionales.

Para este proyecto, se centraron en un tipo de computación: el aprendizaje automático, que es una rama de la Inteligencia Artificial. El objetivo era usar diferentes sistemas físicos para realizar el aprendizaje automático de una manera genérica, de tal forma que pudiera aplicarse a cualquier sistema.

Los investigadores desarrollaron un procedimiento de entrenamiento que permitió demostraciones con tres tipos diferentes de sistemas físicos: mecánico, óptico y eléctrico. Todo lo que requirió fue un poco de ajuste y una suspensión de la incredulidad.

“Las redes neuronales artificiales funcionan matemáticamente aplicando una serie de funciones parametrizadas a los datos de entrada. La dinámica de un sistema físico también se puede considerar como la aplicación de una función a la entrada de datos en ese sistema físico”, explica McMahon.

"Esta conexión matemática entre las redes neuronales y la física es, en cierto sentido, lo que hace posible nuestro enfoque, aunque la idea de crear redes neuronales a partir de sistemas físicos inusuales pueda sonar realmente ridícula al principio".

Tres sistemas físicos

Para el sistema mecánico, los investigadores colocaron una placa de titanio encima de un altavoz disponible comercialmente, creando lo que se conoce en física como oscilador mecánico.

El sistema óptico consistía en un rayo láser a través de un cristal no lineal que convertía los colores de la luz entrante en nuevos colores mediante la combinación de pares de fotones.

El tercer experimento usó un pequeño circuito electrónico con solo cuatro componentes: una resistencia, un capacitor, un inductor y un transistor, del tipo que un estudiante de secundaria podría ensamblar en la clase de ciencias.

Sistemas capacitados

En cada experimento, los píxeles de una imagen de un número escrito a mano se codificaron en un pulso de luz o un voltaje eléctrico que se alimentó al sistema. El sistema procesó la información y dio su salida en un tipo similar de pulso o voltaje óptico.

Fundamentalmente, para que los sistemas realizaran el procesamiento adecuado, tenían que estar capacitados. Entonces, los investigadores cambiaron parámetros de entrada específicos y ejecutaron múltiples muestras, como diferentes números con diferente escritura a mano, a través del sistema físico.

A continuación, usaron un ordenador portátil para determinar cómo se deben ajustar los parámetros para lograr la mayor precisión para la tarea.

Este enfoque híbrido aprovechó el algoritmo de entrenamiento estándar de las redes neuronales artificiales convencionales, llamado retropropagación, de una manera resistente al ruido y a las imperfecciones experimentales.

Alta precisión

Los investigadores pudieron entrenar el sistema óptico para clasificar números escritos a mano con una precisión del 97%.

Si bien esta precisión está por debajo de lo que consiguen las redes neuronales convencionales que se ejecutan en un procesador electrónico estándar, el experimento muestra que incluso un sistema físico muy simple, sin una conexión obvia con las redes neuronales convencionales, se puede enseñar a realizar operaciones mecánicas de aprendizaje de forma eficiente.

El sistema óptico también fue entrenado con éxito para reconocer los sonidos de las vocales habladas.

Los investigadores han publicado su código Physics-Aware-Training en línea para que otros puedan convertir sus propios sistemas físicos en redes neuronales.

Aplicación universal

El algoritmo de entrenamiento es lo suficientemente genérico como para que se pueda aplicar a casi cualquier sistema de este tipo, incluso fluidos o materiales exóticos, y se pueden encadenar diversos sistemas para aprovechar las capacidades de procesamiento más útiles de cada uno.

“Resulta que puedes convertir casi cualquier sistema físico en una red neuronal”, dijo McMahon.

“Sin embargo, no todos los sistemas físicos serán una buena red neuronal para todas las tareas, por lo que existe una pregunta importante sobre qué sistemas físicos funcionan mejor para tareas importantes de aprendizaje automático. Pero ahora hay una manera de intentar averiguarlo, que es lo que mi laboratorio está buscando actualmente”.

Referencia

Deep physical neural networks trained with backpropagation.

Logan G. Wright et al. Nature volume 601, pages549–555 (2022). DOI: https://doi.org/10.1038/s41586-021-04223-6