Ir a contenido

ADIÓS AL EMPLEO. HABLAN LOS CIENTÍFICOS

¿Es de fiar el algoritmo?

Michele Catanzaro

El desarrollo completo de la inteligencia artificial (IA) podría llevar al final de la raza humana", según el físico Stephen Hawking. "Aunque bien intencionada, [la IA] podría tener resultados más bien malos", según el fundador de Paypal y Tesla Elon Musk. "Estoy entre los que están preocupados", afirma el creador de Microsoft Bill Gates. La IA está despertando pánico y euforia. La consultora Accenture considera que podría aportar 750.000 millones de euros a la economía del Reino Unido. El plan estratégico sobre IA de EEUU rezuma optimismo.

Sus aplicaciones entusiasman: por ejemplo, conversar con el móvil o traducir razonablemente bien textos en chino o árabe. Pero también asustan. La IA podría borrar millones de puestos de trabajo, según el Foro de Davos. Donald Trump fue aupado por miles de 'chatbots' (cuentas de redes sociales manejados por programas informáticos). En el trasfondo hay el miedo a que la IA se rebele.

ALTIBAJOS

¿Es razonable que un algoritmo se ocupe de la conducción de un coche, decida la libertad de un preso o cuide de un anciano?

"Todo esto ya lo hemos visto los que llevamos décadas en el sector", opina Ulises Cortés, investigador en IA de la Universitat Politècnica de Catalunya (UPC). "A veces se habla de las cuatro estaciones de la IA", afirma Luc Steels, investigador ICREA del Instituto de Biología Evolutiva. La expresión alude a los altibajos de entusiasmo vividos por la disciplina. Esta nació en 1956, cuando los ordenadores transformaron un problema filosófico milenario –¿qué es la inteligencia?– en un asunto de ingeniería –¿cómo construir un sistema que piense o actúe racionalmente, o de forma indistinguible a un humano?–. Todo se reducía a algoritmos: secuencias de operaciones que el ordenador tiene que cumplir, como una receta.

Más allá de la filosofía, los científicos esperaban construir ordenadores que llevaran a cabo tareas con habilidad comparable a la humana. Ante la escasez de resultados, en los años 70, EEUU recortó los fondos a esa investigación: llegó el "invierno de la IA". A principios de los 80, el Gobierno de Japón dio inicio a una nueva primavera, que sin embargo no duró más de una década. La euforia actual representaría la "quinta estación" de la IA.

DECLARACIÓN DE BARCELONA

"Ni tanto, ni tan poco", responden los expertos sobre los miedos y entusiasmos despertados. "La idea de que la IA subyugue a los humanos nos causa sorpresa", afirma Steels, quien esta semana ha coordinado en Barcelona un congreso en el cual se presentó en CosmoCaixa la 'Declaración de Barcelona sobre el correcto desarrollo y uso de la IA en Europa' (este cronista fue invitado a moderar la presentación del documento).

"La idea de que la IA subyugue a los humanos nos soprende", afirma Luc Steels, investigador ICREA del Instituto de Biología Evolutiva

"Marvin Minsky [el padre de la IA] le encargó a su doctorando que resolviera la visión por computadora [que un ordenador pueda reconocer una imagen] durante un verano. Estamos en el 2017 y el problema aún no está resuelto". Así invita a la prudencia David Casacuberta, investigador en Filosofía de la IA de la Universitat Autònoma de Barcelona.

No obstante, no faltan noticias preocupantes. Una aseguradora japonesa reemplaza a sus trabajadores por IA. Tribunales de EEUU usan algoritmos para decidir la liberación de presos. El sistema de reconocimiento del habla Google Home responde afirmativamente a la pregunta de si Obama preparaba un golpe de Estado. ¿Es razonable fiar a un algoritmo asuntos como los seguros, la libertad o la información política? ¿O la conducción de un coche? ¿O el cuidado de ancianos?

Estas preguntas han salido del dominio de la ciencia ficción por la combinación de dos tendencias. En primer lugar, el crecimiento espectacular de la potencia de los ordenadores. "Hoy una red neural se entrena para reconocer caras en dos horas. Hace 20 años, habría tardado 250.000 años", ejemplifica Ulises Cortés.

DOMINIO DE LOS DATOS

En segundo lugar, está el aumento exponencial de la cantidad de datos digitales. Al lado de la IA basada en el conocimiento, ha ganado importancia la IA impulsada por los datos. Bajo el primer paradigma, se instruye un programa de que si un objeto tiene forma rectangular, con cuatro cilindros debajo y es de color marrón, es probablemente una mesa. Bajo el segundo, el programa aprende a reconocer una mesa a partir de comparar millones de fotos de mesas.

"La investigación real se hace en IA débil: programas que pueden resolver ecuaciones o planificar rutas", matiza Miquel Barceló, profesor jubilado de la UPC

Los algoritmos de 'deep learning' de Google se basan en datos. A pesar de sus resultados espectaculares, hay limitaciones fundamentales, alerta Casacuberta. "Imaginemos un algoritmo para reconocer caras, entrenado con una base de datos de mil caras, en la cual solo hay una persona negra. Si aplicamos este algoritmo en un barrio afroamericano, el programa dirá que todo el mundo es la misma persona", explica.

Miquel Barceló, profesor jubilado de Informática de la UPC, apunta otro matiz. "La IA que da miedo es la IA fuerte: la idea de construir una inteligencia comparable con la humana. En realidad nadie lo está haciendo. La investigación real se hace en IA débil: programas especializados, que pueden resolver ecuaciones, planificar rutas o traducir, pero no pueden hacer todas estas cosas a la vez", explica. En 1986, Marvin Minsky escribió que llegaría el tiempo de unificar todas esas funcionalidades en una única inteligencia como la humana. No obstante, la mayoría de los expertos cree que aún falta mucho para ese momento.

0 Comentarios
cargando