Ir a contenido

Miedo a la inteligencia artificial

Los científicos piden leyes éticas para que la robótica ayude al progreso humano

Advierten de que los robots solo superan a las personas en tareas muy concretas

ANTONIO MADRIDEJOS / CARMEN JANÉ / BARCELONA

La primera ley de la robótica según el universo de Isaac Asimov establece que un robot no debe hacer daño a un ser humano ni permitir que este sufra daño. La ley fue propuesta en 1942, mucho antes de que surgiera la palabra software y cuando todavía eran una quimera los coches sin conductor, los drones militares que seleccionan sus objetivos de forma autónoma, los rastreadores informáticos que definen las preferencias de los usuarios en función de las webs visitadas y un sinfín de aplicaciones domésticas e industriales de la inteligencia artificial en sentido amplio que pasan desapercibidas.

Así que, siete décadas después, más de 700 especialistas acaban de firmar un manifiesto porque consideran que la tecnología basada en la inteligencia artificial está madurando muy rápido y ya ha llegado la hora de dotarla de unos valores éticos. No vaya a ser que los nuevos dispositivos empiecen a fallar, se conviertan en Terminator o Matrix y, en definitiva, incumplan la segunda ley de Asimov: un robot debe obedecer las órdenes dadas por los humanos excepto si estas órdenes entrasen en conflicto con la primera ley.

Entre los firmantes del texto destacan el físico británico Stephen Hawking, el astrónomo sir Martin Rees y el empresario tecnológico Elon Musk, creador de PayPal y SpaceX, además de un montón de empleados de Google, Facebook y Amazon. Los avances en inteligencia artificial, sintetiza el manifiesto, deben servir para beneficiar a la humanidad. Más luchar contra el hambre y las enfermedades, y menos juegos peligrosos.

La inteligencia artificial está presente en muchos campos que pasan desapercibidos, gracias a la combinación de algoritmos cada vez más sofisticados que gestionan cantidades ingentes de datos (big data) que cruzar para extraer conclusiones y anticipar resultados. «Más que robots como Terminator que alcancen lo que se conoce como singularidad, la capacidad de pensar por sí solos, de autocontrolarse, una posibilidad que veo muy lejana, lo que se debate ahora mucho son los fines que damos a la inteligencia artificial», comenta Ramón López de Mántaras, director del Instituto de Inteligencia Artificial de Barcelona (IIA-CSIC), premio nacional de Informática del 2012 y firmante de la carta.

Por ahora, tranquiliza Mántaras, «lo que hacen los robots es lo que nosotros les hemos enseñado. Lo hacen incluso mejor que nosotros, como detectar tumores o jugar al ajedrez, pero no pueden hacer otras cosa. Deep Blue derrotó a Kasparov, pero no sabe jugar a las damas».

Según el especialista del CSIC, la singularidad «no es algo próximo, si es que alguna vez se alcanza», pero algunas aplicaciones de la inteligencia artificial sí que empiezan a ser «preocupantes». «Hablo de cuestiones que ya tenemos aquí, como los límites de la privacidad en internet por el cruce indiscriminado de datos o los fines militares».

«El manifiesto tiene una intención de causar polémica pero ni de lejos se puede todavía construir una inteligencia artificial que pueda causar la destrucción de nada», señala Ulises Cortés, coordinador del máster en Inteligencia Artificial de la UPC. «Los mayores avances han venido de la integración de la inteligencia artificial con la robótica, especialmente en usos militares, que cada vez están más desarrollados. Pero es como la bomba atómica. También fue un punto de inflexión pero fue una decisión militar sobre una capacidad científica», añade.

«Creo que es muy necesaria la regulación de los usos de la inteligencia artificial», añade Miguel Ángel Fuentes, programador, apasionado de la robótica y también firmante de la carta. «La tecnología está entre nosotros en muchas formas, pero hay que resolver otros dilemas. Si el coche autónomo desarrollado por Google atropella a alguien, ¿a quién le echaremos la culpa? O más a largo plazo: en una red de autopistas automatizadas donde los vehículos adquieren prioridad según sus comunicaciones entre ellos, ¿tendría mayor prioridad el vehículo del presidente de Estados Unidos o una ambulancia con dos personas graves?».

«Es importante el debate porque cualquier revolución tiene un impacto social, como ya ocurrió con la revolución industrial y el abandono del campo», defiende Alberto Sanfeliu, catedrático de Robótica de la UPC. «A corto plazo la robótica no va a afectar al empleo, pero a medio sí. Hoy solo el 1% de la fuerza laboral en fábricas son robots, pero cada vez habrá más y ciertos tipos de trabajos, más repetitivos y penosos, van a reducirse», afirma . Y plantea un panorama educativo que prime la innovación sobre la pura mano de obra. «Los políticos tendrán que legislar pensando en ello», dice.

0 Comentarios
cargando