Análisis

Robots, inteligencia artificial y ética

Al igual que se creó un código sobre el uso de la realidad virtual, es ahora positivo que la UE se preocupe de regular la robótica

esala27851988 barcelona 14 11 2014 sociedad robots de usos ciudadanos  fot161221181950

esala27851988 barcelona 14 11 2014 sociedad robots de usos ciudadanos fot161221181950 / periodico

PIERRE BOURDIN

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

La aparición y la multiplicación de robots y otros sistemas autónomos en nuestra vida cotidiana es un cambio más sustancial de lo que podría parecer. Europa empieza a plantearse propuestas para regular este sector en pleno auge. La expansión de la inteligencia artificial (IA) y de los sistemas inteligentes, autónomos y con capacidad de decisión, replantea un abanico de problemas clásicos propios de la filosofía, relacionados con los dilemas morales

El experimento clásico del tranvía, en estudios de ética y moral, se convierte ahora en una realidad concreta. Un tranvía corre fuera de control y puede matar a cinco personas o a una dependiendo si cambia o no de vía. Un botón permite este cambio. ¿Cuál sería la opción más ética? ¿Qué debería hacer una máquina en este caso? ¿Cómo debe un programador de AI dirigir este sistema? Ya son muchos los estudios que ponen de relieve las grandes contradicciones morales que pueden darse con los coches autónomos. ¿En qué casos podría estar justificado que una máquina tuviese derecho a matar?

El 7 de julio del 2016 en EEUU se dió una situación que implicaba un robot utilizado para matar. En concreto, la policía usó por primera vez un robot teledirigido para matar a una persona. En este caso podemos considerar que el robot fue utilizado como un arma, ya que fue tele-operado por un humano, caso que se acerca al uso de drones para matar, y que no es nuevo. Durante la última década, la expansión del uso de vehículos no tripulados armados ha cambiado la forma de hacer la guerra, trayendo nuevos desafíos morales, éticos y legales.

Son armas controladas por humanos, pero los rápidos avances en la tecnología permiten imaginar a muy corto plazo el desarrollo de armas totalmente autónomas. Capaces de elegir su objetivo y disparar a blancos que son seres humanos, sin ninguna intervención humana.

La campaña 'Stop Killer Robots!' promueve la prohibición mundial de las 'armas autónomas' y alerta que esta revolución en armamento se corresponde con una etapa de la humanidad comparable a la del descubrimietno de la pólvora o de las armas nucleares.

Mientras científicos de la talla de Elon MuskStephen Hawking o Noam Chomsky insisten en que es necesario darle más importancia a la ética y reflexionar sobre la seguridad antes de avanzar, algunas grandes empresas ya trabajan en algunos proyectos. Google compró ocho compañías de robótica en seis meses en el año 2013. 

CÓDIGOS DE CONDUCTA 

De la misma forma que se ha establecido un primer código de conducta para el uso de la realidad virtual, es positivo que en la actualidad la Unión Europea busquen definir la regulación de la utilización de la inteligencia artificial y los robots. Según Stephen Hawking: «Si bien el desarrollo de la inteligencia artificial podría ser el evento más grande en la historia humana, por desgracia podría también ser el último».