Análisis
Robots, inteligencia artificial y ética
Al igual que se creó un código sobre el uso de la realidad virtual, es ahora positivo que la UE se preocupe de regular la robótica
Pierre Bourdin
Profesor de Informática, Multimedia y Telecomunicación de la UOC. Ingeniero de informática y experto en robótica
PIERRE BOURDIN
La aparición y la multiplicación de robots y otros sistemas autónomos en nuestra vida cotidiana es un cambio más sustancial de lo que podría parecer. Europa empieza a plantearse propuestas para regular este sector en pleno auge. La expansión de la inteligencia artificial (IA) y de los sistemas inteligentes, autónomos y con capacidad de decisión, replantea un abanico de problemas clásicos propios de la filosofía, relacionados con los dilemas morales.
El experimento clásico del tranvía, en estudios de ética y moral, se convierte ahora en una realidad concreta. Un tranvía corre fuera de control y puede matar a cinco personas o a una dependiendo si cambia o no de vía. Un botón permite este cambio. ¿Cuál sería la opción más ética? ¿Qué debería hacer una máquina en este caso? ¿Cómo debe un programador de AI dirigir este sistema? Ya son muchos los estudios que ponen de relieve las grandes contradicciones morales que pueden darse con los coches autónomos. ¿En qué casos podría estar justificado que una máquina tuviese derecho a matar?
El 7 de julio del 2016 en EEUU se dió una situación que implicaba un robot utilizado para matar. En concreto, la policía usó por primera vez un robot teledirigido para matar a una persona. En este caso podemos considerar que el robot fue utilizado como un arma, ya que fue tele-operado por un humano, caso que se acerca al uso de drones para matar, y que no es nuevo. Durante la última década, la expansión del uso de vehículos no tripulados armados ha cambiado la forma de hacer la guerra, trayendo nuevos desafíos morales, éticos y legales.
Son armas controladas por humanos, pero los rápidos avances en la tecnología permiten imaginar a muy corto plazo el desarrollo de armas totalmente autónomas. Capaces de elegir su objetivo y disparar a blancos que son seres humanos, sin ninguna intervención humana.
La campaña 'Stop Killer Robots!' promueve la prohibición mundial de las 'armas autónomas' y alerta que esta revolución en armamento se corresponde con una etapa de la humanidad comparable a la del descubrimietno de la pólvora o de las armas nucleares.
Mientras científicos de la talla de Elon Musk, Stephen Hawking o Noam Chomsky insisten en que es necesario darle más importancia a la ética y reflexionar sobre la seguridad antes de avanzar, algunas grandes empresas ya trabajan en algunos proyectos. Google compró ocho compañías de robótica en seis meses en el año 2013.
CÓDIGOS DE CONDUCTA
De la misma forma que se ha establecido un primer código de conducta para el uso de la realidad virtual, es positivo que en la actualidad la Unión Europea busquen definir la regulación de la utilización de la inteligencia artificial y los robots. Según Stephen Hawking: «Si bien el desarrollo de la inteligencia artificial podría ser el evento más grande en la historia humana, por desgracia podría también ser el último».
- SociedadDestrozos, puñaladas y "fiestas con escorts" en los nuevos rascacielos de lujo de Madrid: "Me fui por miedo
- SociedadUn menor y un hombre que intentaba salvarlo mueren ahogados por el oleaje en la playa del Miracle de Tarragona
- SociedadDani Alves acude a firmar a la Audiencia de Barcelona para cumplir con las medidas impuestas para su libertad
- TiempoActivada la prealerta del plan Inuncat por lluvias en varios puntos de Catalunya: "Puede superar el umbral
- SanidadLa tosferina se dispara en Catalunya: los casos de este año ya multiplican por 13 los de todo 2023
- BarcelonaVídeo | Las olas causadas por la borrasca 'Nelson' vuelven a comerse las playas de Barcelona
- Internacional25 años de cárcel para Sam Bankman-Fried, el niño prodigio de las criptomonedas
- Ocio y CulturaMuere la periodista Anna Pérez Pagès, rigor y compromiso con la cultura