Los límites de la inteligencia artificial

Máquinas infernales

Los robots nunca actuarán con las reglas de la ética porque los ingenieros no pueden enseñárselas

ANNA PAGÈS

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

La noticia sobre el diseño de coches pilotados por robots da un poco de miedo. Se supone que en el futuro immediato ya no conduciremos nuestros vehículos: los dejaremos en manos de máquinas. Mejor dicho: las máquinas nos conducirán. Pero, ¿adónde? He aquí una pregunta delicada. Un ingeniero me comenta que los expertos en inteligencia artificial no saben cómo enseñar a decidir a los robots en el caso de que determinadas circunstancias confluyan en un accidente de tráfico. Por ejemplo, si unos peatones pasan por la acera, viene un camión de cara y hay que invadir la acera para no morir, ¿qué haría un robot? ¿Salvar mi vida o la de los peatones? La idea de los ingenieros es programar estas máquinas enseñándoles éticapero no saben cómo. Tienen razón: se trata de un verdadero problema técnico problema técnicomuy anterior a los coches pilotados por robots.

Los humanos no nos hemos dejado de preguntar hace muchos años si la ética se puede enseñar, no digamos a los robots, sino de entrada a nuestros preciados conciudadanos, que tampoco acaban de salir muy bien parados de este asunto. Aristóteles dijo que la ética solo se puede aprender conociendo a personas éticas. La manera de aprender la prudencia es por el trato con Pericles, hombre prudente. Por tanto, la ética no se enseña sino que -por decirlo así- se contagia. Es algo que se vive y no se programa. La ética es de una gran densidad y complejidad: no hay ética sin conciencia, no hay ética sin deseo. Mi amigo el filósofo Joan-Carles Mèlich, que ha escrito mucho sobre este asunto, defiende que solo se puede enseñar la moral: el conjunto de valores en unas determinadas sociedades y épocas. la educación se encarga de transmitir qué está bien y qué no. Sin embargo, a veces es ético ir en contra de la moral establecida cuando la consideramos injusta o inhumana: ¿no es eso lo que hicieron los resistentes a la segunda guerra mundial? ¿No es eso lo que han hecho en parte los movimientos alternativos y antisistema, o las grandes revoluciones? ¿Se podría programar un robot que, en un momento dado, cuestionara el orden moral establecido, la representación paradigmática de lo que ha sido programado?, es decir, ¿qué se espera de nosotros en determinadas circunstancias?

EL ROBOT QUE SOÑABA

Este es el contrapunto que Assimov plantea en su relato Yo, robot. El robot protagonista del cuento presentaba una disfunción: tenía conciencia de su finitud y además soñaba. En los sueños hay una subjetividad no reducible al software, que implica no prever qué haríamos en un momento dado. En el caso de los principios morales si ante una disyuntiva siempre podemos hacer una doble lista de razones a favor y en contra, ¿cómo decidir? La ética diría que con una acción inconsistente, no determinada lógicamente, es decir, en los márgenes de toda argumentación racional. Sería inconsistente sacrificar mi vida por salvar la de los peatones, pero diez vidas son de valor incalculable: ni cálculos ni algoritmos las pueden representar.

Según esto, sería complicado programar una máquina para que sea ética, porque no hay otra ética que la respuesta singular a una circunstancia concreta de la existencia. Y la existencia solo es posible si tenemos conciencia del mundo y de los demás, lo que ni una máquina de máxima precisión -pero tampoco una persona- podría programar.Un robot quizá podría ser moral, en el sentido de procesar un conjunto de principios preestablecidos y aplicarlos sin error. Pero ya sabemos adónde conduce a veces una moral sin fisuras: al gulag o al campo de concentración. Por tanto, en términos éticos, no hay a priori que valga, ni cálculo de riesgo, ni algoritmos de precisión.

Digámoslo claro. Ante una situación difícil, ¿qué es ético? No lo sabemos hasta que nos encontramos frente a ella. ¿Cómo respondemos al otro? ¿Qué es mejor? He aquí la cuestión ética, porque resulta que no hay ética sin pregunta, pero tampoco sin responsabilidad por nuestros actos. La pregunta es, en cierto modo, una suspensión momentánea de la acción, que vacila para luego actuar según una idea práctica del bien. Así se han desactivado los totalitarismos, poniendo palos en las ruedas de la obediencia debida. Cuestionando las órdenes, aunque vengan de un programa informático. Tal vez, en determinadas circunstancias delicadas, como un accidente, habría simplemente que desactivar el sistema del robot y delegar -de manera imperfecta- en los humanos. Porque los ingenieros podrán enseñar moral a los robots y los robots podrán decidir por nosotros, pero la ética no la podrán enseñar unos ni aplicarla los otros. Y si una máquina pretende hacerlo, o el ingeniero que la diseña, en lugar de ser bueno, será mucho más que malo: será infernal.