Avance tecnológico

IA: unas herramientas que debemos controlar

Dejar en manos de la Inteligencia Artificial la vida de la gente puede resultar problemático. Pero si la utilizamos para analizar mejor la realidad o sacarnos de encima trabajos repetitivos será bienvenida

La ética debe formar parte del diseño de algoritmos para evitar que la inteligencia artificial sea perniciosa para las mujeres y ciertos colectivos desfavorecidos y vulnerables.

La ética debe formar parte del diseño de algoritmos para evitar que la inteligencia artificial sea perniciosa para las mujeres y ciertos colectivos desfavorecidos y vulnerables. / PIXABAY

Pere Puigdomènech

Pere Puigdomènech

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

Sobre lo que empezamos a entender como Inteligencia Artificial (IA) está hablando mucha gente y en particular algunos que han logrado enormes fortunas con el desarrollo de los sistemas digitales, como Bill Gates o Elon Musk. Que ellos hablen tanto puede ser un signo de que algo debe estar pasando.

Lo que está ocurriendo es la maduración de un conjunto de sistemas de tratamiento de los datos que hace más de 50 años que se estaban desarrollando. Solo hace falta tener en cuenta que en el campus de la UAB existe un Instituto de Investigaciones en Inteligencia Artificial que se fundó hace 30 años. Y también hay que tener en cuenta que ya, desde entonces, muchos se preguntaban sobre la pertenencia de llamar a estos sistemas inteligentes cuando nos cuesta ponernos de acuerdo sobre lo que llamamos inteligencia en los humanos. ¡Y no hablemos de la dificultad de distinguir entre natural y artificial!

En estos últimos años ha habido un salto cualitativo en estos sistemas. Esto se debe a la constante progresión en la capacidad de los ordenadores, que han ido convirtiéndose por un lado en una herramienta universal y, por otro lado, han ido apareciendo superordenadores cada vez más potentes. Esto implica una mayor capacidad de tratamiento de datos, de realizar trabajos con modelos matemáticos más complejos y de almacenar y tratar cantidades de datos de un volumen que era inimaginable hacía pocos años.

Solo hace falta un ejemplo de uno de los últimos logros de estas tecnologías. La posibilidad de predecir, a partir de la información contenida en el ADN, la estructura en el espacio de una proteína, lo que nos permite estudiar su funcionamiento, había sido misión imposible durante décadas. Mediante un procedimiento de tratamiento de las más de 100.000 estructuras conocidas actualmente ha sido posible diseñar un programa llamado AlphaFold que hace este tipo de predicciones de forma bastante aproximada. Pero incluso este caso no ha estado exento de críticas, sobre todo por su falta de transparencia en cómo funciona y por qué utiliza datos públicos. Todas estas aplicaciones necesitan disponer de algoritmos para analizar y predecir algún tipo de actividad y datos en cantidad y calidad suficientes como para poder contrastar, de forma recurrente, las predicciones que se realizan. Y, evidentemente, de ordenadores de suficiente capacidad. Y todo esto tiene sus limitaciones.

Muchas de las aplicaciones que han aparecido en la discusión pública permiten reemplazar a algunas de nuestras actividades más rutinarias. Por ejemplo, gran parte de lo que escribimos tiene un componente rutinario que las nuevas aplicaciones pueden hacer igual que cualquiera de nosotros. También hay robots que realizan operaciones puntuales en la construcción de máquinas y que lo hacen igual o mejor que nosotros. Otro ejemplo es el análisis de datos médicos, a menudo complejos, en los que podemos entrenar un algoritmo para que proporcione resultados mejor informados de lo que puede hacer un humano. Todo esto no excluye que para que un escrito sea interesante deba tener una parte creativa o que un médico pueda tener en cuenta elementos muy diversos en la complejidad de la enfermedad de un paciente. En todos estos casos debemos controlar lo que acabamos haciendo y debemos tratar de no engañar a los ciudadanos. Tanto quienes diseñan estos sistemas, quienes los utilizan y quienes les toleran son personas que son sus responsables.

Por tanto, las herramientas de lo que ahora llamamos IA son poderosas. Algunas de ellas pueden permitir analizar elementos complejos del comportamiento de los individuos por parte de empresas y gobiernos de formas que no queremos que se utilicen. Y hay aplicaciones que pueden sustituir a las decisiones de médicos, de políticos o de militares y de esto puede depender la vida de personas. Dejar en manos de estos sistemas las vidas de la gente puede resultar problemático. Si las utilizamos para analizar mejor la realidad o sacarnos de encima trabajos repetitivos serán bienvenidas. Pueden ser útiles como han sido el trabajo de los metales, que permite producir arados o espadas, o los aviones que pueden transportar pasajeros o bombas. Lo que no podemos hacer es dejar que se introduzcan sin nuestro consentimiento en nuestra vida personal o pública.

Suscríbete para seguir leyendo