artificial-intelligence-4694502_1280

Por Paula Calbet i Boldú

La Inteligencia Artificial (IA o bien AI, por sus siglas en inglés) está a la orden del día, presente en multitud de titulares sobre innovaciones científicas y novedosas aplicaciones en todo tipo de industrias. Aun así, el concepto IA nos suena a algo complejo y muy remoto, pocos saben que en realidad convivimos con él en acciones de lo más cotidianas.

La IA se define como la capacidad de las máquinas, procesadores y softwares de mimetizar mediante algoritmos funciones tradicionalmente asociadas con la mente humana, como percibir, razonar, aprender o tomar decisiones.

En esta definición radica la principal diferencia de la IA con un programa informático tradicional, ya que este actúa según instrucciones precisas (si ocurre A ejecutar X, si ocurre B ejecutar Y), es decir, existen órdenes que cubren todas las casuísticas a las que se puede enfrentar. La IA, por el contrario, realiza acciones sin órdenes de causa-efecto en base a unos datos previamente introducidos, que serán los cimientos de su razonamiento.

Por lo tanto, los resultados a los que llegue esta tecnología van a depender los datos introducidos inicialmente (su cantidad y calidad) y del entrenamiento al que se le someta para afianzar su aprendizaje. Una vez asimilado, el software dotado de IA en cuestión será capaz de llegar a conclusiones por sí mismo, e incluso de seguir aprendiendo a medida que se vaya encontrando con nuevas situaciones. Esto es lo que se conoce como machine learning.

IA en nuestro día a día

Hoy en día es habitual tener en casa altavoces inteligentes capaces de ser controlados por voz, encontrar chatbots en páginas web que resuelven cualquier duda, o incluso desbloquear nuestro móvil usando la huella dactilar o simplemente el rostro -eso que era tan cómodo antes de que aparecieran las mascarillas.

¿Verdad que comenté que la IA estaba más presente en nuestras vidas de lo que creíamos? Voilà. Tras cada uno de esos procesos no hay ni un ser humano ni una serie infinita de órdenes precisas, sino un algoritmo que analiza los datos proporcionados y llega a una u otra conclusión. Según el caso, esta será una respuesta a una petición oral o escrita, o el desbloqueo o no del teléfono en función de la huella o rostro analizados.

Esta tecnología también está presente en ámbitos como la industria, la medicina o la robótica, y en procesos como la conducción autónoma o los sistemas de soporte a decisiones. Estos últimos se basan en la recopilación y análisis de gran cantidad de datos y, en función de estos, evalúan situaciones y probabilidades y recomiendan cómo proceder. Actualmente ya se están utilizando alrededor del mundo para apoyar a decisiones como conceder o no un préstamo, u otorgar o no la libertad condicional a un preso.

Por lo tanto, recapitulando: existe una tecnología llamada IA que recibe un entrenamiento a base de datos y ensayos supervisados y, después de estos, analiza situaciones y llega a soluciones de forma autónoma. Esas conclusiones intervienen en gran medida en decisiones, algunas tan determinantes como conceder o no la libertad a una persona, en base a datos pasados y probabilidades. Detengámonos aquí.

Implicaciones éticas de la IA

woman with black face holding white masks

Como hemos comentado anteriormente, las conclusiones a las que llega una IA dependen de la cantidad de los datos que le proporcionemos, pero también en gran medida de su calidad. ¿Qué pasaría si al programar un software de reconocimiento facial se introdujeran una gran cantidad de datos, pero estos no fueran lo suficientemente diversos? La respuesta es sencilla: este funcionaría mucho mejor identificando rostros que pudiera comparar con lo que se le introdujo en un principio, y podría incluso no funcionar con aquellos de los que tenga menos información.

Esto es lo que le sucedió a Joy Buolamwini, informática e investigadora del MIT: se encontró con que el software de reconocimiento facial de Amazon no detectaba en ella ningún rostro, pero que sí lo hacía si se ponía una máscara blanca. Con ese hallazgo, Buolamwini empezó a tirar del hilo y descubrió que el sistema reconocía a la perfección caras de hombres de raza caucásica, pero que no era capaz de identificar tan bien a mujeres de la misma raza y funcionaba aún peor con individuos de razas no blancas.

A pesar de que cuando una IA empieza a funcionar se va perfeccionando mediante machine learning, los datos iniciales sobre los que se construye su algoritmo son cruciales y determinan de manera ineludible su desempeño, pase el tiempo que pase. Por ese motivo Buolamwini decidió investigar las implicaciones que podría tener construir algoritmos de IA sobre datos sesgados, como cuenta en el documental “Coded Bias” que puede verse hoy en Netflix.

En él también se plantea otro aspecto a contemplar, mucho más importante que el sesgo en el reconocimiento de rostros: ¿y qué hay de los sistemas de soporte a decisiones? Se basan en datos pasados y actuales en cuanto a características socioeconómicas, ratios de delincuencia, y todo ello relacionado con datos sociodemográficos como la edad, el género y la raza. ¿Y si los datos en los que los basamos tienen un sesgo racial, propiciado por las desigualdades socioeconómicas que existen entre razas? ¿Qué pasaría si esas desigualdades socioeconómicas desaparecieran en el futuro, pero siguiéramos usando los mismos sistemas de soporte a decisiones? ¿Se habrían convertido con el tiempo en entes irremediablemente racistas a pesar de haber cambiado la sociedad?

La IA se convertirá sin duda en una herramienta imprescindible en un futuro próximo, pero no debemos olvidar la necesidad de supervisar la validez de sus conclusiones. De lo contrario, podríamos ser siempre esclavos de las injusticias del pasado y enterrar las esperanzas de un futuro en el que todas las personas tengamos las mismas oportunidades.

Share Button