INTELIGENCIA ARTIFICIAL. TECNOLOGÍA PARA POCOS

INTELIGENCIA ARTIFICIAL. TECNOLOGÍA PARA POCOS

El título original del artículo es: “La Inteligencia Artificial: entre la tecnología, la agencia y la historia”. Expresando lo que difundimos a continuación.

“La magnitud de la carrera global, en curso, por el uso y control de la Inteligencia Artificial (IA) contiene números asombrosos, y renueva ventajas y problemas de los que apenas se tenían noticias.

El mercado mundial de la IA tiene una proyección de valor de $1.35 billones para 2030. Para ese mismo año, el desarrollo de la tecnología de IA tiene el potencial de aportar 15,7 billones de dólares a la economía mundial. En respuesta a la pandemia de COVID-19, 55% de las empresas aceleraron la adopción de IA.

Se espera una cifra de hasta 90% de contenido artificial generado en internet en los próximos años.

La IA está influyendo profundamente en múltiples sectores, como salud, energía y educación, al tiempo que los datos son ya un componente crucial para la próxima carrera armamentista global.

Parte crucial del mapa de soluciones y problemas que contiene la IA es la reproducción de discriminaciones a través de algoritmos, que recolocan el color de la piel y el género como marcadores de diferenciación, y hacen que los algoritmos capturen desigualdades sociales existentes, y puedan contribuir a reproducirlas.

La intención y los sesgos

Hagamos un experimento sencillo. He pedido a uno de tantos sitios que proveen servicios gratuitos de elaboración de presentaciones en PowerPoint, con uso de IA, que cree una presentación con el título: “Explorando los desafíos históricos y actuales de los algoritmos: Los “fallos” de la Inteligencia Artificial”. Aclaro que solo entregué el título, y el algoritmo hizo todo el trabajo. Veamos lo que me entregó:

Ejercicio 1:

DESAFÍOS HISTÓRICOS

Los algoritmos han sido utilizados para perpetuar la discriminación y el racismo. En el pasado, se han utilizado algoritmos para justificar la segregación y la exclusión social. También se han utilizado algoritmos para realizar perfiles raciales y étnicos.

Ejercicio 2:

DESAFÍOS ACTUALES

Los algoritmos pueden perpetuar la discriminación y el sesgo sin intención. Por ejemplo, los algoritmos de selección de personal pueden discriminar a candidatos a empleo por motivos de género, raza o edad. Además, los algoritmos utilizados en el sistema de justicia penal pueden ser sesgados y perpetuar la injusticia.

La respuesta contenida en la primera imagen muestra el problema como una cuestión exclusiva del pasado, algo que está en la historia, pero no en nuestros días. A su vez, la respuesta que aparece en la segunda imagen despolitiza y des-responsabiliza el presente: los sesgos existen, pero “no tienen intención”.

De este modo, la siguiente lista de problemas sería producida por la IA sin intención:

  • Existencia de sesgos en sistemas de reconocimiento facial, sobre todo en mujeres afrodescendientes.
  • Recurrencia al “edadismo”: asociación de imágenes de jóvenes con valores de competencia profesional y carrera exitosa.
  • Existencia de sesgos raciales en el sistema sanitario: asignación de mayor riesgo a pacientes afrodescendientes.
  • Frecuencia de ofertas con disparidades en recomendaciones financieras y de planificación para hombres y mujeres con hijos, que suponen mayores activos o ingresos para hombres con hijos.
  • Presencia de sesgo racial en varias áreas médicas (cardiología, nefrología, obstetricia, urología).
  • Manifestaciones de sexismo, racismo y capacitismo en “incrustaciones de palabras”: uso mayoritario de términos como presidente y doctor, para hombres; y de enfermera, para mujeres.
  • Feminización de herramientas de IA y perpetuación de normas de género (ej. sistemas de ayuda, como Siri).
  • Ofertas de líneas de crédito más bajas para mujeres.
  • Retención de publicidad en redes sociales sobre venta de casas para personas mayores y afrodescendientes.
  • Existencia de softwares de predicción de reincidencia en materia de infracción de ley, como el COMPAS en los Estados Unidos, que resultan en castigos más severos para acusados afrodescendientes comparados con personas que delinquen con crímenes violentos y presentan piel de color blanco.

Este conjunto de problemas no tiene causa en una persona, o en un equipo, digamos, de programación, que tendría “interés” en programar el sesgo, o insuficiente cuidado en evitarlo, una idea común que simplifica el asunto.

Las causas más bien se localizan en el “ecosistema” en el que funciona la IA. A menudo se les ofrecen soluciones a los sesgos basadas en ideologías de “solucionismo tecnológico”, que entienden la tecnología como una solución neutral a problemas sociales. Es común escuchar que “como se trata de una tecnología” podemos hacer con ella lo que decidamos: puede servir para un fin y para su contrario. La discusión ética parecería ser la solución a ese dilema: si el uso de la tecnología se orienta al bien común “todo estaría bien”.

Sin embargo, ese es un argumento con supuestos muy problemáticos, que pueden comprometer las soluciones orientadas incluso al bien común.

El solucionismo tecnológico vs. las implicaciones sociales de la tecnología

En lugar de “solucionismo tecnológico” (una idea según la cual todos los problemas encuentran una solución estrictamente tecnológica) es necesario considerar las implicaciones sociales de la tecnología, incluyendo dimensiones de racismo institucional, sexismo, homofobia, y los legados renovados del pasado que plantean procesos como la esclavitud y el colonialismo.

En ello, es importante rechazar el tecno-determinismo, esto es, comprender la tecnología como entidad influenciada por y que influencia a su vez a la sociedad, como dos planos que establecen entre sí una relación de dualidad, como ha argumentado W. J. Orlikowski.

En ello, es crucial enfatizar el rol de las normas sociales y las ideologías en el diseño técnico. La tecnología es, siempre, un producto de su contexto temporal y organizacional, y manifiesta los sesgos y entendimientos de su momento de concepción.

Contra la idea de que la tecnología es un mero medio, un puro “instrumento”, es útil hacer la diferenciación entre tecnología como objeto y como entidad en uso.

Esta última dimensión revela la existencia de una relación reflexiva entre la agencia humana y las estructuras organizacionales, una combinación que puede llevar a resultados no previstos, e incluso no deseados, de las tecnologías.

Digámoslo con claridad: las tecnologías no son neutrales.

Un solo ejemplo, entre muchos posibles: las tecnologías de gestión de la pobreza no son neutrales. La politóloga estadunidense Virginia Eubanks ha mostrado cómo estas tecnologías están moldeadas por algo que tiene gran predicamento en los EEUU: el temor a la inseguridad económica y la aporofobia. Si esta cultura da forma a las políticas y la experiencia sobre la pobreza, “permea” a su vez las tecnologías que trabajan con ella.

En este horizonte, para Cathy O’Neil, matemática y activista social, los algoritmos son “opiniones encerradas en matemáticas”. “Codificando la desigualdad”

Si son opiniones, los algoritmos pueden codificar la desigualdad.

Ante ello, son necesarias respuestas sociales, a la vez que tecnológicas. Por ejemplo, es imprescindible el abandono de la visión del racismo que lo imagina apenas como un “capricho mental”, como decía Frantz Fanon, como también la idea de que el racismo es un resultado ajeno a la programación de IA.

Los sistemas de IA pueden replicar sesgos preexistentes, y de hecho lo hacen con una frecuencia digna de mejor causa. Las sociedades en que vivimos han sido estructuradas históricamente por procesos como la esclavitud, el colonialismo y el capitalismo, sistemas que generan dinámicas de subordinación y segregación.

Piénsese en que, según el Foro Económico Mundial (WEF), tomará otros 132 años lograr la igualdad de género a nivel global. La misma institución estima que solo 12 % de los profesionales que trabajan en Inteligencia Artificial en todo el mundo son mujeres. Es una situación que no ha surgido ex nihilo, sino que hunde sus raíces en un pasado que se reconecta continuamente con el presente.

El problema que se necesita visibilizar es cómo los sesgos históricos se infiltran en los sistemas automáticos, crean “bucles de discriminación” recurrentes y forman “ciclos dañinos de interacción” entre tecnología y desigualdades que involucran la clase, el género y la idea de raza.

Pasa incluso cuando se trata de seguir políticas de anonimato de sujetos de los datos, cuando se constata cómo el algoritmo puede capturar la desigualdad sistémica a través de características no etiquetadas para el propio algoritmo. Es lo que algunos autores llaman “fuga de datos”, pero que también se puede llamar la tenaz persistencia de la historia”, concluye el escritor.

El artículo expresa sobre todo, el peligro de manipulación a lo que estamos expuestos si vamos a creer en la infalibilidad de la “Diosa IA”. La neutralidad y objetividad de la programación de información que circula no es tal. La premisa fundamental de los programadores es que, si no esta es internet, no tiene importancia y seriedad. Esta postura deja afuera de las consideraciones y respuestas, a infinidad de conocimientos y saberes de comunidades y personas, alrededor del mundo, que no circulan en los buscadores. Vista así las cosas, trae más peligros que soluciones.

Autor: Julio César Guanche 09/02/2024

Jurista e historiador cubano.

Compartí esta nota 

TE PUEDE INTERESAR

HOMENAJE A UN OBRERO EN MENDOZA
MILEI. NO HAY LUZ AL FINAL DEL TÚNEL
MENDOZA. 20 años de Foro Socio Ambiental
LOS ÁRBOLES PELIGRAN EN MENDOZA
CAMBIO CLIMÁTICO. 5 PUNTOS A CONSIDERAR
DEMOCRACIA. 40 AÑOS DESPUES. MILEI Ó MASSA
MILEI. UNA PLATAFORMA ELECTORAL CON ENGAÑOS y RETROCESOS
Ajedrez dorado
RESPIRAR. CONDICIÓN PARA VIVIR
Skip to content