Columna de Opinión:

Inteligencia artificial e inclusión

Inteligencia artificial e inclusión
"Desarrollar una IA que sea usada en una forma ética, transparente y que represente progresos de interés público es una preocupación mayor", señala el profesor Bergel.
"Desarrollar una IA que sea usada en una forma ética, transparente y que represente progresos de interés público es una preocupación mayor", señala el profesor Bergel.
La Inteligencia Artificial tiene un gran potencial en las áreas de transporte, gestión, salud y educación.
La Inteligencia Artificial tiene un gran potencial en las áreas de transporte, gestión, salud y educación.

La Inteligencia Artificial (IA) tiene un gran potencial en las áreas de transporte, gestión, salud y educación. La búsqueda de patrones en grandes volúmenes de datos es ahora una necesidad sistémica en muchas áreas, y técnicas de IA apuntan esencialmente a esta búsqueda. Debido a esto, se predice que la IA tendrá un impacto positivo y significativo en la economía mundial. Por dar un ejemplo, la consultora Accenture hizo una estimación del impacto de la inteligencia artificial en 12 economías desarrolladas [1], concluyendo que la IA puede doblar las tasas de crecimiento en menos de 20 años en estas economías. Por otra parte, se dice que el uso de IA puede aumentar la productividad laboral en un 40 por ciento. Estas predicciones son impresionantes, pero posibles de lograr. Si Internet tuvo un profundo impacto en nuestras economías, ¿por qué sería diferente con la IA? La pregunta frente a los futuros cambios masivos que se originarán gracias a la IA es ¿quiénes serán los felices beneficiarios?

Existen esencialmente dos fuentes de desigualdad en la adopción y el uso de la IA: Primero, la división entre el "norte global" y "sur global" es considerada como una división social, económica y política. El norte global domina el desarrollo de tecnologías basadas en IA. Este hecho describe una situación bastante incómoda, debido a que el sur global (al cual Chile pertenece) absorbe nuevas tecnologías de manera casi violenta (p.e., Sudamérica y El Caribe tienen la mayor cantidad de usuarios de Facebook, después de Asia [3]). Segundo, existe un impacto irregular de la IA y tecnologías asociadas en las comunidades marginadas, incluyendo gente que vive en zonas rurales, de bajo nivel socioeconómico, ancianos y LGBT [4,5].

Para ilustrar lo que puede ser una consecuencia de esta desigualdad, consideremos un ejemplo de minorías, como las mujeres en el campo laboral de la computación. Sin grandes dificultades encontré una situación en la cual mujeres aparecen como desfavorecidas en un sitio de bolsa de trabajo. Hice el siguiente experimento: me hice pasar por una empresa que busca un ingeniero en computación. En un popular sitio de bolsa de trabajo, busqué un "ingeniero en computación" para un trabajo (ficticio) en Santiago. Obtuve solamente hombres como resultados. Intenté de nuevo con "ingeniera en computación" y "programadora en computación", pero el resultado siguió arrojando hombres, y solo un 30 por ciento de los resultados fueron mujeres. Este pequeño e informal experimento demuestra que hay claramente un problema en el manejo de datos de este sitio de bolsa de trabajo que desfavorece a las mujeres.

Por otra parte, existen dudas profundas respecto a la adopción de la IA. Desarrollar una IA que sea usada en una forma ética, transparente y que represente progresos de interés público es una preocupación mayor. Siguiendo con el ejemplo anterior, ¿se puede decir que el algoritmo utilizado en esta bolsa de trabajo tiene un sesgo? O por otro lado, el hecho de que los hombres aparezcan primero, ¿eso refleja las preferencias de aquellos que proponen las ofertas de trabajo? Es difícil de decir. Los algoritmos más usados en IA operan bajo una técnica de "supervised learning", lo que significa que los modelos tienen que ser entrenados con una gran cantidad de datos para ser efectivos. Normalmente, este entrenamiento se efectúa con datos existentes. Pero ¿qué pasa si los datos tienen sesgos o que no describen situaciones políticamente correctas? Dicho de otra forma, si las tecnologías usan datos contaminados del pasado, no es una gran sorpresa que ofrezcan resultados igual de contaminados.

El contacto que tiene la ciencia con la sociedad es complejo y muy frágil. Si la ciencia hace algoritmos neutros, pero al ser utilizados pierden la neutralidad, ¿cuál es el rol que la ciencia o las autoridades deberían tener? Siguiendo con el ejemplo anterior, se podría imaginar una ley que diera más peso a las postulaciones de mujeres a ofertas de trabajo en computación, con el fin de compensar la desigualdad generada por el uso de la IA. Pero me parece que este caso particular es relativamente sencillo. Una pregunta más compleja de responder es  ¿qué pasa si Waze evita rutas que pasan frente a tiendas étnicas simplemente porque los algoritmos indican que se deben evitar las calles angostas donde se encuentran estas tiendas para hacer el recorrido más rápido? Frente a esto, me parece que es difícil adoptar una posición clara: ¿quién tiene la culpa del mal uso, quién ha creado el algoritmo o quién lo utiliza?

Muchas preguntas surgen cuando hablamos de IA. Tener una IA que sea aséptica es la voluntad de todos, pero sin duda, estamos adoptando masivamente IA sin tener idea o ni siquiera preocupándonos mucho de las posibles consecuencias de ello.


[1] https://www.accenture.com/us-en/insight-artificial-intelligence-future-growth
[2] https://www.statista.com/statistics/268136/top-15-countries-based-on-number-of-facebook-users/
[3] http://www.internetworldstats.com/facebook.htm
[4] https://www.theguardian.com/world/2017/sep/08/ai-gay-gaydar-algorithm-facial-recognition-criticism-stanford
[5] https://www.intgovforum.org/multilingual/content/igf-2017-ws-241-artificial-intelligence-and-inclusion