¿Son los algoritmos racistas? ¿Discriminan las máquinas a los pobres? Estas son algunas preguntas que se han hecho diferentes grupos de expertos a partir de sucesos recientes. De ahí que la ONU alerta del peligro de pensar que la inteligencia artificial es neutra en las decisiones que se toman a partir de sus datos. Por eso está trabajando en una guía ética para «establecer estándares internacionales y garantizar que la tecnología tenga una sólida base».
A través de la Unesco, se han reunido con representantes de la sociedad civil, el sector privado y el público en general para plantear las bases de este proyecto. Comprender la ética de la inteligencia artificial: ¿Por qué es una preocupación de todos? es el título de este informe que se presentaría este mismo enero. Con él pretenden dibujar unas líneas de desarrollo que abarquen el estado de derecho y la promoción de los derechos humanos.
Las tres líneas de trabajo
Tres son los campos que tienen claro que se han de asumir al manejar la IA: diversidad, justicia y alcance. La primera es fundamental «para reducir los sesgos y los estereotipos raciales y de género». Por eso subrayan «la importancia de brindar más diversidad en este campo».
El segundo de estos campos aborda la aplicación de las tecnologías en los sistemas judiciales. Para los autores de esta guía ética se trata de marcar un «uso apropiado para hacerlos más justos y eficientes». Y con el tercer punto, su preocupación es «garantizar que los beneficios de la tecnología se distribuyan entre el mayor número de personas posible».
Una reflexión global
Comprender la ética de la inteligencia artificial: ¿Por qué es una preocupación de todos? es el resultado de la consulta abierta en verano de 2020. Entonces se presentaba el primer borrador de un trabajo en el que destacaban la participación e implicación de una propuesta pensada a escala global. En particular, «teniendo en cuenta sus impactos de amplio alcance, incluido el medioambiente y las necesidades de los países del sur».
Todos estos razonamientos los encuadra Naciones Unidas dentro de los objetivos que asigna a la Unesco de crear conciencia, educar y promover la reflexión ética. De ahí que esperen que estas reglas internacionales sirvan para que como sociedad marquemos los valores y reglas a seguir en la inteligencia artificial.
Algoritmos para propagar odio
Una pretensión que esperan conseguir después de enumerar los diversos desafíos morales que plantea su desarrollo y por qué deberían preocuparnos.
El reciente asalto al Capitolio reabrió el debate público de cuál es el papel que tienen las redes sociales. En la preparación de este borrador, se analiza cómo estas permiten mediante sus algoritmos la difusión de mensajes «extremistas». Como apuntan desde Naciones Unidas, «cuanto más provocador sea el contenido, más posibilidades hay de que se consuma y se comparta». Es decir, señalan que estas empresas «están felices de «impulsar» contenido socialmente divisorio y polarizador» porque así los usuarios permanecen más tiempo en sus plataformas. Al ataque en Washington añaden la difusión durante esta pandemia de la covid-19 de «información erróneamente peligrosa sobre el virus».
Otra polémica norteamericana se centra en el racismo que genera una equivocada preparación de un algoritmo. Y eso lo vivió en sus carnes Robert Williams el pasado verano. La prensa estadounidense presentó este caso como el del primer detenido a causa de erróneo informe generado a partir de la IA. ¿Cuál fue el problema? El sistema de reconocimiento facial que usó la policía se había entrenado a partir de rostros de personas de piel blanca. Así fue cómo se equivocó al evaluar los rasgos de Williams, «la herramienta no había aprendido a reconocer las diferencias entre los rostros de los ciudadanos negros».
La ecuación para los estudiantes ricos
Ese mismo verano la polémica sobre el poder de la IA la vivieron los estudiantes británicos que no pudieron examinarse por la covid-19 en las pruebas de acceso para la universidad. ¿Qué calificaciones se debían dar? La Administración pensó que un algoritmo podría equilibrar las medias que presentó el profesorado. Lo que sucedió es que esta ecuación penalizó a quienes atendían a escuelas de vecindarios empobrecidos mientras que los de colegios de barrios ricos mejoraron sus notas.
Los equipos de expertos reunidos por la Unesco subrayan que todos estos ejemplos demuestran que la programación de la IA necesita «datos de alta calidad». Y eso, añaden, tiene sus problemas. «Muchos de los datos que se utilizan para entrenar la inteligencia artificial se obtienen actualmente de consumidores de todo el mundo, a menudo sin su consentimiento explícito».