Subir al inicio

libres, digitales, inconformistas

libres, digitales, inconformistas

Kate Crawford: “Solo una regulación compartida puede controlar los peligros de la inteligencia artificial”

Kate Crawford: “Solo una regulación compartida puede controlar los peligros de la inteligencia artificial”


La investigadora australiana, considerada una de las investigadoras más respetadas en la industria de la IA, alerta sobre las implicaciones políticas y sociales del mal uso de los avances tecnológicos


By Ana Vidal Egea Publicado en El País
Cuando Kate Crawford avisó en 2016 de que el diseño de la inteligencia artificial propiciaba la discriminación, pocos daban importancia al impacto social que aquello conllevaría. Por entonces, Crawford puso varios ejemplos, siendo el más sonado el de la aplicación de fotografías de Google, que etiquetaba a los negros como gorilas. Aunque Google se disculpó públicamente, este tipo de errores garrafales se repiten una y otra vez en distintas empresas. Según ella, el problema radica en los datos que se emplean y que están basados en prejuicios. Estos datos altamente discriminatorios son los que se utilizan para crear algoritmos y construir después modelos de sistema, que perpetúan una sociedad sexista, racista y clasista porque la inteligencia artificial (IA) refleja los valores de quienes la crean: sobre todo, hombres blancos.
Hoy, a sus 47 años, la australiana Kate Crawford es considerada una de las investigadoras más respetadas en la industria de la IA. Ha dedicado toda su carrera profesional a estudiar las implicaciones políticas y sociales del mal uso de los avances tecnológicos. Durante la era de Obama, moderó un simposio sobre el tema en la Casa Blanca y ha asesorado a la Comisión Europea y las Naciones Unidas, entre otros organismos. Ha sido, además, pionera de muchas iniciativas que ahora resultan cruciales. En 2017 fundó junto, a Meredith Whittaker, AI Now, una de las primeras instituciones dedicadas a analizar el impacto de la inteligencia artificial en el ámbito social. Y en 2019-2020 fue la primera persona en ocupar la cátedra visitante de IA y Justicia creada en la École Normale Supérieure de París.
En la actualidad, Crawford trabaja como investigadora principal sénior en Microsoft y, entre las muchas otras actividades sobresalientes que realiza en paralelo, escribe. Nos encontramos con ella para hablar de su último libro, Atlas de Inteligencia Artificial (publicado en español por Nuevos Emprendimientos Editoriales), que ha sido considerado uno de los mejores libros de tecnología por el Financial Times. La cita es en el MoMA de Nueva York, donde está una obra que Crawford realizó en 2018 junto al artista Vladan Joler. Consiste en una infografía que muestra el trabajo humano, los datos y los recursos que se requieren durante la vida útil de tan solo un dispositivo, desde su fabricación hasta que se de­secha, utilizando como ejemplo el Amazon Echo (Alexa). Aunque Anatomía de un sistema de IA forma parte de la colección permanente del MoMA desde 2022, Crawford ha hecho cola para entrar al museo como una visitante más. Nos la encontramos cuando se dispone a comprar su entrada. Viste cómoda; traje de chaqueta y zapatillas blancas. Se muestra relajada y accesible. Saluda con una cálida sonrisa que no la abandona durante todo el tiempo que dura la entrevista.
¿Qué la animó a crear esta infografía explicando el nacimiento, vida y muerte de una IA?
El arte para mí ha de iluminar y provocar, y Anatomía de un sistema de IA lo consigue. Siempre he creído en el poder de la cartografía crítica y me parece muy interesante mostrar de forma gráfica algo tan complejo como el funcionamiento de un sistema. Me pasé dos años y medio investigando. Me desplacé a todos los lugares clave en la vida de una IA. Desde donde nacen hasta donde se desechan (Ghana, Pakistán). La pieza se exhibió en 60 lugares antes de que el MoMA la comprara, ha tenido éxito. Pero es muy ligera en comparación con mi última instalación, Calculating Empires, que presentaré a finales de año. Consiste en cuatro mapas gigantes que rastrean la relación entre la tecnología y el poder desde 1500, con el fin de ofrecer una forma diferente de ver la era tecnológica actual con profundidad histórica, mostrando las innumerables formas en que el poder y la tecnología se han entrelazado a lo largo de cinco siglos. Me llevó cuatro años de investigación crearla.
Sus estudios y su doctorado no tenían nada que ver con la tecnología. ¿Cómo acabó convirtiéndose en una de las investigadoras de más prestigio del mundo en el ámbito de la IA?
Siempre me han interesado las políticas de la tecnología y el impacto que tienen en la transformación social. De hecho, en 2002 fundé en la Universidad de Sídney el primer curso del mundo de esta índole, se llamaba La política de los medios digitales. Y programo desde la adolescencia, porque tenía un dúo feminista de música electrónica llamado B(if)tek y creábamos nuestros programas. Pero el gran cambio surgió cuando trabajaba como directora de un centro de investigación en Sídney y el Massachusetts Institute of Technology (MIT) me invitó a trabajar con ellos como profesora visitante. Una vez en Boston visité el laboratorio de investigación de Microsoft y me ofrecieron un trabajo. Era el preciso momento en que Microsoft estaba emprendiendo el camino hacia el aprendizaje automático y me di cuenta de que era una oportunidad crucial de poder entender cómo funciona internamente un sistema, pasar a analizar datos de gran escala.
Lleva 20 años estudiando la IA y dice que ahora estamos viviendo su punto de inflexión más dramático.
Ha habido momentos en la historia en que la IA era influyente, pero ha solido estar en un segundo plano. Ahora no: ChatGPT es la tecnología más rápida de la historia de la humanidad hasta el momento.
Y a la vez está explotando a los trabajadores y contaminando el planeta…
Exacto. Uno de los aspectos menos conocidos de la IA es la cantidad de empleados mal remunerados que se necesitan para construir, mantener y poner a prueba estos sistemas. Es lo que se llama “el trabajo fantasma” o “la automatización alimentada por humanos”, que se aplica desde la minería hasta el crowdsourcing, pasando por el software. ChatGPT extrae sus respuestas de internet, que está repleto de toxicidad. Se sabe que hay trabajadores en África cobrando dos euros por hora por eliminar manualmente las frases violentas, sexuales y los discursos de odio. Es deshumanizante. Por otro lado, es un sistema que ocasiona grandes problemas medioambientales. Hacer 20 preguntas a ChatGPT equivale a desperdiciar medio litro de agua. Este tipo de bots se alojan en centros de datos que dejan una huella de carbono muy significativa, equivalente a 125 vuelos de ida y vuelta de Nueva York a Pekín. A lo que hay que añadir el enorme coste de electricidad de los centros de servidores.
Su último artículo, publicado junto a investigadores de Harvard y el MIT, se titula De qué forma la IA nos ha fallado. ¿Cómo se podría mejorar la situación?
La visión dominante concibe la inteligencia como autónoma en lugar de social y relacional. Es una perspectiva improductiva y peligrosa, ya que se optimiza para métricas artificiales de replicación humana en lugar de para evolucionar. Tiende a concentrar el poder, los recursos y la toma de decisiones en una pequeña élite del sector tecnológico. Nosotros planteamos una visión alternativa basada en la cooperación social y la equidad. Wikipedia podría ser un ejemplo. Mi esperanza es que más organizaciones trabajen hacia el pluralismo político y tecnológico, lo que implicaría una diversidad de enfoques y herramientas, protecciones regulatorias y beneficios compartidos por muchos.
¿Cuál es la gran pregunta que debemos hacernos en relación con la IA?
La pregunta más importante es cómo vamos a garantizar que los sistemas de inteligencia artificial generativa sean justos, que su interpretación de la realidad sea la adecuada desde un punto de vista ético y que no haya sesgo a consecuencia del poder. El mejor ejemplo hasta el momento es The AI Act, la propuesta de ley para regular la inteligencia artificial en la Unión Europea, pero costó años llegar a un consenso. Y no es tan factible en Estados Unidos.
Estados Unidos es el país líder en IA generativa y, paradójicamente, el más permisivo desde el punto de vista de las regulaciones.
Estados Unidos tiene menos regulaciones incluso que China y es muy preocupante el uso que se está haciendo de la IA. Mi amiga Laura Poitras [una de las más prominentes documentalistas en la actualidad, ganadora de un Oscar y un León de Oro, entre otros muchos reconocimientos] me permitió acceder a los documentos que filtró Edward Snowden y me impresionó mucho ver cómo se aplica el aprendizaje automático para rastrear y vigilar a los ciudadanos, por ejemplo.
Lo que nos lleva a aquella famosa frase de Michael Hayden, agente de Seguridad Nacional de EE UU y exdirector de la CIA: “Matamos a gente basándonos en los metadatos”.
Es algo que han practicado varios presidentes de gobierno ayudándose de drones. Hablo de George Bush, pero también de Obama. Se persigue a personas sospechosas de ser terroristas por su uso de metadatos. Y se las mata, antes de confirmar si lo son, dando por hecho que los datos son concluyentes. Es algo que atenta contra los derechos humanos. Y es especialmente grave teniendo en cuenta que la IA sufre alucinaciones.

Continuar leyendo en El País

Categorias

1 Comments

  • […] j re crivello Link de lectura En Entrevistas: Christina Koch, la primera mujer que irá a la Luna Link de Lectura El Relato Semanal viene de la mano de Santiago Iturralde “Como la última persona cuerda en la […]

Deja un comentario

Facebook
Twitter
LinkedIn
A %d blogueros les gusta esto: