MIT Dejamos de hablar de ética de la IA
Deja de hablar de ética de la IA. Es hora de hablar de poder.
Necesitamos reconocer tanto la política como el impacto físico que la IA tiene en el planeta, dice la académica Kate Crawford en su nuevo libro.
El Inteligente Hans
A principios del siglo XX, un caballo alemán tomó Europa por asalto. El inteligente Hans, como se le conocía, aparentemente podía realizar todo tipo de trucos antes limitados a los humanos. Podía sumar y restar números, decir la hora y leer un calendario, incluso deletrear palabras y oraciones, todo marcando la respuesta con un casco. “A” fue un toque; “B” era dos; 2 + 3 eran cinco. Fue una sensación internacional, y muchos creían que era una prueba de que a los animales se les podía enseñar a razonar tan bien como a los humanos.
El problema era que Hans Clever realmente no estaba haciendo ninguna de estas cosas. Como descubrieron más tarde los investigadores, el caballo había aprendido a dar la respuesta correcta al observar cambios en la postura, la respiración y las expresiones faciales de sus interrogadores. Si el interrogador se quedaba demasiado lejos, Hans perdería sus habilidades. Su inteligencia fue solo una ilusión.
Esta historia se utiliza como advertencia para. Un sistema no siempre es tan inteligente como parece. Tenga cuidado de medirlo correctamente.
Pero en su nuevo libro, Atlas of AI , la destacada académica en inteligencia artificial Kate Crawford le da la vuelta a esta moraleja. El problema, escribe, estaba en la forma en que la gente definía los logros de Hans: “Hans ya estaba realizando notables hazañas de comunicación entre especies, actuación pública y considerable paciencia, pero no se reconocieron como inteligencia”.
Así comienza la exploración de Crawford sobre la historia de la inteligencia artificial y su impacto en nuestro mundo físico. Cada capítulo busca ampliar nuestra comprensión de la tecnología al revelar cuán estrechamente la hemos visto y definido.
Crawford
Crawford hace esto al llevarnos en un viaje global, desde las minas donde se extraen los elementos de tierras raras utilizados en la fabricación de computadoras hasta los centros logísticos de Amazon donde los cuerpos humanos han sido mecanizados en la búsqueda incesante de crecimiento y ganancias de la compañía. En el capítulo uno, relata cómo conducía una camioneta desde el corazón de Silicon Valley hasta una pequeña comunidad minera en Clayton Valley, en Nevada. Allí investiga las prácticas ambientales destructivas necesarias para obtener el litio que alimenta las computadoras del mundo. Es una ilustración contundente de lo cerca que están estos dos lugares en el espacio físico y de lo enormemente separados que están en cuanto a riqueza.
Al basar su análisis en tales investigaciones físicas, Crawford desecha el eufemismo de que la inteligencia artificial es simplemente un software eficiente que se ejecuta en “la nube”. Sus descripciones vívidas y de cerca de la tierra y el trabajo sobre la que se basa la IA, y las historias profundamente problemáticas detrás de ella, hacen que sea imposible seguir hablando de la tecnología puramente en abstracto.
MIT Dejamos de hablar de ética de la IA
En el capítulo cuatro, por ejemplo, Crawford nos lleva a otro viaje, éste a través del tiempo en lugar del espacio. Para explicar la historia de la obsesión del campo con la clasificación, visita el Museo Penn en Filadelfia, donde observa hileras y hileras de cráneos humanos.
Los cráneos fueron recolectados por Samuel Morton, un craneólogo estadounidense del siglo XIX, quien creía que era posible dividirlos “objetivamente” por sus medidas físicas en las cinco “razas” del mundo: africana, nativa americana, caucásica, malaya y Mongol.
Crawford establece paralelismos entre el trabajo de Morton y los modernos sistemas de inteligencia artificial que continúan clasificando el mundo en categorías fijas.
Estas clasificaciones están lejos de ser objetivas, argumenta. Imponen un orden social, naturalizan las jerarquías y magnifican las desigualdades. Visto a través de esta lente, la IA ya no puede considerarse una tecnología objetiva o neutra.
En sus 20 años de carrera, Crawford ha enfrentado las consecuencias del mundo real de los sistemas de datos a gran escala, el aprendizaje automático y la inteligencia artificial. En 2017, junto a Meredith Whittaker, cofundó el instituto de investigación AI Now como una de las primeras organizaciones dedicadas a estudiar las implicaciones sociales de estas tecnologías. Ahora también es profesora en USC Annenberg, en Los Ángeles, y la presidenta visitante inaugural en IA y justicia en la École Normale Supérieure en París, así como investigadora principal senior en Microsoft Research.
Hace cinco años, dice Crawford, todavía estaba trabajando para presentar la mera idea de que los datos y la IA no eran neutrales. Ahora la conversación ha evolucionado y la ética de la IA ha florecido en su propio campo. Ella espera que su libro lo ayude a madurar aún más.
Me senté con Crawford para hablar sobre su libro.
Lo siguiente ha sido editado para mayor claridad y extensión.
¿Por qué eligió hacer este proyecto de libro y qué significa para usted?
Crawford: Muchos de los libros que se han escrito sobre inteligencia artificial en realidad solo hablan de logros técnicos muy limitados. Y a veces escriben sobre los grandes hombres de la IA, pero eso es realmente todo lo que hemos tenido en términos de competir realmente con lo que es la inteligencia artificial.
Creo que ha producido esta comprensión muy sesgada de la inteligencia artificial como sistemas puramente técnicos que de alguna manera son objetivos y neutrales y, como dicen Stuart Russell y Peter Norvig en su libro de texto, como agentes inteligentes que toman la mejor decisión de cualquier acción posible.
Quería hacer algo muy diferente: entender realmente cómo se hace la inteligencia artificial en el sentido más amplio. Esto significa observar los recursos naturales que lo impulsan, la energía que consume, el trabajo oculto a lo largo de la cadena de suministro y la gran cantidad de datos que se extraen de cada plataforma y dispositivo que usamos todos los días.
Al hacer eso, quería realmente abrir esta comprensión de la IA como ni artificial ni inteligente. Es lo opuesto a artificial. Proviene de las partes más materiales de la corteza terrestre y del trabajo de los cuerpos humanos, y de todos los artefactos que producimos, decimos y fotografiamos todos los días. Tampoco es inteligente. Creo que existe este gran pecado original en el campo, donde la gente asumió que las computadoras son de alguna manera como cerebros humanos y si los entrenamos como niños, poco a poco se convertirán en estos seres sobrenaturales.
Eso es algo que creo que es realmente problemático: que hemos comprado esta idea de inteligencia cuando, en realidad, solo estamos viendo formas de análisis estadístico a escala que tienen tantos problemas como los datos que se proporcionan.
¿Le resultó inmediatamente obvio que así es como la gente debería pensar sobre la IA? ¿O fue un viaje?
Absolutamente ha sido un viaje. Yo diría que uno de los puntos de inflexión para mí fue en 2016, cuando comencé un proyecto llamado ” Anatomía de un sistema de inteligencia artificial ” con Vladan Joler. Nos conocimos en una conferencia específicamente sobre inteligencia artificial habilitada por voz, y estábamos tratando de dibujar de manera efectiva lo que se necesita para que un Amazon Echo funcione. Cuales son los componentes? ¿Cómo extrae los datos? ¿Cuáles son las capas en la canalización de datos?
Nos dimos cuenta, bueno, en realidad, para entender eso, tienes que entender de dónde vienen los componentes. ¿Dónde se produjeron las patatas fritas? ¿Dónde están las minas? ¿Dónde se funde? ¿Dónde están los caminos logísticos y de la cadena de suministro?
Finalmente, ¿cómo rastreamos el final de la vida útil de estos dispositivos? ¿Cómo vemos dónde se encuentran los consejos sobre desechos electrónicos en lugares como Malasia, Ghana y Pakistán? Lo que terminamos fue este proyecto de investigación de dos años que consumió mucho tiempo para rastrear realmente esas cadenas de suministro de materiales desde la cuna hasta la tumba.
Cuando empiezas a mirar los sistemas de IA en esa escala más grande, y en ese horizonte de tiempo más largo, te alejas de estas cuentas muy estrechas de “justicia de IA” y “ética” para decir: estos son sistemas que producen cambios geomórficos profundos y duraderos para nuestro planeta, así como aumentar las formas de desigualdad laboral que ya tenemos en el mundo.
Eso me hizo darme cuenta de que tenía que pasar de un análisis de un solo dispositivo, el Amazon Echo, a aplicar este tipo de análisis a toda la industria. Para mí, esa fue la gran tarea, y es por eso que Atlas of AI tardó cinco años en escribir. Existe una gran necesidad de ver realmente lo que realmente nos cuestan estos sistemas, porque rara vez hacemos el trabajo de comprender realmente sus verdaderas implicaciones planetarias.
La otra cosa que diría que ha sido una verdadera inspiración es el creciente campo de académicos que se hacen estas preguntas más importantes sobre el trabajo, los datos y la desigualdad. Aquí estoy pensando en Ruha Benjamin, Safiya Noble, Mar Hicks, Julie Cohen, Meredith Broussard, Simone Brown; la lista continúa. Veo esto como una contribución a ese cuerpo de conocimiento al incorporar perspectivas que conectan el medio ambiente, los derechos laborales y la protección de datos.
Viajas mucho a lo largo del libro. Casi todos los capítulos comienzan con usted mirando a su alrededor. ¿Por qué fue esto importante para ti?
Fue una elección muy consciente fundamentar un análisis de la IA en lugares específicos, para alejarnos de estos abstractos “nichos” del espacio algorítmico, donde ocurren muchos de los debates sobre el aprendizaje automático. Y, con suerte, resalta el hecho de que cuando no hacemos eso, cuando solo hablamos de estos “espacios en ninguna parte” de objetividad algorítmica, también es una elección política y tiene ramificaciones.
En términos de unir las ubicaciones, esta es realmente la razón por la que comencé a pensar en esta metáfora de un atlas, porque los atlas son libros inusuales. Son libros que puedes abrir y mirar la escala de todo un continente, o puedes acercar y mirar una cadena montañosa o una ciudad. Te dan estos cambios de perspectiva y cambios de escala.
Hay una hermosa línea que utilizo en el libro de la física Ursula Franklin. Escribe sobre cómo los mapas unen lo conocido y lo desconocido en estos métodos de percepción colectiva. Entonces, para mí, realmente se basó en el conocimiento que tenía, pero también en las ubicaciones reales donde se está construyendo la IA de manera muy literal a partir de rocas, arena y petróleo.
¿Qué tipo de comentarios ha recibido el libro?
Una de las cosas que me sorprendieron en las primeras respuestas es que la gente realmente siente que este tipo de perspectiva estaba atrasado. Hay un momento de reconocimiento de que necesitamos tener un tipo de conversación diferente a las que hemos tenido en los últimos años.
Hemos pasado demasiado tiempo centrándonos en soluciones tecnológicas limitadas para los sistemas de inteligencia artificial y siempre centrando las respuestas técnicas y las respuestas técnicas. Ahora tenemos que lidiar con la huella medioambiental de los sistemas. Tenemos que lidiar con las formas muy reales de explotación laboral que se han venido dando en la construcción de estos sistemas.
Y ahora también estamos comenzando a ver el legado tóxico de lo que sucede cuando simplemente extrae tantos datos de Internet como puede, y simplemente lo llama verdad básica. Ese tipo de encuadre problemático del mundo ha producido tantos daños y, como siempre, esos daños los han sentido sobre todo las comunidades que ya estaban marginadas y que no experimentaban los beneficios de esos sistemas.
¿Qué espera que la gente comience a hacer de manera diferente?
Espero que sea mucho más difícil tener estas conversaciones callejeras donde términos como “ética” e “IA para siempre” han sido tan completamente desnaturalizados de cualquier significado real . Espero que corra la cortina y diga, realmente veamos quién maneja las palancas de estos sistemas. Eso significa dejar de centrarse solo en cosas como los principios éticos para hablar sobre el poder.
¿Cómo nos alejamos de este encuadre ético?
Si ha habido una trampa real en el sector tecnológico durante la última década, es que la teoría del cambio siempre se ha centrado en la ingeniería. Siempre ha sido, “Si hay un problema, hay una solución técnica para él”. Y solo recientemente estamos comenzando a ver que se amplía a “Oh, bueno, si hay un problema, entonces la regulación puede solucionarlo. Los formuladores de políticas tienen un papel “.
Pero creo que debemos ampliarlo aún más. Tenemos que decir también: ¿Dónde están los grupos de la sociedad civil, dónde están los activistas, dónde están los defensores que abordan temas de justicia climática, derechos laborales, protección de datos? ¿Cómo los incluimos en estas discusiones? ¿Cómo incluimos a las comunidades afectadas?
En otras palabras, ¿cómo podemos hacer que esto sea una conversación democrática mucho más profunda sobre cómo estos sistemas ya están influyendo en las vidas de miles de millones de personas de formas principalmente irresponsables que viven fuera de la regulación y la supervisión democrática?
En ese sentido, este libro está tratando de descentrar la tecnología y comenzar a hacer preguntas más importantes sobre: ¿En qué tipo de mundo queremos vivir?
¿Qué clase de mundo que quiere vivir? ¿Con qué tipo de futuro sueñas?
Quiero ver que los grupos que han estado haciendo el trabajo realmente arduo de abordar cuestiones como la justicia climática y los derechos laborales se unan, y darme cuenta de que estos frentes anteriormente bastante separados para el cambio social y la justicia racial realmente han compartido preocupaciones y un terreno compartido sobre el cual coordinar y organizar.
Porque estamos viendo un horizonte de tiempo realmente corto aquí. Nos enfrentamos a un planeta que ya está sometido a una gran presión. Estamos ante una profunda concentración de poder en extraordinariamente pocas manos. Realmente tendría que volver a los primeros días de los ferrocarriles para ver otra industria que está tan concentrada, y ahora incluso podría decir que la tecnología ha superado eso.
Por tanto, tenemos que lidiar con formas en las que podamos pluralizar nuestras sociedades y tener mayores formas de responsabilidad democrática. Y ese es un problema de acción colectiva. No es un problema de elección individual. No es como si elegimos la marca de tecnología más ética lista para usar. Es que tenemos que encontrar formas de trabajar juntos en estos desafíos a escala planetaria.