Secretos sucios de la inteligencia artificial – Por Silvia Ribeiro

1.359

Los conceptos vertidos en esta sección no reflejan necesariamente la línea editorial de NODAL. Consideramos importante que se conozcan porque contribuyen a tener una visión integral de la región.

Secretos sucios de la inteligencia artificial

Por Silvia Ribeiro *

Los sistemas de inteligencia artificial se expanden y abarcan cada vez más aspectos de nuestra vida cotidiana y de los procesos de producción industrial y otros, como educación y gestión de la salud. Todo ello controlado por unas pocas empresas tecnológicas gigantes, sector de las que provienen los hombres más ricos del mundo. Fortuna que en gran porcentaje se debe a la extracción gratuita y no regulada de datos de las personas y de sus interacciones.

Estamos en contacto diario con la inteligencia artificial, aunque no pensemos en ello, por ejemplo a través de los teléfonos móviles que responden a nuestras preguntas, con el uso de motores de búsqueda electrónica y las muchas otras formas de entregar nuestros datos y preferencias en formularios y tarjetas electrónicas de todo tipo (exigidos por ley por instituciones públicas y privadas, por tarjetas bancarias o de asiduidad de comercios, clubes, etcétera).

Datos que no quedan aislados por actividad o empresa, sino que se integran en sistemas informáticos que se pueden conectar entre sí. La mayoría de los datos van a parar a muy pocas nubes informáticas gigantes. Casi la totalidad de los datos electrónicos comerciales, personales y gubernamentales están almacenados en las nubes informáticas de Microsoft, Amazon, Google y pocas más.

La recolección de nuestros datos no es un efecto secundario, sino un propósito de estas empresas, ya que su interpretación por sectores de población (etarios, de género, geográficos y de poder adquisitivo, entre otros), por intereses, posiciones políticas y un largo etcétera, es lo que las tecnológicas venden a otras compañías para mercadeo o manipulación de nuestras decisiones. El almacenamiento de esta cantidad inmensa de datos es imposible sin las gigantescas nubes de computación de las empresas, y a su vez, solamente sistemas automatizados de inteligencia artificial pueden interpretarlos.

Pero cada uno de esos sistemas de [supuesta] inteligencia son a su vez entrenados y alimentados manualmente por seres humanos y a través de aprendizaje entre máquinas que han sido entrenadas previamente. Esto significa por un lado, una vastísima cantidad de mano de obra humana para introducir datos y corregir errores de interpretación, que las grandes tecnológicas en gran parte pagan a precios miserables en países del tercer mundo, a menudo a destajo y en competencia feroz (el que primero encuentra un error y lo corrige lo cobra), con un efecto devastador sobre los derechos laborales y humanos.

Por otro lado, los sistemas de inteligencia artificial sólo pueden alimentarse de los datos estadísticos de la realidad, que es racista, sexista, ecocida, económica y políticamente injusta, por lo que repiten estos mismos valores ad infinitum. La llamada inteligencia artificial, como chatGPT y similares, no son más que sistemas de razonamiento basados en estadísticas pasadas, que carecen de la posibilidad de imaginar realidades diferentes y, por tanto, afirman y promueven el statu quo.

A esto hay que agregar que la digitalización presente en casi todos los rubros de producción industrial y muchos aspectos de la vida social, de la cual los sistemas de inteligencia artificial son parte, al contrario de lo que se puede pensar, tiene un fuerte impacto material. Demanda enormes cantidades de energía, de materiales, de agua y genera grandes volúmenes de nueva basura contaminante y difícil de gestionar. Por ejemplo, los centros de datos de las grandes tecnológicas, lejos de virtuales, son grandes instalaciones físicas con miles de computadoras que interactúan entre sí, que demandan energía en forma continua y grandes cantidades de agua para refrigerar esos sistemas. Las grandes tecnológicas están entre los cinco principales consumidores de energía en Estados Unidos.

Según un estudio de investigadores de Google y la Universidad de Berkeley reseñado por Josh Saul y Dina Bass, el entrenamiento de un solo sistema de inteligencia artificial –ChatGPT-3 de la empresa OpenAI– consumió energía equivalente al gasto anual de 120 hogares en Estados Unidos. Estiman que emitió 502 toneladas de carbono, equivalente a las emisiones de 110 autos por año.

Este entrenamiento inicial representa sólo 40 por ciento de la demanda energética del uso de ChatGPT. Además, el entrenamiento se debe renovar y aumentar todo el tiempo para no perder actualidad. El sistema GPT-3 usaba 175 mil millones de parámetros o variables. Su predecesor usaba sólo mil 500 millones de parámetros. El nuevo sistema GPT-4 de OpenAI tendrá muchos más que el anterior (https://tinyurl.com/2p82mwzx).

En este contexto, resulta hipócrita el llamado de Elon Musk (fundador de Tesla), Steve Wozniak (cofundador de Apple) y otros grandes empresarios tecnológicos quienes alertan en carta pública sobre los riesgos de la inteligencia artificial y plantean una moratoria de seis meses en su desarrollo para ver ciertos aspectos y regularlos. Un periodo y temas tan limitados que más bien son una medida pseudo comercial para detener el avance meteórico de ChatGPT, producto de la empresa AI, de la que Elon Musk se retiró.

No obstante, los riesgos del uso de esos chats y de otros sistemas de inteligencia artificial, son reales y mucho más vastos que lo allí planteado, principalmente para controlarnos y para conservar y exacerbar las injusticias y discriminación existentes.

Inteligencia artificial y cotorreo

En las últimas semanas hemos visto una aparente guerra de mensajes de los mayores potentados de las empresas tecnológicas que declaran que la inteligencia artificial es un peligro existencial para la humanidad y que debería establecerse una moratoria. Elon Musk y los otros ejecutivos e ingenieros de titanes tecnológicas como Apple y Google que firmaron esta declaración en marzo de 2023, piden una moratoria de seis meses. Como otras bravatas sin base de este arrogante supermillonario, es risible que afirmen que se podría resolver un problema existencial de tal magnitud en seis meses. Pero claro, el problema que plantean no existe como tal y su intención tampoco es que se desarrolle una regulación independiente de sus intereses económicos, ni que se analicen en forma crítica los impactos reales de los sistemas de inteligencia artificial que ya existen.

Una intención principal de la declaración es enlentecer el avance del competidor OpenAi con su programa ChatGPT4, un buscador que ha tenido un nivel de venta de suscripciones mucho más rápido que cualquier otro de sistemas similares anteriores. Musk fue inversor de OpenAI, pero se retiró. Ahora anuncia que desarrolla su propia versión de un programa similar, que al ser desarrollado por él ya no sería un problema existencial.

Otra intención es desviar la atención de los graves impactos reales actuales de estos sistemas, señalando que podrían tener efectos en el futuro.

Emily Bender, coautora citada en la primera nota de esa declaración de Musk y otros, se deslindó rápidamente. En una entrevista con el analista crítico Paris Marx, explica que no existen sistemas de inteligencia artificial competitivos con la inteligencia humana, aunque sí tienen impactos. Se trata de sistemas de texto sintético que aunque sean rápidos y parezcan complejos, en realidad no comprenden los mensajes que entregan. Son lo que ella y colaboradoras han llamado loros estocásticos: repetidores y mezcladores de texto que aunque pueda parecer que tienen sentido (porque se basan en lo que han dicho y escrito personas) no son capaces de comprender el significado de los resultados que arrojan. Que un loro pueda repetir un tango, no significa que lo entienda. (https://tinyurl.com/ye237we9)

No existen, agrega Bender, sistemas que compitan con los sistemas de lenguaje humanos, porque las máquinas no pueden comprender imaginarios sociales, ni valores, emociones, culturas diversas, ni los universos de significados colectivos en los muchos idiomas que existen. Se ha desarrollado lo que se llama grandes modelos de lenguaje, como los que utiliza ChatGPT, que basados en volúmenes inmensos y cada vez más grandes de datos, pueden predecir una serie textos y palabras que usualmente se asocian entre sí en un determinado lenguaje. Pueden también mezclarlos en forma aleatoria (estocástica) para que parezcan diversos y originales, pero siempre son a partir de patrones establecidos y basados en algoritmos creados por personas.

Bender y coautoras explican en un artículo emblemático titulado Sobre el peligro de los loros estocásticos ¿puede haber modelos de lenguaje demasiado grandes?, que esto conlleva una multiplicación de problemas y sesgos que ya existen, por lo que estos programas son intrínsecamente discriminatorios de minorías, son racistas, sexistas, se basan en la naturalidad de la desigualdad. Además, en su vasta mayoría parten del inglés, con lo que vuelven a repetir la injusticia y sistemas de dominación basados en ese idioma ( https://tinyurl.com/28jbv4tf).

Dos de las otras coautoras de ese artículo, Timnit Gebru y Margaret Mitchell fueron despedidas de Google por que no quisieron retirar su nombre. Mitchell decidió agregar SH a su nombre en el artículo (Shmargaret ShMitchell) para señalar que habían intentado silenciarla.

Uno ejemplo que dan es que ChatGPT se basa en la recolección de datos de Wikipedia y Reddit, entre otros. En Wikipedia, solo 9 a 15 por ciento de contribuyentes son mujeres y más de 70 por ciento son blancos. En Reddit, dos terceras partes son menores de 30 años, lo cual en ambos casos significa que multiplican esas parcialidades en desmedro de otras perspectivas, rangos de edad, otras culturas, etcétera. Está comprobada la discriminación racial implícita en los sistemas de inteligencia artificial, no solo de lenguaje, también de imágenes y reconocimiento facial.

En el mismo artículo señalan que estos sistemas tienen también un enorme impacto climático y ambiental, porque requieren enormes cantidades de energía para entrenar cada sistema en un solo tema. Mientras que una persona emite 5 toneladas anuales de dióxido de carbono, el entrenamiento de un sistema de inteligencia artificial emite al menos 284 toneladas de carbono. Y en seis años se multiplicó por 300 mil la cantidad de cómputos usados para entrenar sistemas, mucho más rápido que la llamada Ley de Moore sobre tecnología.

Aún así, deben contratar trabajadores manuales en África y Asia, a quienes pagan sueldos miserables para eliminar textos, frases e imágenes de violencia sexual y otras conductas que los programas no filtran ni entienden.

Esto son sólo algunos de los impactos y problemas reales y actuales –no en lejanos e improbables futuros– de estos sistemas, que más que inteligentes son programas de cotorreo matemáticamente programado.

*Investigadora del Grupo ETC

La Jornada

Más notas sobre el tema