Ei-iE

Mundos de la Educación

Resistir y reimaginar la Inteligencia Artificial

Ejemplos inspiradores para que las personas docentes reflexionen sobre la promoción excesiva de IA

publicado 25 agosto 2023 actualizado 21 marzo 2024
Escritos por:

A la luz de la reciente histeria en torno a ChatGPT, bien podría ser que las organizaciones afiliadas a la Internacional de la Educación se quejaran de tener que leer otro artículo sobre la educación y la Inteligencia Artificial. Sin embargo, por desgracia, la IA no es un tema del que el personal que trabaja en educación pueda desentenderse por completo. De hecho, son muchas las personas que quieren que sucumbamos a esta tendencia y que aceptemos que ya hemos entrado en la "era de la IA". Mejor dicho, que el profesorado y el alumnado no tienen más opción que resignarse y sacarle a la IA el mayor jugo posible. Una de las principales razones por las que los debates en torno a la IA se han vuelto tan aburridos y repetitivos es la naturaleza aparentemente ineludible de esta situación. Independientemente de lo optimistas o pesimistas que sean las discusiones relacionadas con la IA, la presunción subyacente siempre es la de que "no hay alternativa".

Por suerte, cabe esperar que las organizaciones afiliadas a la IE desconfíen cuando se les pide aguantarse, y no callen. Y es que son muchas las voces influyentes que nos piden que nos resignemos pasivamente a los cambios producidos tras la égida de la IA; hablamos de las de Google, Open AI, la OCDE y otras muchas entidades convertidas en grandes beneficiarias de esta tecnología. En lugar de claudicar ante estos intereses privados, la comunidad educativa debe dar un paso al frente y buscar formas de oponerse a las ideas preconcebidas sobre la IA en nuestro sector.

Así las cosas, ¿cómo cuestionar las formas actuales de IA que tan insistentemente nos están vendiendo? Este blog presenta una serie de reflexiones en contra de la IA que los que más pueden perder (y menos ganar) con esta tecnología están empezando a percibir: las poblaciones negras, las personas con diversidad funcional y el colectivo queer, las personas habitantes del sur global, las comunidades indígenas, las personas activistas ecológicas, las personas de ideología antifascista y otros grupos marginados, desfavorecidos y minoritarios. Animamos a aquellos educadores y educadoras que están preocupados por el futuro de la IA en el sector de la educación a que se empapen de esta opinión disidente y en auge. He aquí, pues, una serie de visiones alternativas sobre lo que es la IA... y lo que podría ser.

Cómo pensar en la IA de un modo distinto

Visión sobre la IA por parte de la comunidad negra, las personas con diversidad funcional y el colectivo queer

Algunas de las críticas más contundentes a la inteligencia artificial están procediendo de grupos tradicionalmente minoritarios, como aquellas personas negras que están denunciando el racismo que profiere el uso de esta tecnología en Estados Unidos y otros países. Nos referimos a casos muy sonados en los que ciertas tecnologías de reconocimiento facial generadas por IA han fomentado prácticas policiales racistas con algoritmos que discriminan sistemáticamente por raza a la hora de asignar ayudas sociales, admisiones universitarias o préstamos hipotecarios.

La condena en torno a la naturaleza de doble filo de estas discriminaciones impulsadas por la IA está creciendo. Este tipo de tecnologías no solo se entrenan inicialmente a partir de conjuntos de datos que reflejan prejuicios y discriminaciones históricos contra la población negra, sino que también se despliegan en instituciones y entornos estructuralmente racistas. Todo esto da lugar a lo que Ruha Benjamin (2019) denomina "desigualdad de ingeniería", es decir, la tendencia de las tecnologías de IA a arrojar resultados inevitablemente opresores y negativos "ya que han sido diseñadas en una sociedad estructurada por imbricadas formas de dominación" (Benjamin 2019, p.47).

Las críticas a la IA dentro de las comunidades queer y de personas con diversidad funcional suscitan preocupaciones similares. Tal y como afirman académicos y activistas como Ashley Shew, existe un claro deje de "tecnoablismo" en la forma en que la IA se está desarrollando actualmente. Funciones como el rastreo ocular, el reconocimiento por voz o el análisis de la forma de andar van en contra de aquellas personas que no se ajustan a las características físicas o formas de pensar y actuar esperadas. Shew señala una falta de interés clara entre las personas encargadas de desarrollar la IA por diseñar sus productos teniendo en cuenta las experiencias de las personas con diversidad funcional. En el mejor de los casos, la IA se desarrolla para "ayudar" de algún modo a las personas con diversidad funcional a encajar mejor en contextos de personas neurotípicas (eso es, sin diversidad funcional), enmarcando la diversidad funcional como un problema de algunas personas que la IA puede ayudar a subsanar de algún modo.

Estas perspectivas sobre la IA deberían hacer que las personas que trabajan en educación se lo pensaran dos veces antes de afirmar que la IA puede contribuir a que la educación sea más justa. De hecho, es muy poco probable que los sistemas de IA aplicados en contextos educativos ya desiguales conduzcan de alguna manera a resultados radicalmente diferentes y que, de repente, apoyen el empoderamiento o emancipación de estudiantes y personas de colectivos minoritarios. Por el contrario, lo más probable es que incluso la IA mejor intencionada termine ampliando o intensificando las tendencias y resultados discriminatorios que ya existen.

Enfoques feministas de la IA

Estas preocupaciones también se reflejan en las críticas feministas a la IA. Estas se remontan a décadas atrás, cuando, en los años 90, autoras como Alison Adam apuntaron que la IA se basa en concepciones profundamente problemáticas de lo que consideramos inteligencia y en una enorme insensibilidad hacia los aspectos sociales y culturales del pensamiento, la acción y la vida. Desde entonces, las feministas han seguido denunciando que las personas encargadas de desarrollar la IA y las tecnologías que de ello resultan carecen de una preocupación genuina por atributos humanos fundamentales como la empatía, la ética, la solidaridad o el cuidado de los demás y del medio ambiente.

Al plantear estas cuestiones, estas críticas feministas están poniendo de relieve que muchos de los problemas asociados a los usos actuales de la IA están relacionados con los privilegios y el funcionamiento del poder de las condiciones capitalistas modernas. Así lo demostraron un grupo de activistas feministas al protestar contra la forma en que se desarrolla la IA, un proceso que en ocasiones depende de un "trabajo invisible”, mal pagado y no remunerado realizado por mujeres, personas de color y, a menudo, subcontratado a personas no occidentales. El pensamiento feminista nos recuerda que no hay que simplemente “evitar”, “neutralizar” o “arreglar” estas injusticias, sino “oponerles resistencia”, “cuestionarlas” y “reequilibrarlas” para que ofrezcan resultados de forma más equitativa en las herramientas de IA.

Todo esto lleva a pedir que se desarrollen nuevas formas de IA basadas en principios feministas y que se permitan utilizar con fines feministas. Ejemplo de ello son una serie de proyectos en los que distintas comunidades locales están creando sus propios conjuntos de datos para entrenar modelos de IA. En esos casos, el funcionamiento, las intenciones y los parámetros de la futura herramienta de IA son visibles para todas las personas implicadas en su desarrollo y uso, en contraste con la opacidad deliberada de la "caja negra" de la mayoría de las IA comerciales. Además, se están desarrollando otras formas feministas de IA para combatir deliberadamente las formas discriminatorias y misóginas de IA que predominan actualmente, como ya ocurre con unas herramientas alternativas de IA predictiva diseñadas para alertar a las fuerzas del orden de delitos como la violencia de género y el feminicidio. Como concluye Sophie Toupin, "la promesa asociada a la IA feminista es que es posible una IA más justa, lenta, consensuada y colaborativa".

Visión indígena sobre la IA

A ello se suma el creciente interés por reconceptualizar la IA a través de la lente de las epistemologías, cosmologías y formas de ser y hacer indígenas. Uno de los primeros intentos en este sentido es el artículo reciente de Luke Munn Designing and evaluating AI according to indigenous Māori principles (Diseño y evaluación de la IA según los principios indígenas maoríes), que aplica el trabajo del antropólogo, historiador y destacado líder maorí Sir Hirini Moko Mead a las actuales concepciones occidentales de las tecnologías de IA que están empezando a aplicarse en distintos ámbitos sociales.

Como explica Munn, los principios, valores y concepciones maoríes nada tienen que ver con los actuales supuestos dominantes en torno a la IA promovidos por la industria occidental de las TI y los intereses políticos. Al contrario, la concepción indígena de la IA, además de contextualizar sus resultados según las normas locales, plantean preocupaciones en torno a la dignidad humana, los intereses colectivos y la integridad comunal. Y lo que es más importante, también ponen de relieve la forma en que la IA está vinculada materialmente con los entornos naturales: desde la imposición de centros de datos que consumen mucha agua en regiones asoladas por la sequía hasta los problemas de los residuos electrónicos y la explotación de metales raros y minerales que se utilizan para construir los equipos informáticos.

Desde el punto de vista indígena, por tanto, el actual impulso occidental a la IA se revela peligrosamente desequilibrado y alejado de las necesidades de las personas y la tierra. Cuando se compara con los planteamientos indígenas descritos en el artículo de Munn, la retórica dominante de la industria de las TI —de la "transformación" completa de la sociedad gracias a la IA hasta escenarios más extremos con una "inteligencia artificial general" omnipotente—, parece decididamente arrogante, soberbia, irrespetuosa y destructiva.

Problemas y preocupaciones recurrentes

Los anteriores son solo algunos aspectos de una nueva opinión disidente que va ganando terreno sobre lo que es y lo que puede ser la IA. Afortunadamente, hoy en día ya se están planteando distintos enfoques y puntos de vista alternativos sobre la IA. De hecho, junto al número cada vez mayor de llamamientos que instan a repensar la IA siguiendo líneas descolonialistas y de ecojusticia, también está emergiendo otro conjunto de argumentos contra la política de la IA actual que denuncia las claras "resonancias entre la política fascista y las operaciones básicas de la IA" ( McQuillan 2022, p. 97).

Aunque todas estas ideas y programas ofrecen visiones muy diferentes (y a veces contradictorias) de la IA, todas contienen algunas sensibilidades y ambiciones comunes. Por ejemplo, no suelen tener miedo de plantear exigencias radicales. Una conclusión central de muchos de estos puntos de vista es que determinadas formas de IA simplemente no deberían desarrollarse o deberían detenerse inmediatamente y prohibirse. Ya existen, por ejemplo, argumentos persistentes a favor de la prohibición total de la tecnología de reconocimiento facial o, como mínimo, de introducir un control y una regulación estrictos de su uso similares a los de algunas sustancias controladas como el plutonio. Como ha razonado el conocido activista jurídico Albert Fox Cahn: "El reconocimiento facial está sesgado, roto y es antitético a la democracia. (...) Prohibir el reconocimiento facial no solo protegerá los derechos civiles: es una cuestión de vida o muerte".

Por otra parte, existe un deseo común por querer incluir las perspectivas marginales y alternativas en el centro del futuro diseño de la IA. A corto plazo, se argumenta que el diseño futuro de las tecnologías y herramientas de IA debería basarse en las necesidades de quienes tienen menos probabilidades de beneficiarse de ella (lo que las personas que se dedican a su diseño denominan a veces "casos extremos"). Es decir, en lugar de integrarse después, las experiencias de las comunidades negras, las personas funcionalmente diversas o los colectivos indígenas, deberían utilizarse antes para que orientaran las decisiones de las personas que diseñan y desarrollan la IA. Esto ya se ha visto reflejado en distintos llamamientos en los que se promueven un diseño orientado a la diversidad funcional, un diseño feminista de la IA, unas directrices indígenas de diseño de la IA y unos enfoques de justicia en el diseño de la IA.

A largo plazo, además, se pide que estos principios (y otros similares) se impongan como base para avanzar en una reforma fundamental y sostenida de la IA para que esta siga una línea antidiscriminatoria, auténticamente inclusiva y descolonizadora, obligando a la industria de las TI, a las personas con cargos políticos y a otros impulsores e impulsoras de la IA a fundamentar sus acciones y ambiciones en torno a cuestiones más amplias de justicia, desigualdad y colonialidad. Esto requeriría que la industria de la IA renunciara a su actual preocupación por la velocidad tecnológica, la escala, la novedad y la interrupción deliberada. En su lugar, esta visión promueve un enfoque de la IA que sea "más lento, más reflexivo y más considerado con la vida en sus diversas formas" (Munn 2023, p.70).

¿Y ahora qué? Reimaginar lo que queremos que sea la IA educativa

En lugar de las razones anteriores (que parecen estar grabadas en piedra), hay muchos otros motivos que nos hacen creer que la “IAficación” actual de la educación sí se puede combatir, tal vez incluso reimaginar de formas radicalmente diferentes. Todas las perspectivas que acabamos de esbozar deberían servirnos de inspiración para frenar y recalibrar los debates actuales en torno a la educación y la IA, hacernos reflexionar sobre lo que estas tecnologías no son capaces de hacer y obligarnos a denunciar todo lo que estamos perdiendo y los daños que estamos generando cuando utilizamos estas tecnologías. No hablamos de peticiones descabelladas. Al contrario, es descorazonador ver cómo hemos llegado tan rápidamente al punto en el que considerar cuestiones como la desigualdad social, la humanidad y el medio ambiente nos parecen peticiones radicales y totalmente irrealizables.

Todavía estamos a tiempo de alzar la voz contra aquellas formas nocivas de IA que nos están imponiendo de forma implacable. Visto así, parece crucial que la comunidad educativa se una en un esfuerzo común para impulsar estos valores, ideales y principios en los debates y la toma de decisiones y reflexione sobre cuáles son las formas de IA que queremos ver colectivamente en el sector educativo. Las críticas esbozadas en este artículo desde las perspectivas negra, feminista e indígena sugieren que el futuro de la IA y la educación no tiene por qué ser una conclusión inevitable a la que simplemente tengamos que adaptarnos, sino que es algo a lo que definitivamente podemos resistirnos y reimaginar.

Las opiniones expresadas en este blog pertenecen al autor y no reflejan necesariamente ninguna política o posición oficial de la Internacional de la Educación.