Autores: Luis Josué Lugo y Arlette Morales
Hoy observamos que la inteligencia artificial generativa en el campo de la educación llegó para quedarse. Cuando comenzamos a escribir esta columna y señalar variadas hipótesis respecto a la IA, había una esperanza en distintas personas respecto a que el proceso fuera retroactivo, pero hasta la fecha en las conferencias y talleres que impartimos en diversos centros educativos iberoamericanos, se están potenciando las dudas, incertidumbres e inquietudes.
También somos testigos de una ola de supuestos especialistas que ofrecen cursos y anuncian un apocalipsis o, por el contrario, un paraíso en la sustitución del humano por la máquina. Nada más alejado de la realidad. La vida no se puede determinar sólo entre polos. Tampoco la tecnología.
Ahora bien, me gustaría enfatizar que la IA sí llegó para quedarse, pero como una herramienta. Al respecto, Marx decía que esta última es entendida como un órgano (instrumento) que el obrero maneja y domina desde su propia fuerza para completar un proceso de trabajo; por ende, se le considera un medio, pues no puede producir por su propia cuenta y requiere de la destreza humana (Marx, 2011 como se cita en Sandrone, 2023; Marx, trad. en 1975). Es decir, la IA es un instrumento. El valor lo genera la propia persona.
Como hemos insistido, no hay que darle mayor peso del que tiene. Si bien puede ayudar a potenciar procesos, ahorrar tiempos, auxiliar en labores rutinarias e inclusive maximizar las actividades que hace un ser humano, por otro lado tiene tras de sí, con más visibilidad cada día; brechas, sesgos y preocupaciones, por ejemplo, en terrenos como el medio ambiente.
Por ejemplo, sin considerar los procesos de producción de los componentes de las IA’s, en Making AI Less “Thirsty”: Uncovering and Addressing the Secret Water Footprint of AI Models (Li, Yang, Islam y Ren, 2023) se expuso lo siguiente sobre los centros de desarrollo de IA en 2022: los usados para GPT-3 y 4 consumieron el 1-2% de la energía global, los de Google extrajeron 25 mil millones de litros de agua (más otros 20 mil millones para enfriamiento) y Microsoft y Meta usaron la cantidad de agua equivalente al doble del consumo anual (municipal, industrial y agrícola) de Dinamarca.
Por eso, hoy más que nunca el llamamiento es a pensar en una inteligencia artificial desde su uso social. Con una responsabilidad subjetiva. Para ello, nos convendría pensar en tres posibilidades: a) una perspectiva crítica, b) desde su uso ético, c) para una apropiación responsable y creativa. Por lo que, nos detendremos en cada punto.
Una IA con uso ético implicaría que, desde la subjetividad de cada persona que la usa, se tengan claros los límites y posibilidades del para qué. Autores como Siau y Wang (2020) refieren como ética a los “principios, reglas, directrices, políticas y regulaciones relacionadas
a la IA” (p. 74) en el desarrollo e interacción de estas tecnologías con otras IA’s, humanos y la sociedad en sí; mientras se consideran aspectos como impacto social, derechos humanos, transparencia, democracia, marcos legales, accesibilidad, la responsabilidad, autonomía, seguridad y privacidad y otros. Pongo un ejemplo: si desde el principio, la IA se quiere usar para hacer un ensayo sin que intermedie la cognición y reflexividad humana, hay un error por confiarle ese trabajo a una tecnología, ya que, por cierto, está configurada por un campo de entrenamiento de otros seres humanos (las respuestas no aparecen “mágicamente”). Propensa, por cierto, a ciertas alucinaciones que los humanos estamos invitados a identificar.
Para ello, se tiene que apelar a protocolos, principios, directrices, que ineludiblemente trastocan campos legales, políticos y sobre todo sociales. Inclusive con repercusiones en las democracias o sistemas sociales.
Este uso ético, por tanto, nos invitaría a pensar las consecuencias de nuestras acciones para que, en función de eso, generemos protocolos de uso y acompañamiento. Desde el sector empresarial está la Microsoft Responsible AI Standard (Norma de Microsoft sobre IA responsable), guía que establece normas éticas para cumplir con principios y directrices en el desarrollo y aplicación de la IA (Microsoft, 2022).
Por otro lado, también hay iniciativas desde los organismos internacionales e institucionales: la Organización para la Cooperación y el Desarrollo Económicos (OCDE) propuso la Recomendación sobre la inteligencia artificial (2019), la Comisión Europea presentó El Reglamento Europeo de Inteligencia Artificial (2024) y la UNESCO lanzó la guía Recomendación sobre la ética de la inteligencia artificial (2022) y la Guía para el uso de IA generativa en educación e investigación (2024). Mientras que la UNAM propuso Recomendaciones para el uso de la inteligencia artificial generativa en la docencia (2023).
Por otro lado, es importante pugnar por el uso crítico de la IA, sin dudas. El pensamiento crítico no sólo nos hace falta en el uso de la IA, sino en nuestra vida misma: siempre preguntarnos el por qué y el para qué de lo que estamos haciendo y el para qué queremos hacerlo. A menudo, escucho personas que quieren hacer más en menos tiempo. ¿Para qué?
Muchas veces esto puede conducir a crisis socioemocionales, subjetivas y también de medio ambiente. Estamos acabando el planeta. En este sentido, en Is it harmful or helpful? Examining the causes and consequences of generative AI usage among university students (Abbas, Jam y Khan, 2024) se hizo una serie de estudios sobre el uso de ChatGPT en 165 estudiantes de numerosas universidades de Pakistán, y como resultado se obtuvo lo siguiente:
El uso de ChatGPT estaba ligado a la carga académica y presión por el tiempo (sobretodo en aquellos que desconocían el nivel de calidad que generaba el programa para los trabajos); sin embargo, su uso consecutivo generaba problemas de procrastinación y pérdida de memoria ante cierta información. Mientras que, quienes evitaban usarlo era por miedo a ser detectados, poca fiabilidad o por la búsqueda de alguna recompensa.
Este pensamiento crítico siempre tendrá que estar en oscilación entre las ciencias, humanidades, las artes y la filosofía para que generemos escenarios interdisciplinarios en
donde la reflexión sea una constante. Así como la responsabilidad en el uso de la IA. No convertirnos en ese trabajador alienado que reflejaba Chaplin desde su película Tiempos Modernos. Y que bien podríamos hoy hacer un parangón con gente usando ChatGPT sin cuestionárselo.
Como tercer punto, un uso creativo. No me refiero a la creatividad de moda “que tanto vende pero poco hace”, donde a la manera de coaching, a las personas muchas veces se les acerca más a un supuesto ideal de la felicidad que a adquirir una libertad desde el propio sujeto, desde el propio deseo. Deseo por ser y hacer. Al considerar que, la IA aún no puede competir con la creatividad humana, como lo señala el estudio de Julinda Morales Cardoso (2024) sobre la creatividad humana de estudiantes universitarios de publicidad vs. la creatividad artificial de programas como Chat GPT o Claude-Instant.
En este sentido, existen propuestas que ilustran el potencial del uso creativo con IA, ya sea en el arte como en lo social. Por ejemplo: el artista Refik Anadol desarrolló su obra “Unsupervised” en el Museo de Arte Moderno (MoMa) de Nueva York, la cual consiste en un modelo de aprendizaje automático que fue entrenada con datos de arte del MoMa y que captaba el movimiento de los visitantes y los datos meteorológicos; en consecuencia, el programa parece “estar vivo” con las creaciones que hace desde sus “memorias”, pero siendo fundamental el artista en el desarrollo (Peralta, 2024; Díaz, 2022; MoMa, 2022).
Por otro lado, existe el proyecto Creativity with AI del colectivo de posgrado de Parson School of Design (The New School) que consta de un sitio web en forma de biblioteca y página de recursos que permite a los usuarios explorar su creatividad con varios tipos de software de IA (de sonido, imagen, vídeo y demás) y aprender cómo funcionan dichos programas; en tanto, es un centro de exhibición y estudio del colectivo. Así mismo, desde lo social, Monasterio (2022) también expone cómo la IA puede ser usada para el cumplimiento de los Objetivos de Desarrollo Sostenible.
Para que en función de lo ya hecho, ya escrito y ya trabajado, seamos creativos y aportemos innovaciones sociales. Recordemos que para Daniel Innenarity, esto implica generar una codificación y lenguaje social que permita pensar e intervenir en el mundo. En esto quizás reside la creatividad y nuestra propuesta: conjuntar un uso ético y responsable con un uso creativo, para que observemos las falencias del sistema político; y pasemos de una situación de víctima a una posición de acción, desde las posibilidades de cada quien y cada cual. Porque si, el entorno actual necesita este pensamiento creativo.
Dado que existen casos donde dicho uso va más allá de las normas convencionales. Por ejemplo, las madres buscadoras del Colectivo Luz de Esperanza: Desaparecidos Jalisco han hecho uso de la Inteligencia Artificial en 2023 para realizar “Fichas Vivas de Búsqueda” (videos de animación facial de sus desaparecidos). Dicha decisión surgió ante las dificultades económicas que se presentan al tener que pegar más de 2 mil fichas cada semana (Del Jésus y Flores González como se cita en Telemundo, 2023).
A su vez, las fichas fueron compartidas en redes sociales de Facebook, Instagram y TikTok para pedir justicia por los casos a la autoridades y re-humanizar las historias. En tanto, aunque se cubren otras actividades del colectivo, es la IA la que más atrajo la atención mediática y social, pese al dolor que reviven las familias. Siendo así, que este ejercicio se
ha replicado en otros colectivos en 2024 con el de Madres en Resistencia de Chiapas y Madres de Cancún (Yoselin Chavarría como se cita en Victoria, 2024).
En el mismo contexto de la desaparición y no localización de personas, se está buscando desarrollar el proyecto estudiantil REGRESA del Centro de Estudios Antropológicos de la Facultad de Ciencias Políticas y Sociales (FCPyS) de la UNAM, en colaboración con la Universidad Autónoma de la Ciudad de México (UACM) y el Laboratorio Nacional de Ciencias de la Sostenibilidad (LANCIS). El cual, consistiría en un algoritmo de IA para la generación de imágenes faciales que estimen la apariencia de los menores de edad desaparecidos, con ayuda de la recolección de datos por parte de voluntarios.
Así mismo, han habido otras iniciativas para abordar problemas sociales desde el desarrollo de dichas tecnologías. Dígase ejemplos como: SafeHer (aplicación de asistencia a mujeres ante situaciones de riesgo durante un viaje), Sof+IA (chatbot feminista que brinda información ante la violencia de género digital), AymurAI (software de DataGénero que extrae datos estadísticos sobre la violencia de género para procesos judiciales en América Latina) y RainBot (chatbot que transforma tuits de odio a la comunidad LGBTTTIQ+ en poemas de apoyo).
Finalmente, la IA llegó para quedarse y no lo digo desde lo apocalíptico o integrado, ideas que ya nos señalaba Umberto Eco hace varios años, sino desde la posibilidad, diría Lacan, de hacer de lo mismo otra cosa, e ir avanzando por un uso ético, crítico y creativo. Recuerdo uno de los libros que más me marcó hace 10 años respecto a la globalización, el cual decía “tómatelo personal”.
Hoy parafraseo eso y digamos: tomémonos personal el tema de la IA, pero sin alineaciones y sí con posibilidades de creación y acción.
The post Qué ha pasado con la inteligencia artificial: hacia una IA ética, creativa y crítica appeared first on GU – EL UNIVERSAL.
Ir a la fuente
Author: Luis Josué Lugo