Dentro de las diferentes actividades realizadas en el IV Taller para el Desarrollo de Redes de Colaboración y Mentorazgo de Mujeres en STEM (Ciencia, Tecnología, Ingeniería y Matemática por sus siglas en inglés) desarrollado por el Instituto de Cibernética, Matemática y Física (ICIMAF), se dedicó un espacio a la IA (Inteligencia Artificial), en el cual se analizaron los diferentes sesgos que esta presenta y los retos actuales que suponen su uso.
En conferencia ofrecida por la Doctora en Ciencias Suilán Estévez Velarde, decana de la Facultad de Matemática y Computación de la Universidad de La Habana, se ahondó sobre estos temas de vital importancia para nuestros días, como parte del Sistema de Gestión de Gobierno basado en Ciencia e Innovación.
En primer lugar, Estévez Velarde explicó sobre cómo la IA juzga en su respuesta de acuerdo a los parámetros que el usuario le solicita. Presenta sesgos como oscurecer el color de la piel en sus imágenes generadas cuando se le pide que simbolice pobreza o un posible índice de criminalidad. También somete a estereotipos a mujeres, las cuales quedan “retratadas” con batas blancas, gafas y ojos azules cuando se refiere a científicas. Si bien estas representaciones quedan bastantes alejadas de la realidad actual, estas limitaciones vienen marcadas por la información que ha sido utilizada para el entrenamiento de la IA.

La especialista explicó que este fenómeno se debe a que los algoritmos que utilizan los modelos de IA, tales como ChatGPT de OpenAI o Gemini de Google, han sido entrenados con trillones de datos sobre hechos del pasado, donde la historia narrada presenta estos sesgos que hoy reproducen las IAs, pues ellas funcionan buscando esquemas que se repiten en sus datos y “asumiendo” que es lo correcto en las respuestas que entrega. Por ello, se afirma que la IA reproduce patrones culturales y estadísticos, no valores éticos. A decir de Estévez Velarde, “la IA tiene nuestros sesgos porque nosotros pusimos esos datos en Internet”.
Otro de los aspectos que se analizó durante la conferencia fue el de uso de la herramienta en el proceso educativo. Entre los problemas señalados están que los estudiantes entregan las respuestas directamente copiadas de la IA sin verificar la información que esta provee ni tener capacidad crítica sobre el tema. En ocasiones, este instrumento puede “alucinar”, pues, al carecer de poca información sobre un tema determinado, pueden mentir o inventar una respuesta, y hacerlo de una manera que, a simple vista, resulta profesional. La Decana de la Facultad de Matemática y Computación de la Universidad de La Habana enuncia que “la IA habla como experta todo el tiempo, incluso cuando está perdida”.
A su vez, Estévez Velarde, criticó el uso de herramientas para la detección de IA, pues estas tienden a fallar y producir falsos positivos; así como las políticas prohibitivas que evitan que los estudiantes puedan tener acceso a las bondades que esta tiene. En su análisis, ponderó el uso de este tipo de herramienta, pero ajustándola de acuerdo con los diferentes niveles de enseñanza. En vez de usarla para obtener las respuestas a los diversos ejercicios, la especialista prefiere que se utilice para que el propio estudiante genere más preguntas sobre el tema; o, para grados más avanzados, que se emplee como una herramienta que dé apoyo para los proyectos con mayor complejidad a los que se enfrenta el alumno.
“La línea entre usar bien y usar mal la IA es simple: si puedes evaluar la respuesta, la estás usando bien”.
Otras informaciones:
Intercambian CITMA y vecinos sobre adaptación climática en La Habana

![[impreso]](/file/ultimo/ultimaedicion.jpg?1778742025)