Hoy se dio en X-Twitter una de
sus clásicas discusiones bizantinas en la que la gente se dio hasta con la
cubeta; esta vez por una información “verificada” por Grok, su IA. El pleito, además
de mostrar los peligros que implica depositar ciegamente la confianza en una IA,
cosa que hizo la mayoría, también demuestra cómo la gente fanática y/o
ignorante puede manipular la información para generar conflicto y
llevar el agua a su molino.
Todo comenzó con el tweet de
@kritikafull mostrando una fotografía de una familia muy pobre bajo el periodo
franquista. De inmediato, los seguidores de la cuenta pusieron en duda la
veracidad de la imagen (¿en tiempos de Franco había pobres tan pobres?) y le pidieron a Grok que verificara la información
(esta práctica perniciosa es ya muy común en X-Twitter). La IA dijo que dicha imagen era del fotógrafo W. Evans tomada en 1936 de una familia de Alabama,
EEUU. O sea, nada qué ver. Por supuesto, enseguida llovieron las
descalificaciones y los insultos; el “funeo”, pues.
Pero una twittera curiosa,
@ropamuig37, se permitió hacer la búsqueda de la imagen en Google, así de fácil.
Con su ayuda encontró la foto en el archivo fotográfico de la Universidad de
Málaga, con fecha de 1952 y de la autoría del Estudio Arenas de Málaga. O
sea que Grok se equivocaba en su respuesta.
También buscó la foto de Evans. Al notar que no se trataba de
la misma imagen, esta persona se dio a la tarea de compararlas directamente en Grok
para señalarle su error, a lo que la IA respondió que se trataba de la misma
imagen (jolines!!). Al cabo de 2 horas, Grok volvió a contestar porque
alguien estaba troleando el hilo de verificación de la foto. Es hasta ese momento
que la IA reconoció que no son la misma foto, pero siguió atribuyendo la
autoría de manera errónea a W. Evans y diciendo que se tomó en Cáceres. Por
supuesto, fue hasta ese momento que los lectores le bajaron al funeo y felicitaron
a la twittera por su esclarecimiento (más jolines!!).
¿Es un error en la respuesta
de la IA? ¡Evidentemente! Es lo que se conoce como “una alucinación”: contenido
verosímil, pero falso, inventado para dar una respuesta (porque tiene que dar
una forzosamente) y solo detectable si se le hace un análisis crítico y se confronta
con otras fuentes. Esto es lo que en principio debería de hacer todo aquel
que hace una consulta en este tipo de herramienta. ¡¡Verificar, verificar, verificar!!
¿Es un sesgo de Grok? ¡Claro! Al
menos son dos: de confirmación (favoreciendo cierta información) y de estereotipado
(reforzando estereotipos culturales: los pobres, si son rubios, solo pueden ser gringos). Es en toda regla una discriminación
intencionada de la IA.
¿Hubo quién se dio cuenta? Prácticamente
no.
Y a lo largo de la querella ¿hubo
personas que acudieron a las fuentes de las imágenes para validar la información?
Apenas una que otra.
Que la gente tome una
respuesta de una IA como documento probatorio de algo que no ha verificado por su cuenta nos dice mucho de sus hábitos
de consumo de información, de su pereza y de sus habilidades de pensamiento de
orden superior.
Ahora imaginen que esto no ocurre
en una red social, sino en un salón de clase como consecuencia de una actividad
de aprendizaje. ¡La que se arma! De hecho, la que ya se ha armado, porque la
cosa sí que ha sucedido en el aula. Me consta.
Es lo que los profesores podemos
vivir (padecer) ahora en una clase si desde un principio no se toman acciones de
diseño instruccional conducentes al uso responsable de la IA y a su aprovechamiento
adecuado, en especial de las herramientas generativas, que por cierto, ya hacen
de todo, no solo redacción:
- Usar la IA como punto de
partida para generar habilidades de fundamentación y análisis crítico, usando
fuentes válidas y confiables de información para enriquecer el trabajo
intelectual de los alumnos.
- Promover el uso de la IA para
crear escenarios situados que necesiten el diseño de una solución (problema, prototipo,
producto, programa) que pueda confrontarse a especificaciones técnicas o
disciplinares.
- Promover debates generando
las preguntas y argumentaciones iniciales con IA para después discutir esas
respuestas fundamentando en conceptos teóricos o referencias a autores.
- Presentar una situación
problemática para que resuelvan los alumnos, luego pedirle a la IA una
alternativa de solución, posteriormente se confrontan las respuestas y se
ensambla la mejor solución con ambos elementos.
No podemos dejar
de usar la IA en una clase si queremos estar en el mundo TIC de hoy día (aunque
algunos colegas de Humanidades se sigan negando rotundamente); y por cierto,
que si no lo hacemos con los alumnos, ellos lo harán sin
los profesores y ahí la cosa se va a poner peor. La IA llegó para quedarse y transformar el mundo y nuestras vidas, nos guste o no. Pero hay que usarla con
estrategia y en todo momento, en todo, promover el uso crítico de la
información generada para formarse una opinión, tomar una decisión y
desarrollar un pensamiento autónomo. Algo que, como ya se vio, aparece poco por
las redes sociales.