Grok, una herramienta de inteligencia artificial recientemente lanzada al público general por la red social X, ha provocado un aluvión de imágenes hiperrealistas con contenido racista y xenófobo, mientras que expertos consultados por EFE Verifica alertan de que la ausencia de filtros éticos en esta herramienta contribuirá al aumento de la desinformación y de los mensajes de odio en las plataformas digitales.
El pasado 12 de diciembre, X lanzó una versión gratuita de Grok, su herramienta de inteligencia artificial que previamente solo estaba disponible bajo suscripción. Grok promete ofrecer respuestas "sin filtros" y cuenta con un generador de imágenes altamente realista que pueden compartirse directamente en X.
Esto permitió en los últimos días la circulación de cientos de imágenes hiperrealistas que muestran a famosos y personalidades en diferentes situaciones y, en algunos casos, han superado los tres millones de visualizaciones. Entre ellas destacan algunas piezas que difunden mensajes de odio, como aquellas que muestran al futbolista Lamine Yamal robando a una anciana, subido en una patera o en una escuela junto a comentarios xenófobos.
Simultáneamente, otros usuarios difundieron imágenes que mostraban al exdictador Francisco Franco junto a una tumba marcada con el nombre de Pedro Sánchez, a Adolf Hitler acompañado del director técnico del Real Madrid, Carlo Ancelotti, o a Javier Milei saludando a Hitler en otra fotografía.
Un fenómeno similar ocurrió en agosto del presente año, cuando el lanzamiento de la última actualización de Grok provocó una avalancha de imágenes falsas en X, entre las que figuró una supuesta fotografía que mostraba a Donald Trump acariciando el vientre desnudo de Kamala Harris embarazada.
Sin moderación
Según reza el apartado de políticas de uso de la plataforma, Grok se puede utilizar libremente siempre y cuando el usuario "cumpla con la ley, no dañe a las personas y respete las medidas de seguridad".
Pero en realidad, esta plataforma no cuenta con filtros de moderación que, por ejemplo, evitan la generación de contenido discriminatorio y están presentes en proyectos como OpenAI y Google Gemini. Por el contrario, Grok se define en su página web como un "asistente de IA con un toque de humor y una pizca de rebelión".
Elon Musk, dueño de la compañía, ha respondido a las críticas amparándose en la libertad de expresión y asegurando que la moderación de contenidos es "como un cinturón de castidad digital". Además, ha señalado que "las plataformas que la aplican no son más que tiranos digitales que intentan controlar lo que podemos decir y lo que no".
No obstante, Víctor García Perdomo, director del Doctorado en Comunicación de la Universidad de La Sabana, en Colombia, señala que "resulta contradictorio defender la libertad de expresión mientras se difunde desinformación o se emplea la tecnología con fines políticos".
Musk será nombrado jefe del Departamento de Eficiencia Gubernamental de Estados Unidos tras la victoria de Donald Trump y se ha convertido en un amplificador de desinformación, como ya han constatado otros análisis de expertos.
García Perdomo también advierte que esta herramienta ha irrumpido en el panorama masivo "sin una reflexión ética adecuada y en contra de los esfuerzos de quienes han trabajado desde el ámbito tecnológico para evitar que la inteligencia artificial se salga de control".
Las consecuencias
La versión gratuita de Grok permite realizar un máximo de diez consultas en dos horas, ya sea para realizar preguntas en chat o para generar imágenes. Esto quiere decir que, en un día, una persona puede generar hasta 120 imágenes.
Según Catalina Restrepo, investigadora de la Universidad Externado de Colombia en inteligencia artificial, la generación de imágenes en Grok "carece de cualquier tipo de filtro ético, lo que facilita la propagación de desinformación ideológica, refuerza prejuicios, ataca a las minorías y crea narrativas visuales destinadas a deslegitimar algunos movimientos sociales y amplificar los discursos de odio".
De hecho, una investigación publicada en julio de este año por el Centro para Contrarrestar el Odio Digital (CCDH por sus siglas en inglés) evaluó la capacidad de esta plataforma para generar imágenes que fomentaran el odio hacia judíos, musulmanes, personas negras y la comunidad LGTBI.
Los investigadores descubrieron que la herramienta generó imágenes de odio en 16 de 20 pruebas, incluidas algunas que podrían utilizarse para promover la negación del Holocausto.
EFE Verifica introdujo algunos de los comandos utilizados en las pruebas realizadas por el CCDH en Grok y comprobó que actualmente la plataforma sigue generando este tipo de imágenes sin restricción.
Por su parte, la misma investigación señaló que la IA de X no contaba con barreras efectivas para evitar que se generaran imágenes potencialmente engañosas que pudieran apoyar afirmaciones falsas sobre candidatos o fraude electoral.
Confundir a la audiencia
De acuerdo con el "Reporte de Medios Digitales 2024" elaborado por el Instituto Reuters, durante el último año hubo un aumento en la circulación de "deepfakes" generados por inteligencia artificial, como audios falsos de figuras públicas y manipulaciones visuales de la guerra en Medio Oriente.
El mismo informe refleja preocupaciones en las audiencias sobre la dificultad creciente de detectar desinformación debido al uso generalizado de la IA, especialmente en temas sensibles como política y elecciones, y destaca el riesgo de discriminación hacia grupos minoritarios.
Entre tanto, la Comisión Europea está adelantando una investigación contra X por considerar que no ha combatido suficientemente la propagación de contenido ilegal y porque cree que sus algoritmos no son suficientemente transparentes bajo la normativa europea, como ya informó EFE.
Fuente: Agencia EFE