Desinformar con IA generativa: los expertos evitan caer en el pesimismo

Imágenes hechas por Inteligencia Artificial que muestran a Donald Trump siendo arrestado. Foto: Twitter/@EliotHiggins

La masificación de la inteligencia artificial generativa, como ChatGPT o Midjourney, está levantando alarmas por su posible impacto en la desinformación.

Tras una entrevista por la agencia EFE, los expertos consultados son cautos y rechazan caer en el pesimismo, ya que estos modelos pueden producir imágenes falsas pero muy verosímiles.

“No están hechas con ningún parámetro que resguarde o que se preocupe o que conserve la verdad”, dijo Juan De Brigard, experto colombiano de la Fundación Karisma.

La IA genera un volumen sin precedentes de contenido muy difícil de filtrar y las herramientas están programadas para que lo que digan parezca plausible, sin estar apegadas necesariamente a la verdad.

“Los datos históricos utilizados para entrenar a los sistemas reflejan un sesgo sistémico de larga data, y la IA replica, y en ocasiones incluso exacerba ese sesgo”, destacó Maura Grossman, investigadora en la Escuela de Ciencias de la Computación de la Universidad de Waterloo (Canadá).

Yann LeCun, científico jefe de IA en Meta, la empresa matriz de Facebook, opinó que la desinformación y la propaganda “siempre han existido”, aún cuando “hasta ahora, eran artesanales”.

Todos los expertos consultados están de acuerdo en que la IA necesita regulación, aunque no hay consenso en cómo debe ser.

“Como la Administración de Drogas y Alimentos de los Estados Unidos (FDA), que aprueba los medicamentos antes de que puedan lanzarse al mercado. Creo que debería haber una FDA que revise y apruebe algoritmos que probablemente tengan un impacto significativo y potencialmente negativo en la vida de las personas”, explicó Grossman.

Para algunos, la regulación puede entrar fácilmente en conflicto con la libertad de expresión, mientras que otros proponen la creación de una “agencia experta dedicada”.

Exit mobile version