Después de Trump encarcelado, ¿qué futuro le espera a la moderación de la inteligencia artificial?
Y por qué el exceso de moderación va en contra del uso de la propia inteligencia artificial
Storybakers:
Ahora las noticias pueden producirse en dos tiempos.
Cuando decidimos que ocurran.
Y cuando en verdad ocurren.
A eso podemos jugar con la inteligencia artificial.
A dibujar un futuro posible sin tener que esperar a que esa ficción se refleje en grandes producciones hollywoodenses.
Como ocurrió con Her en el 2013.
O con Ready Player en el 2018.
Esta vez lo hemos hecho a partir de un trigger que también tiene lo suyo.
Porque lo ha lanzado un desterrado de las redes masivas que optó por crear la suya.
Trump originó el ciclo informativo que se extiende a partir de la ficción realista que nos obsequia la inteligencia artificial.
Primero Trump nos preparó para una supuesta detención.
Después Eliot Higgins jugó a materializar ese anuncio.
Y nosotros a compartirlo.
Algunos porque se han comido inicialmente el bulo.
Otros maravillados por los usos que pueden dársele a la inteligencia artificial y por cómo con IA sí que es posible engañar a la gente.
Medios, periodistas y creadores se encontraron con una tendencia con dos aristas medulares.
La potencial detención de Trump en la realidad y los límites que han de establecerse para la inteligencia artificial.
Desde Midjourney y Stable Diffusion han anunciado que seguirán evaluando lo que se permite y lo que no.
El propio Higgins dio a conocer que Midjourney lo había banneado por el escándalo mediático que montó.

Pero aquí es donde la moderación corre el riesgo de entorpecer lo que aporta la inteligencia artificial.
¿Son por fuerza un intento de engaño las imágenes creadas a través de inteligencia artificial mostrando a Trump encarcelado?
En el comienzo de su hilo en Twitter Eliot deja claro que se trata de imágenes creadas artificialmente.
Esas imágenes le fueron entregadas por Midjourney como resultado a una petición suya.
En aquel momento la plataforma no tuvo problema en entregárselas.
El problema surgió hasta que Midjourney comprendió la que se había montado.
Pero es inviable imaginar un mundo en el que lo que está permitido y lo que no dependa no nada más de la intención de un usuario que pide una imagen sino de la reacción que tengan todos aquellos que interactúen con el contenido.
Vamos que quienes vieron el comienzo del hilo tuvieron un contacto directo con el mensaje que sirve como advertencia de Higgins.
Pero después es posible que esos mismos compartieran las imágenes en grupos de WhatsApp, en otras redes o en el propio Twitter sin mencionar el origen de las mismas.
Sin dar crédito a Higgins, a Midjourney y en cierto modo a la inteligencia artificial.
Es también posible que lo hicieran con la intención explícita de hacer pasar por reales imágenes que sabían que no lo eran.
O que las compartieran como reales pensando que lo eran dado que se encontraron con parte del hilo pero no con un tuit en particular en que se indicara que las imágenes eran obra de la inteligencia artificial.
Están segundos, terceros y cuartos involucrados en la cadena de viralidad de las imágenes que teniendo o no conciencia de la autenticidad de las mismas lo comparten a otros sin aclararlo.
Apenas ayer viví un ejercicio disfuncional con el nuevo Bing fortalecido con Chat GPT.
De diez imágenes que pudo crear, tres fueron bloqueadas por el sistema.
A mi juicio, ninguna debió ser prohibida.
La primera petición era una imagen de Trump en modo Hulk pisoteando headquarters de los medios de comunicación.
La segunda era Jonah Peretti en una pelea de box dentro de la Velada del Año golpeando a inversionistas escépticos de BuzzFeed.
La tercera era López Obrador en un combate de UFC frente a Carlos Loret de Mola.
Las tres fueron bloqueadas por infringir las políticas de uso.
No hubo explicación ni argumentación.
Sólo se me dio la posibilidad de pedir una revisión.
Esa revisión solicitada aún no obtiene respuesta más de 24 horas después.
Lo más que logré de una potencial imagen con algo de valor periodístico fue un supuesto Jonah Peretti manifestándose en contra de Wall Street.
Para efectos ilustrativos me gustó el resultado de pedir una imagen que mostrara un futuro caótico que mostrara a periodistas realizando su trabajo con las oficinas del New York Times como escenario.
En el mismo sentido podría funcionar la imagen de un robot periodista en la alfombra roja entrevistando a Pinocho.
Aunque en las imágenes entregadas en realidad el resultado no me pareció del todo satisfactorio.
Sirva mi propia curiosidad para comprender lo complejo que resulta encontrar altos niveles de congruencia detrás de la moderación a la inteligencia artificial.
Si bien serán muchos los que busquen crear imágenes para engañar, habrá muchos que las quieran para ilustrar.
Y vamos, que ilustrar el anuncio del propio Trump respecto a que será detenido imaginando cómo se vería detenido es tentador para cualquier ejercicio periodístico.
El problema es que por más que quedara claro en ese espacio original en que se publicara siempre habría la posibilidad de que otros omitan ese aviso sobre la falsedad de la imagen en el viaje natural del contenido.
Del mismo modo, imaginar a Musk pisoteando a los medios o a Peretti peleando a muerte con Wall Street es algo deseable más allá de si es con una imagen que se presta a un potencial engaño o con una imagen que aún claramente no siendo una fotografía puede ser interpretada como violencia.
Como el propio Bing lo ha decidido al negarme esa imagen.
El desafío a nivel moderación en la inteligencia artificial es un pulpo con miles de tentáculos.
No es sólo el escenario en que se prohibe la creación de imágenes que puedan parecer reales en escenarios de violencia, escenas sexuales, acusaciones, escándalos policiacos, difamación, racismo, alcoholismo y todo lo que se nos pueda ocurrir que ha de estar prohibido.
Es también qué se hará con ilustraciones, videos y textos que aún no pretendiendo ser reales pudieran ser solicitados para efectos ilustrativos, creativos e incluso informativos en modo de parodia.
En conceptos muy elementos es como si se prohibieran las caricaturas e ilustraciones que no encajaran en lo políticamente correcto.
Es como si no pudiera jugarse con la ficción a menos que encaje en un vacío de sustancia y mensaje que no le genere problemas a nadie.
Será inviable controlar a la inteligencia artificial.
Será inviable encajonar lo que es posible y lo que no según el termómetro social.
El contenido finito hecho por seres humanos nunca encontró el terreno de las ciencias exactas a nivel moderación.
Mucho menos lo hará el contenido infinito generado por las máquinas a partir de las peticiones de los humanos.
Hemos de prepararnos para debates sin salida.
Para puntos medios que nos dejarán inconformes hasta que decidamos que no tiene sentido pretender controlar lo que es incontrolable.
Como muchas de las nuevas realidades que enfrentamos, habrá que acostumbrarnos.
Hoy un creador puede ser cancelado sin que su carrera esté acabada.
Lo mismo ocurrirá con quien protagonice imágenes escandalosas creadas por la inteligencia artificial.
Aunque claro, habrá algunas víctimas y victimarios en el camino.
Habrá complots, manipulación y desinformación.
A más contenido, más problemas.
Las soluciones tecnológicas nunca han estado libres de nuevos problemas.
Únete a los grupos de Story Baker en Telegram
Cheat Media Links and Talks: lo que tienes que saber de la industria sin tener que buscarlo en Twitter ;-)
La Podcastería: el punto de encuentro para creadores de audio con ligas, ideas y recursos.
La Creator Economy: historias y briefing diario sobre la economía de los creadores que está cambiando al mundo
News de News: Todo sobre Newsletters
Desde el metaverso: el futuro de nuestra existencia digital