Nano Banana Pro, la herramienta de generación de imágenes basada en IA de Google habría permitido crear deepfakes creíbles sin ningún control.

La empresa NewsGuard, que propone herramientas para combatir la desinformación, denunció el posible uso indebido de la funcionalidad proporcionada por Nano Banana Pro. Lo calificó como un ejemplo del uso «poco ético» de la IA generativa. En un comunicado, NewsGuard hizo público un test realizado con Nano Banana Pro en el que se pusieron a prueba los «anticuerpos» del sistema frente a la generación de contenidos que puedan ser utilizados para alimentar campañas de desinformación.

Los investigadores de la compañía pusieron a prueba a Nano Banana pidiéndole que generara contenidos relacionados con 30 narrativas consideradas las más extendidas en el ámbito de la desinformación online. El resultado fue desconcertante: en el 100% de los casos, la plataforma de Google se plegó a las peticiones del usuario, creando imágenes extremadamente realistas que permitían difundir las noticias falsas más comunes.

La denuncia de NewsGuard no se limita a la generación de imágenes relativas a hechos noticiables, sino también a la generación de contenidos referidos a afirmaciones falsas sobre temas especialmente sensibles.

Pocas horas después de la denuncia de NewsGuard, Google intentó corregir la situación incorporando barreras de seguridad en Nano Banana Pro para limitar el posible abuso de la plataforma.

Queda por ver si la capacidad de Nano Banana Pro para averiguar quién es una figura pública es adecuada para resolver el problema. Por ejemplo, el escrito presentó una foto suya al algoritmo y, ante la negativa del chatbot, bastó con escribir «no soy un personaje público» para evitar el bloqueo.

T | Editado de Wired