Las herramientas basadas en inteligencia artificial capaces de generar imágenes a partir de texto se están generalizando, pero son cada vez más difíciles de reconocer. Los errores en la producción de este contenido están disminuyendo a medida que avanza la tecnología, pero los proveedores de estas herramientas están trabajando para que el contenido sintético sea identificable.
Modelos de Inteligencia artificial generativa Ya no se limitan al texto y, por tanto, a escribir contenido textual, sino que se han vuelto cada vez más avanzados para que también puedan hacerlo. Crear imágenes Y recientemente, Vídeo y audio. Nos referimos a aquellas herramientas, gratuitas o de pago según el recurso y funcionalidades proporcionadas, que permiten escribir una cadena de texto para obtener una imagen, estática o animada, que satisfaga la solicitud realizada. por ejemplo «Los gatos juegan al fútbol.Microsoft introdujo recientemente la herramienta gratuita «Designer» en su software Copilot basado en el modelo Dall-E 3 de OpenAI. Al mismo tiempo, los errores en la producción de este contenido están disminuyendo a medida que avanzan las capacidades de los modelos de IA. Afortunadamente, los proveedores de estas herramientas están trabajando ellos mismos para hacer identificable el contenido sintético.
La IA también puede generar imágenes, no sólo texto
Si las herramientas basadas en IA generativa capaces de crear vídeos bajo demanda son raras hoy en día, como Sora anunció recientemente por OpenAI, aquellas que permiten crear imágenes a partir de texto están cada vez más en el centro de las discusiones, porque son la razón. La difusión de contenidos falsos en línea. Cualquiera que sepa utilizar estas herramientas puede pedirle a la IA que cree una imagen de un personaje famoso, por ejemplo, en un contexto muy alejado de la realidad. Tecnología también conocida como com.deepfake, que sin medidas de censura adecuadas está resultando cada vez más avanzado, lo que dificulta distinguir entre contenidos reales y contenidos falsos. Es una tecnología cada vez más peligrosa, porque es utilizada por personas malintencionadas para crear campañas publicitarias engañosas.
La IA generativa se utiliza para crear estafas reales para atraer la atención de víctimas potenciales. Por ejemplo, la imagen de una persona famosa (y a veces su voz) se suele utilizar para crear campañas que invitan a invertir online para ganar mucho dinero fácilmente. Es posible ver este tipo de campañas fraudulentas, especialmente entre los anuncios en las redes sociales: por eso hay que tener mucho cuidado.
Una mañana, mientras escuchábamos Deejay Radio, escuchamos que Alessandro Cattelan también había llamado la atención sobre este tema, informando que alguien había creado una campaña de publicidad falsa replicando su voz mediante inteligencia artificial. Luego se le unieron otras celebridades, que se quejaron de lo mismo: delincuentes que explotan su imagen en estafas.
Imágenes generadas por IA generativa, ¿cómo reconocerlas?
Reconocer anuncios y contenidos creados con IA generativa es cada vez más difícil. «Hay contenidos que uno puede notar fácilmente».Defectos de fabricación'. Para el contenido de audio, por ejemplo, se puede prestar atención al lenguaje: la IA puede ser forzada y antinatural, como si el hablante fuera una máquina que aún no fuera capaz de repetir ciertos matices de tonos. En los últimos meses, algunos programas de radio de entretenimiento para entretener al público han creado contenidos que imitan las voces de celebridades: incluso un oído no entrenado es suficiente para reconocer la presencia de inteligencia artificial.
Las imágenes generadas por inteligencia artificial pueden ser difíciles de reconocer, a medida que las técnicas de creación se desarrollan rápidamente. Sin embargo, esto depende del modelo subyacente a la herramienta generativa. De hecho, es posible que los modelos menos avanzados no puedan generar detalles con precisión, por lo que al analizar imágenes que pueden contener muchos detalles, se pueden encontrar pistas. Sin embargo, los modelos más avanzados podrían ser mejores, lo que haría más difícil reconocer la intervención de la IA. Y luego pueden haber imágenes con contenidos improbables que son obvios sin pensarlo mucho. falsificado Sin duda: pensemos, por ejemplo, en la imagen del Papa escalando una montaña.
Las imágenes generadas por IA deben ser identificables
Si tienes dudas sobre la naturaleza de una imagen y no encuentras elementos que puedan indicar si pudo haber sido creada por inteligencia artificial, las mismas herramientas que permiten crear este tipo de contenidos están trabajando para que sea más o menos fácil de identificar. . Por ejemplo, Meta, OpenAI y Microsoft se han esforzado por integrar Identificadores y/o metadatos para facilitar la identificación del contenido generado por IA Sus herramientas incluyen MetaAI, Copilot y DALL-E. Luego existen algunas herramientas que generan imágenes con una marca de agua visible al ojo humano en alguna zona de la propia imagen. Volviendo a los identificadores y metadatos invisibles, se necesitan herramientas capaces de “leer” esta información oculta en la imagen. Como veremos a continuación, hay algunos a los que se puede acceder online, incluso de forma gratuita.
Vale la pena señalar que Meta hizo un esfuerzo por reconocer el contenido generado por IA que los usuarios comparten en Instagram, Facebook y Threads, y luego agregó una etiqueta que les dice claramente a las personas que el contenido que están viendo fue generado por IA. Meta también está trabajando en su propio algoritmo que puede reconocer contenido generado por IA incluso si no contiene identificadores estándar. Hablamos de eso aquí.
Existen herramientas online para el reconocimiento de imágenes generadas por inteligencia artificial
Cuando tengas dudas sobre la naturaleza de la imagen, si no tiene identificadores o etiquetas visuales que indiquen que fue creada mediante inteligencia artificial y no notas ningún elemento extraño o error en ella, puedes utilizar algunas herramientas online que pueden ayudarte. con este. Eso sí, ojo: este tipo de herramientas pueden reconocer los identificadores y metadatos detectados en las imágenes, si existen, pero a falta de identificadores no sabemos si pueden generarse o no. positivos falsos, es decir, haciendo referencia a que la imagen se genera mediante inteligencia artificial cuando en realidad no es así. Dicho esto, mientras buscamos en la web, Cielo TG24 Y Página de fans Recomendamos estas herramientas para identificar imágenes falsas: 'ai o no«,»luminarte«,»abrazo de cara' Y 'Imágenes forenses'. También se observa queID de síntesis(deepmind.google/technologies/synthid/), una herramienta de Google DeepMind actualmente en versión beta que le permite agregar identificadores e identificar contenido generado por IA.