OpenAI está trabajando en una nueva herramienta para ayudarte a detectar imágenes generadas por IA y protegerte de deep fakes.

Probablemente hayas notado unas cuantas imágenes generadas por IA esparcidas por tus diferentes redes sociales: y es probable que algunas las hayas pasado por alto, que han escapado a tus ojos agudos. Para aquellos de nosotros que hemos estado inmersos en el mundo de la IA generativa, identificar imágenes de IA es un poco más fácil, ya que desarrollas una lista mental de lo que debes tener en cuenta.
Sin embargo, a medida que la tecnología mejora, será mucho más difícil distinguirlas. Para resolver esto, OpenAI está desarrollando nuevos métodos para rastrear imágenes generadas por IA y demostrar qué ha sido y qué no ha sido generado artificialmente.
Según una publicación de blog, los nuevos métodos propuestos por OpenAI agregarán una ‘marca de agua’ resistente a la manipulación que etiquetará el contenido con ‘pegatinas’ invisibles. Por lo tanto, si una imagen es generada con el generador DALL-E de OpenAI, el clasificador la señalará incluso si la imagen está distorsionada o saturada.
La publicación del blog afirma que la herramienta tendrá alrededor de un 98% de precisión al detectar imágenes hechas con DALL-E. Sin embargo, solo señalará un 5-10% de imágenes de otros generadores como Midjourney o Adobe Firefly.
Entonces, es genial para imágenes internas, pero no tan bueno para cualquier cosa producida fuera de OpenAI. Si bien puede no ser tan impresionante como uno esperaría en algunos aspectos, es una señal positiva de que OpenAI está comenzando a abordar la avalancha de imágenes de IA que cada vez son más difíciles de distinguir.
Bien, esto puede no parecer gran cosa para algunos, ya que muchas instancias de imágenes generadas por IA son memes o arte de alto concepto que son bastante inofensivos. Pero dicho esto, también hay un aumento de escenarios ahora donde las personas están creando fotos falsas hiperrealistas de políticos, celebridades, personas en sus vidas y más, que podrían llevar a la propagación de información errónea a un ritmo increíblemente rápido.
Esperemos que a medida que este tipo de contramedidas mejoren cada vez más, la precisión solo mejorará, y podamos tener una forma mucho más accesible de verificar la autenticidad de las imágenes que encontramos en nuestra vida diaria.

LEAR  Rehenes disparados por IDF colocan señal de 'SOS' escrita con comida sobranteRehenes disparados por las FDI colocan una señal de 'SOS' escrita con comida sobrante