La tecnología de inteligencia artificial, se ha convertido en una de las más atractivas de los últimos años para los usuarios, y prueba de ello, lo conseguimos en el rotundo éxito que ha sido ChatGPT, un bot generativo capaz de responder en tiempo real prácticamente cualquier pregunta, e incluso, es capaz de realizar varias tareas. Sin embargo, la IA también llegó con algunos problemas y es que, si bien su capacidad de generar contenido es increíble, detectar las imágenes generadas con la misma, se ha hecho muy difícil, pero todo indica que pronto se acabará ese problema y a continuación, les compartiremos la información que ha publicado OpenAI respecto a esto.
OpenAI ha anunciado el desarrollo de una herramienta para detectar las imágenes realizadas con IA
La información acerca de esta herramienta para detectar imágenes hechas con inteligencia artificial, fue publicada por la propia OpenAI, en donde compartió varios detalles acerca del alcance que tendrá. Esta herramienta será capaz de detectar las imágenes realizadas con IA, abarcando uno de los programas más populares usados por los usuarios, DALL-E, el cual ya va por su tercera versión.
Esta herramienta está diseñada para identificar las imágenes hechas con IA aun después de que el usuario intente eliminar todo rastro de que fueron realizadas con dicha tecnología, lo que incluye comprimirla, ajustar la saturación o incluso recortarla.
La herramienta ha demostrado ser bastante eficaz, llegando a un 98% de precisión aun después de que el usuario intente modificar las imágenes de IA, por lo que en teoría, al estar completamente lista, se ha llegado a pensar que podría incluso detectar el 99% de las imágenes, es decir, casi todas.
Cabe agregar que muchas plataformas que generan imágenes con inteligencia artificial, incluyen marcas de agua, sin embargo, los usuarios se las han arreglado para hacerlas indetectables o de lleno, eliminarlas, por lo que identificar ese contenido, se ha vuelto bastante complicado y se espera, que esta nueva función sea capaz de resolver ese problema.
El mundo necesita formas comunes de compartir información sobre cómo se creó el contenido digital. Los estándares pueden ayudar a aclarar cómo se creó el contenido y proporcionar otra información sobre sus orígenes de una manera que sea fácil de reconocer en muchas situaciones, ya sea que el contenido sea la salida sin procesar de una cámara o una creación artística de una herramienta como DALL·E 3.
Las personas aún pueden crear contenido engañoso sin esta información (o pueden eliminarlo), pero no pueden falsificarla ni alterarla fácilmente, lo que la convierte en un recurso importante para generar confianza.
A medida que aumenta la adopción del estándar, esta información puede acompañar al contenido a lo largo de su ciclo de vida de intercambio, modificación y reutilización. Con el tiempo, creemos que este tipo de metadatos será algo que la gente esperará, llenando un vacío crucial en las prácticas de autenticidad del contenido digital.
OpenAI
Ya para finalizar, la herramienta aun no está disponible para todo el público, pero la compañía ya ha abierto las inscripciones para que los usuarios que quieran probar la versión beta, puedan hacerlo, y esto, los ayudará a detectar errores, entre otros aspectos.