Google dice que planea implementar cambios en la Búsqueda de Google para dejar más claro qué imágenes en los resultados fueron generadas por IA o editadas por herramientas de IA.
En los próximos meses, Google comenzará a marcar las imágenes generadas y editadas por IA en la ventana “Acerca de esta imagen” de Búsqueda, Google Lens y Circle to Search. Es posible que en el futuro se publiquen divulgaciones similares en otras propiedades de Google, como YouTube; Google dice que tendrá más para compartir a finales de este año.
De manera crucial, solo Las imágenes que contengan “metadatos C2PA” se marcarán como manipuladas por IA en la Búsqueda. C2PA, abreviatura de Coalition for Content Provenance and Authenticity, es un grupo que desarrolla estándares técnicos para rastrear la historia de una imagen, incluido el equipo y el software utilizados para capturarla y/o crearla.
Empresas como Google, Amazon, Microsoft, OpenAI y Adobe respaldan la C2PA, pero los estándares de la coalición no han tenido una adopción generalizada, como señala The Verge anotado En un artículo reciente, el C2PA enfrenta muchos desafíos de adopción e interoperabilidad; solo un puñado de herramientas de inteligencia artificial generativa y cámaras de Leica y Sony admiten las especificaciones del grupo.
Además, los metadatos de C2PA (como cualquier metadato) se pueden eliminar, borrar o corromper hasta el punto de que sean ilegibles. Y las imágenes de algunas de las herramientas de inteligencia artificial generativa más populares, como Flux, que el chatbot Grok de xAI utiliza para la generación de imágenes, no tienen metadatos C2PA adjuntos en parte porque sus creadores no han aceptado respaldar el estándar.
Es cierto que algunas medidas son mejores que ninguna, ya que las falsificaciones profundas continúan propagándose rápidamente. Según un estimarhubo un aumento del 245% en las estafas que involucran contenido generado por IA entre 2023 y 2024. Deloitte Proyectos que las pérdidas relacionadas con los deepfakes aumentarán de 12.300 millones de dólares en 2023 a 40.000 millones de dólares en 2027.
Encuestas espectáculo que la mayoría de las personas están preocupadas por ser engañadas por un deepfake y por el potencial de la IA para promover la difusión de propaganda.