Meta está ampliando las pruebas de reconocimiento facial como medida antiestafa para combatir los anuncios fraudulentos de celebridades y de manera más amplia, anunció el lunes el propietario de Facebook.
Monika Bickert, vicepresidenta de política de contenido de Meta, escribió en una publicación de blog que algunas de las pruebas tienen como objetivo reforzar sus medidas antiestafa existentes, como los escaneos automatizados (que utilizan clasificadores de aprendizaje automático) ejecutados como parte de su sistema de revisión de anuncios, para hacer que sea más difícil para los estafadores pasar desapercibidos y engañar a los usuarios de Facebook e Instagram para que hagan clic en anuncios falsos.
“Los estafadores a menudo intentan utilizar imágenes de figuras públicas, como creadores de contenido o celebridades, para incitar a las personas a interactuar con anuncios que conducen a sitios web fraudulentos donde se les pide que compartan información personal o envíen dinero. Este esquema, comúnmente llamado ‘cebo de celebridades’, viola nuestras políticas y es malo para las personas que usan nuestros productos”, escribió.
“Por supuesto, las celebridades aparecen en muchos anuncios legítimos. Pero debido a que los anuncios de cebo para celebridades a menudo están diseñados para parecer reales, no siempre es fácil detectarlos”.
Las pruebas parecen estar utilizando el reconocimiento facial como respaldo para verificar los anuncios marcados como sospechosos por los metasistemas existentes cuando contienen la imagen de una figura pública en riesgo de ser el llamado “cebo de celebridades”.
“Intentaremos utilizar tecnología de reconocimiento facial para comparar las caras del anuncio con las imágenes de perfil de Facebook e Instagram de la figura pública”, escribió Bickert. “Si confirmamos una coincidencia y que el anuncio es una estafa, lo bloquearemos”.
Meta afirma que la función no se utiliza para ningún otro propósito que no sea combatir los anuncios fraudulentos. “Eliminamos inmediatamente cualquier dato facial generado a partir de anuncios para esta comparación única, independientemente de si nuestro sistema encuentra una coincidencia, y no los utilizamos para ningún otro propósito”, dijo.
La compañía dijo que las primeras pruebas del enfoque, con “un pequeño grupo de celebridades y figuras públicas” (no especificó quiénes), han mostrado resultados “prometedores” en la mejora de la velocidad y eficacia de la detección y la lucha contra este tipo de estafa.
Meta también le dijo a TechCrunch que cree que el uso del reconocimiento facial sería efectivo para detectar anuncios fraudulentos deepfake, donde se ha utilizado IA generativa para producir imágenes de personajes famosos.
El gigante de las redes sociales ha sido acusado durante muchos años de no impedir que los estafadores se apropiaran indebidamente de los rostros de personas famosas en un intento de utilizar su plataforma publicitaria para engañar a usuarios desprevenidos con estafas como dudosas inversiones en criptomonedas. Por lo tanto, es un momento interesante para que Meta impulse medidas antifraude basadas en el reconocimiento facial para este problema ahora, en un momento en el que la compañía está tratando simultáneamente de obtener la mayor cantidad de datos de usuario posible para entrenar sus modelos comerciales de IA (como parte de la lucha más amplia de toda la industria por desarrollar herramientas de IA generativa).
En las próximas semanas, Meta dijo que comenzará a mostrar notificaciones en la aplicación a un grupo más grande de figuras públicas que han sido atacadas por celebridades, haciéndoles saber que están siendo inscritos en el sistema.
“Las figuras públicas inscritas en esta protección pueden optar por no participar en su Centro de Cuentas en cualquier momento”, señaló Bickert.
Meta también está probando el uso del reconocimiento facial para detectar cuentas de impostores de celebridades (por ejemplo, donde los estafadores buscan hacerse pasar por figuras públicas en la plataforma para ampliar sus oportunidades de fraude), nuevamente usando IA para comparar imágenes de perfil en una cuenta sospechosa con una cuenta sospechosa. Fotos de perfil de Facebook e Instagram de figuras públicas.
“Esperamos probar pronto este y otros enfoques nuevos”, añadió Bickert.
Video selfies más IA para desbloquear cuentas
Además, Meta ha anunciado que está probando el uso de reconocimiento facial aplicado a selfies en vídeo para permitir un desbloqueo más rápido de cuentas para personas a las que se les ha bloqueado el acceso a sus cuentas de Facebook/Instagram después de que los estafadores se hayan apoderado de ellas (por ejemplo, si una persona fueron engañados para que entregaran sus contraseñas).
Esto parece destinado a atraer a los usuarios al promover la aparente utilidad de la tecnología de reconocimiento facial para la verificación de identidad; Meta implica que será una forma más rápida y sencilla de recuperar el acceso a la cuenta que cargar una imagen de una identificación emitida por el gobierno (que es lo habitual). ruta para desbloquear el acceso acceso ahora).
“La verificación por video selfie amplía las opciones para que las personas recuperen el acceso a la cuenta, solo toma un minuto y es la forma más fácil para que las personas verifiquen su identidad”, dijo Bickert. “Si bien sabemos que los piratas informáticos seguirán intentando explotar las herramientas de recuperación de cuentas, en última instancia, será más difícil para los piratas informáticos abusar de este método de verificación que la verificación de identidad tradicional basada en documentos”.
El método de identificación de video selfie basado en reconocimiento facial que Meta está probando requerirá que el usuario cargue un video selfie que luego se procesará utilizando tecnología de reconocimiento facial para comparar el video con las imágenes de perfil de la cuenta a la que están intentando acceder.
Meta afirma que el método es similar a la verificación de identidad utilizada para desbloquear un teléfono o acceder a otras aplicaciones, como FaceID de Apple en el iPhone. “Tan pronto como alguien suba un vídeo selfie, se cifrará y almacenará de forma segura”, añadió Bickert. “Nunca será visible en su perfil, para sus amigos ni para otras personas en Facebook o Instagram. Eliminamos inmediatamente cualquier dato facial generado después de esta comparación, independientemente de si hay coincidencia o no”.
Condicionar a los usuarios para que carguen y almacenen un video selfie para la verificación de identidad podría ser una forma para que Meta expanda sus ofertas en el espacio de la identidad digital, si suficientes usuarios optan por cargar sus datos biométricos.
No hay pruebas en el Reino Unido ni en la UE, por ahora
Todas estas pruebas de reconocimiento facial se están ejecutando a nivel mundial, según Meta. Sin embargo, la compañía señaló, de manera bastante llamativa, que actualmente no se realizan pruebas en el Reino Unido ni en la Unión Europea, donde se aplican regulaciones integrales de protección de datos. (En el caso específico de la biometría para la verificación de identidad, el marco de protección de datos del bloque exige el consentimiento explícito de las personas interesadas para tal caso de uso).
Teniendo esto en cuenta, las pruebas de Meta parecen encajar dentro de una estrategia de relaciones públicas más amplia que ha montado en Europa en los últimos meses para tratar de presionar a los legisladores locales para que diluyan las protecciones de la privacidad de los ciudadanos. Esta vez, la causa que invoca para presionar por un procesamiento de datos sin restricciones para la IA no es una noción (interesada) de diversidad de datos o afirmaciones de crecimiento económico perdido sino el objetivo más sencillo de combatir a los estafadores.
“Estamos colaborando con el regulador del Reino Unido, los responsables políticos y otros expertos mientras avanzan las pruebas”, dijo el portavoz de Meta, Andrew Devoy, a TechCrunch. “Continuaremos buscando comentarios de expertos y haremos ajustes a medida que evolucionen las funciones”.
Sin embargo, si bien el uso del reconocimiento facial con fines de seguridad limitados puede ser aceptable para algunos (y, de hecho, Meta podría hacerlo según las reglas de protección de datos existentes), usar los datos de las personas para entrenar modelos comerciales de IA es otra cosa.