Meta ha confirmado que pausará los planes para comenzar a entrenar sus sistemas de Inteligencia Artificial (IA) utilizando datos de sus usuarios en la Unión Europea y el Reino Unido.
Este movimiento se da luego de las objeciones de la Comisión Irlandesa de Protección de Datos (DPC, por sus siglas en inglés), que es el regulador principal de Meta en la UE, y que actúa en nombre de varias autoridades de protección de datos en el bloque. La Oficina del Comisionado de Información del Reino Unido (ICO) también solicitó que Meta pausara sus planes hasta que pudiera satisfacer las preocupaciones que había planteado.
La DPC dijo en un comunicado el viernes: “Damos la bienvenida a la decisión de Meta de pausar sus planes de entrenar su gran modelo de lenguaje utilizando contenido público compartido por adultos en Facebook e Instagram en la UE/EEE. Esta decisión se produjo después de un intenso diálogo entre la DPC y Meta. La DPC, en cooperación con sus homólogas autoridades de protección de datos de la UE, continuará dialogando con Meta sobre este tema”.
Si bien Meta ya está utilizando contenido generado por usuarios para entrenar su IA en mercados como Estados Unidos, las estrictas regulaciones de la GDPR en Europa han creado obstáculos para Meta y otras empresas que buscan mejorar sus sistemas de IA, incluyendo los grandes modelos de lenguaje entrenados con material generado por usuarios.
Sin embargo, el mes pasado Meta comenzó a notificar a los usuarios sobre un próximo cambio en su política de privacidad, que según dijo le daría el derecho de utilizar contenido público en Facebook e Instagram para entrenar su IA, incluyendo comentarios, interacciones con empresas, actualizaciones de estado, fotos y sus pies de foto asociados. La empresa argumentó que necesitaba hacer esto para reflejar “las diversas lenguas, geografía y referencias culturales de las personas en Europa”.
Estos cambios debían entrar en vigencia el 26 de junio, dentro de 12 días. Pero los planes provocaron que la organización activista sin fines de lucro NOYB (“none of your business” o “no es asunto tuyo”) presentara 11 denuncias en países constituyentes de la UE, argumentando que Meta contraviene varios aspectos del GDPR. Uno de ellos se relaciona con el tema del consentimiento previo frente a la opción de rechazar, es decir, que cuando se procesen datos personales, se debería pedir permiso a los usuarios primero en lugar de requerir una acción para rechazarlo.
Por su parte, Meta se basó en una disposición del GDPR llamada “intereses legítimos” para argumentar que sus acciones eran compatibles con las regulaciones. Esta no es la primera vez que Meta utiliza esta base legal en su defensa, habiéndola usado previamente para justificar el procesamiento de datos de usuarios europeos para publicidad dirigida.
Siempre pareció probable que los reguladores al menos pusieran una suspensión temporal a los cambios planeados por Meta, particularmente dado lo difícil que la empresa había hecho para que los usuarios “optaran por no participar” en el uso de sus datos. La empresa dijo que envió más de 2 mil millones de notificaciones informando a los usuarios sobre los cambios próximos, pero a diferencia de otros mensajes públicos importantes que aparecen al inicio de las feeds de los usuarios, como los recordatorios para ir a votar, estas notificaciones aparecieron junto con las notificaciones estándar de los usuarios: cumpleaños de amigos, alertas de etiquetas de fotos, anuncios de grupos y más. Así que si alguien no revisa regularmente sus notificaciones, era muy fácil perderse esto.
Y aquellos que sí vieron la notificación no sabrían automáticamente que había una forma de objetar u optar por no participar, ya que simplemente invitaba a los usuarios a hacer clic para conocer cómo Meta usaría su información. No había nada que sugiriera que había una opción aquí.
Además, técnicamente los usuarios no podían “optar por no participar” del uso de sus datos. En su lugar, tenían que completar un formulario de objeción donde exponían sus argumentos por los que no querían que se procesaran sus datos, quedando enteramente a discreción de Meta si se aceptaba o no esta solicitud, aunque la empresa dijo que honraría cada solicitud.
Aunque el formulario de objeción estaba vinculado desde la propia notificación, cualquiera que buscara proactivamente el formulario en la configuración de su cuenta tendría mucho trabajo por delante.
En el sitio web de Facebook, primero tenían que hacer clic en su foto de perfil arriba a la derecha; ir a configuración y privacidad; tocar centro de privacidad; desplazarse hacia abajo y hacer clic en la sección IA generativa en Meta; desplazarse nuevamente pasando varios enlaces a una sección titulada más recursos. El primer enlace bajo esta sección se llama “Cómo Meta usa la información para modelos de IA generativa”, y tenían que leer unas 1.100 palabras antes de llegar a un enlace discreto al formulario de “derecho a objetar” de la empresa. La historia era similar en la aplicación móvil de Facebook.
A principios de esta semana, cuando se le preguntó por qué este proceso requería que el usuario presentara una objeción en lugar de optar por participar, el gerente de comunicaciones de políticas de Meta, Matt Pollard, señaló a TechCrunch su publicación de blog existente, que dice: “Creemos que esta base legal [‘intereses legítimos’] es el equilibrio más apropiado para procesar datos públicos a la escala necesaria para entrenar modelos de IA, al tiempo que se respetan los derechos de las personas”.
Para traducir esto, hacer que fuera de opción previa probablemente no generaría suficiente “escala” en términos de personas dispuestas a ofrecer sus datos. Entonces, la mejor manera de evitar esto era emitir una sola notificación entre las otras notificaciones de los usuarios; ocultar el formulario de objeción detrás de media docena de clics para aquellos que buscaban la “opción de no participar” de forma independiente; y luego hacerlos justificar su objeción, en lugar de darles una opción de exclusión directa.
En una publicación de blog actualizada el viernes, el director global de participación de Meta para la política de privacidad, Stefano Fratta, dijo que estaban “decepcionados” por la solicitud que recibieron de la DPC.
“Este es un paso atrás para la innovación europea, la competencia en el desarrollo de IA y retrasa aún más llevar los beneficios de la IA a las personas en Europa”, escribió Fratta. “Seguimos estando muy seguros de que nuestro enfoque cumple con las leyes y regulaciones europeas. El entrenamiento de IA no es único para nuestros servicios, y somos más transparentes que muchos de nuestros homólogos en la industria”.
Carrera armamentista de la IA
Nada de esto es nuevo, y Meta está en una carrera armamentista de IA que ha puesto un enorme foco de atención en el vasto arsenal de datos que las grandes tecnológicas tienen sobre todos nosotros.
A principios de este año, Reddit reveló que tiene un contrato para ganar más de 200 millones de dólares en los próximos años por licenciar sus datos a empresas como OpenAI, creadora de ChatGPT, y Google. Y esta última compañía ya está enfrentando enormes multas por apoyarse en contenido noticioso con derechos de autor para entrenar sus modelos de IA generativa.
Pero estos esfuerzos también resaltan las medidas a las que llegarán las empresas para garantizar que puedan aprovechar estos datos dentro de los límites de la legislación existente; la “opción previa” rara vez está en la agenda, y el proceso para optar por no participar suele ser innecesariamente arduo. El mes pasado, alguien detectó un lenguaje dudoso en una política de privacidad existente de Slack que sugería que podría aprovechar los datos de los usuarios para entrenar sus sistemas de IA, y los usuarios solo podrían optar por no participar enviando un correo electrónico a la empresa.
Y el año pasado, Google finalmente dio a los editores en línea una forma de excluir sus sitios web del entrenamiento de sus modelos al permitirles inyectar un código en sus sitios. Por su parte, OpenAI está construyendo una herramienta dedicada para permitir que los creadores de contenido opten por no participar en el entrenamiento de su IA generativa; esta debería estar lista para 2025.
Si bien los intentos de Meta de entrenar su IA con el contenido público de los usuarios en Europa están pausados por ahora, es probable que surja nuevamente de otra forma después de consultar con la DPC y la ICO, con esperanza de que traiga un proceso diferente de permiso de usuario.
“Para aprovechar al máximo la IA generativa y las oportunidades que trae, es crucial que el público pueda confiar en que sus derechos de privacidad serán respetados desde el principio”, dijo Stephen Almond, director ejecutivo de riesgo regulatorio de la ICO, en un comunicado el viernes. “Continuaremos monitoreando a los principales desarrolladores de IA generativa, incluida Meta, para revisar las salvaguardas que han implementado y garantizar que se protejan los derechos de información de los usuarios del Reino Unido”.
Vía | Meta pausará entrenar IA con datos de usuarios – Tecnología con Juancho (tecnologiaconjuancho.com)