Este mes, Meta, la empresa matriz de Facebook e Instagram, anunció que su modelo de inteligencia artificial (IA) comenzaría a entrenarse con los datos y publicaciones de los usuarios de dichas redes sociales. No obstante, el pasado día 14, la compañía paralizó el proyecto, que estaba previsto que comenzara el 26 de junio, tras las peticiones de distintas agencias de protección de datos europeas.
Según Meta, el objetivo de la corporación era “servir adecuadamente a nuestras comunidades europeas”, por lo que “los modelos que impulsan la IA en Meta deben capacitarse con información relevante que refleje los diversos idiomas, geografía y referencias culturales de las personas en Europa que los utilizarán”. Sin embargo, el Centro Europeo de Derechos Digitales (NYOB) afirma que lo que plantea la empresa es “utilizar años de publicaciones personales, imágenes privadas o datos de seguimiento en línea para una ‘tecnología de IA’ indefinida que puede ingerir datos personales de cualquier fuente y compartir cualquier información con ‘terceros’ indefinidos”.
Dado el calado de esta decisión, cabe preguntarse por los motivos que han llevado a Meta a paralizar el entrenamiento de su modelo de IA. Desde INFOVERITAS te damos todas las claves para entender la polémica.
¿Qué dice Meta?
Meta informó a los usuarios de Facebook e Instagram del entrenamiento de su IA con sus datos y publicaciones a través de notificaciones y correos electrónicos, según un comunicado publicado por la matriz. En su publicación, en la que daban cuenta de la capacitación, se especificaba que la compañía quería entrenar sus modelos de lenguaje “que potencian las funciones de IA utilizando el contenido que las personas en la UE han elegido compartir públicamente en los productos y servicios de Meta”.
“Si no entrenamos nuestros modelos en el contenido público que los europeos comparten en nuestros servicios y otros, como publicaciones o comentarios públicos, entonces los modelos y las funciones de IA que impulsan no comprenderán con precisión los idiomas, las culturas o los temas de actualidad regionales importantes”, destacaba la empresa, que hacía hincapié en que no es la única que empleaba esta técnica.
Meta asegura que su modelo de inteligencia artificial se entrenaría con publicaciones, comentarios o fotografías y sus títulos; no con mensajes privados. “En el futuro, anticipamos utilizar otro contenido, como interacciones con funciones de IA o chats con una empresa que utilice IA en Meta AI”, concluyen.
Sin embargo, la Comisión de Protección de Datos de Irlanda, el principal regulador de la compañía, solicitó la paralización de este proyecto, en nombre de las agencias europeas de protección de datos. Y, así, la institución acogió con “satisfacción” la decisión de Meta de retrasar el entrenamiento de su IA.
Aspectos positivos del entrenamiento de la IA
Para entender mejor los motivos de Meta para querer entrenar su modelo de IA, desde INFOVERITAS hemos contactado con Idoia Salazar, profesora de Comunicación en la Universidad CEU San Pablo y experta del Observatorio de IA del Parlamento Europeo (EPAIO), especialista en ética e inteligencia artificial, cofundadora y presidenta del Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA) e investigadora principal en el grupo SIMPAIR (Social Impact of Artificial Intelligence and Robotics).
Esta experta explica que la empresa quiere entrenar sus modelos de inteligencia artificial con datos de usuarios “para mejorar sus productos y servicios. De esta manera, puede personalizar la experiencia y optimizar la funcionalidad de sus plataformas”. Con esto, además, puede “dirigir la publicidad de manera más efectiva, creando perfiles de usuario que facilitan anuncios personalizados que son más relevantes y rentables. También le permite desarrollar de manera más efectiva sus sistemas de recomendaciones y herramientas de moderación de contenido”.
Este es uno de los aspectos positivos de la capacitación de esta herramienta, según Salazar, la personalización y la mejora de la experiencia del usuario, “optimizando la interfaz y proporcionando recomendaciones más relevantes de contenido, amigos y eventos”.
Por otra parte, estos datos “facilitan el desarrollo de nuevas funcionalidades que pueden enriquecer la interacción de los usuarios con las plataformas, tales como mejoras en la realidad aumentada y traducciones automáticas más precisas”.
Peligros del entrenamiento de la IA de Meta
Esta experta apunta, por otro lado, que también existen puntos negativos, “preocupaciones importantes”, del entrenamiento de la IA de Meta con los usuarios. “La privacidad y la seguridad de los datos son las principales, ya que la recopilación y uso extensivo de información personal pueden llevar a problemas si no se manejan adecuadamente”, explica Salazar.
La dependencia del modelo de negocio de Meta, continúa, en la publicidad dirigida lleva a usar intensivamente los datos para perfilar a los usuarios y enviarles anuncios personalizados, “lo cual puede ser o parecer intrusivo. Además, la dependencia de algoritmos puede resultar en errores en la moderación de contenido o en la promoción de material polarizador”.
Fuentes
Comunicado del Centro Europeo de Derechos Digitales
Comisión de Protección de Datos de Irlanda
Declaraciones de Idoia Salazar, profesora de Comunicación en la Universidad CEU San Pablo y experta del Observatorio de IA del Parlamento Europeo (EPAIO), especialista en ética e inteligencia artificial, cofundadora y presidenta del Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA) e investigadora principal en el grupo SIMPAIR (Social Impact of Artificial Intelligence and Robotics)