Si subiste alguna vez un vídeo a YouTube, probablemente Google lo ha usado para entrenar a su IA

Fotografía de una mujer que se está grabando con una cámara mientras toca la guitarra. La cámara está en primer plano y el resto de la escena está desenfocada.

Los modelos de IA generativa necesitan cantidades ingentes de datos para entrenarse y poder desarrollar sus capacidades de creación. El cómo consiguen las desarrolladoras estos datos no siempre resulta legítimo, y ya hemos visto a muchas enfrentarse a problemas legales por ello, como es el caso de Meta u OpenAI.

El último escándalo en este sentido lo protagoniza Google. Resulta que el gigante tecnológico se está sirviendo de su amplísima biblioteca de YouTube, compuesta por 20.000 millones de vídeos, para entrenar a Gemini, VEO3 y otros modelos de IA.

Este hecho ha sido revelado por CNBC tras haber obtenido la confirmación por parte de Google, que afirma que solo utiliza un subconjunto de estos vídeos y lo hace de forma legal, cumpliendo acuerdos con creadores y medios.

«Siempre hemos usado el contenido de YouTube para mejorar nuestros productos, y esto no ha cambiado con la llegada de la IA. También reconocemos la necesidad de medidas de seguridad, por lo que hemos invertido en protecciones sólidas que permitan a los creadores proteger su imagen y semejanza en la era de la IA, algo que nos comprometemos a seguir haciendo», explicó un portavoz de YouTube.

Qué dicen las políticas de YouTube y Google

No obstante, la noticia ha provocado escepticismo y preocupación acerca de hasta qué punto los creadores, medios y empresas son conscientes de estos acuerdos y de cómo Google utiliza su contenido. Así mismo, tampoco existe ninguna configuración que permita impedir que la tecnológica se sirva de los vídeos publicados en su plataforma para entrenar sus modelos de IA.

En los términos del servicio de YouTube, la plataforma se encarga de dejar claro que «al subir Contenido al Servicio, otorgas a YouTube una licencia mundial, no exclusiva, gratuita y libre de regalías, transferible y con derecho de sublicencia para usar dicho Contenido (incluyendo para reproducirlo, distribuirlo, modificarlo, transformarlo, mostrarlo, comunicarlo al público y representarlo) con el fin de operar, promocionar y mejorar el Servicio».

Es en la parte de «mejorar el servicio» donde podría encontrarse la trampa si Google considera que entrenar sus IAs se corresponde con esta condición. Además, en la Política de Privacidad de Google se indica que las bases legales a tratar tu información podrían incluir el utilizar la información del usuario o usuaria «disponible públicamente online o de otras fuentes públicas para entrenar nuevos modelos de aprendizaje automático y desarrollar tecnologías fundacionales en las que se basan diversos productos de Google, como el Traductor de Google, aplicaciones de Gemini y las capacidades de IA de Cloud».

Cabe señalar que la Política de Privacidad de Google «se aplica a todos los servicios ofrecidos por Google LLC y sus afiliados, incluidos YouTube, Android y los servicios proporcionados en sitios web de terceros, como servicios publicitarios».

Esta realidad vuelve a abrir el debate acerca del uso del contenido generado por personas para pulir modelos que pueden convertirse en una competencia directa de estos creadores y creadoras. Además, el poco control sobre cómo las empresas manejan la propiedad intelectual, acentúa lo injusto de este sistema.

Luke Arrigoni, director ejecutivo de Loti, empresa centrada en la protección de la identidad digital de los creadores, explicó a CNBC que: «Es plausible que estén tomando datos de muchos creadores que han dedicado mucho tiempo, energía y reflexión a estos vídeos. Está ayudando al modelo Veo 3 a crear una versión sintética, una imitación deficiente, de estos creadores. Eso no es necesariamente justo para ellos».

Foto: Canva

[…]

La entrada Si subiste alguna vez un vídeo a YouTube, probablemente Google lo ha usado para entrenar a su IA se publicó primero en Marketing4eCommerce.