Source: CritpoTendencia
Original Title: Google ya entrena su IA con videos de YouTube: lo que se sabe (y lo que no te dicen)
Original Link:
¿Qué está pasando en el mundo crypto?
Google no hizo un anuncio masivo ni envió alertas a los creadores; simplemente ajustó políticas y respondió preguntas de especialistas, dejando ver algo importante: parte del catálogo de videos de YouTube ya se utiliza para entrenar sus modelos de inteligencia artificial, incluidos Gemini y sus tecnologías de generación de video como Veo 3.
La información es pública, pero la mayoría de los usuarios nunca se enteró porque llegó dispersa, a través de medios que detectaron los cambios antes que la propia plataforma lo explicara de forma directa.
Lo que Google reconoce (y cómo lo sabemos)
YouTube confirmó que usa su catálogo de videos para entrenar IA generativa. La plataforma añadirá una función para que los creadores decidan si su contenido puede utilizarse en entrenamiento de terceros.
El simple hecho de que exista esa opción implica que parte del entrenamiento ya está ocurriendo.
También hay reportes donde tanto Google como OpenAI habrían usado transcripciones de videos de YouTube para alimentar modelos de lenguaje. No se aclara el alcance exacto ni qué tipos de videos están incluidos, pero sí queda claro que el ecosistema audiovisual de YouTube es un insumo valioso para la IA.
Las zonas grises que generan preocupación
Google reconoce que usa contenido de YouTube para mejorar sus modelos, pero no especifica qué porcentaje del catálogo se utiliza, cómo se seleccionan los videos ni qué ocurre con aquellos marcados como no listados. Para millones de usuarios, un video no listado es prácticamente privado; para un modelo de IA, podría ser simplemente un fragmento más del dataset.
Tampoco hay claridad sobre el consentimiento real. ¿La nueva opción para creadores será visible para todos? ¿Vendrá activada por defecto? ¿Afectará solo a nuevos videos o también al contenido ya subido durante años? Son preguntas abiertas que los usuarios todavía no pueden responder porque Google no ofreció detalles operativos.
Mientras tanto, la magnitud es innegable: en YouTube se suben más de 500 horas de video por minuto. Ese volumen convierte a la plataforma en una mina de datos perfecta para entrenar sistemas capaces de ver, entender, clasificar e imitar el comportamiento humano en video.
El problema no es el uso: es la falta de claridad
La discusión de fondo no es si los modelos de Google deben o no entrenarse con videos -eso ya está ocurriendo- sino cómo se establece el límite, quién decide las reglas y qué nivel de transparencia se exige a una plataforma que concentra el archivo audiovisual más grande del planeta.
Lo que hoy sabemos proviene de medios tecnológicos que rastrean cambios antes de que la empresa los explique con precisión. Google dio confirmaciones parciales, pero no completó el cuadro.
La IA avanza, los datos fluyen, y el usuario común apenas recibe pistas.
No se trata de una filtración. Es oficial. La preocupación radica en aquello que aún no han mencionado.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Google utiliza vídeos de YouTube para entrenar IA: hechos conocidos y verdades ocultas
Source: CritpoTendencia Original Title: Google ya entrena su IA con videos de YouTube: lo que se sabe (y lo que no te dicen) Original Link:
¿Qué está pasando en el mundo crypto?
Google no hizo un anuncio masivo ni envió alertas a los creadores; simplemente ajustó políticas y respondió preguntas de especialistas, dejando ver algo importante: parte del catálogo de videos de YouTube ya se utiliza para entrenar sus modelos de inteligencia artificial, incluidos Gemini y sus tecnologías de generación de video como Veo 3.
La información es pública, pero la mayoría de los usuarios nunca se enteró porque llegó dispersa, a través de medios que detectaron los cambios antes que la propia plataforma lo explicara de forma directa.
Lo que Google reconoce (y cómo lo sabemos)
YouTube confirmó que usa su catálogo de videos para entrenar IA generativa. La plataforma añadirá una función para que los creadores decidan si su contenido puede utilizarse en entrenamiento de terceros.
El simple hecho de que exista esa opción implica que parte del entrenamiento ya está ocurriendo.
También hay reportes donde tanto Google como OpenAI habrían usado transcripciones de videos de YouTube para alimentar modelos de lenguaje. No se aclara el alcance exacto ni qué tipos de videos están incluidos, pero sí queda claro que el ecosistema audiovisual de YouTube es un insumo valioso para la IA.
Las zonas grises que generan preocupación
Google reconoce que usa contenido de YouTube para mejorar sus modelos, pero no especifica qué porcentaje del catálogo se utiliza, cómo se seleccionan los videos ni qué ocurre con aquellos marcados como no listados. Para millones de usuarios, un video no listado es prácticamente privado; para un modelo de IA, podría ser simplemente un fragmento más del dataset.
Tampoco hay claridad sobre el consentimiento real. ¿La nueva opción para creadores será visible para todos? ¿Vendrá activada por defecto? ¿Afectará solo a nuevos videos o también al contenido ya subido durante años? Son preguntas abiertas que los usuarios todavía no pueden responder porque Google no ofreció detalles operativos.
Mientras tanto, la magnitud es innegable: en YouTube se suben más de 500 horas de video por minuto. Ese volumen convierte a la plataforma en una mina de datos perfecta para entrenar sistemas capaces de ver, entender, clasificar e imitar el comportamiento humano en video.
El problema no es el uso: es la falta de claridad
La discusión de fondo no es si los modelos de Google deben o no entrenarse con videos -eso ya está ocurriendo- sino cómo se establece el límite, quién decide las reglas y qué nivel de transparencia se exige a una plataforma que concentra el archivo audiovisual más grande del planeta.
Lo que hoy sabemos proviene de medios tecnológicos que rastrean cambios antes de que la empresa los explique con precisión. Google dio confirmaciones parciales, pero no completó el cuadro.
La IA avanza, los datos fluyen, y el usuario común apenas recibe pistas.
No se trata de una filtración. Es oficial. La preocupación radica en aquello que aún no han mencionado.