A medida que el contenido generado por IA continúa invadiendo todo, desde publicidad a la profesión de actuación de voz, YouTube está agregando un requisito para que los usuarios marquen sus videos cuando incluyan algo creado por un programa de inteligencia artificial. Sin embargo, Siguiendo las pautas, no parece que el sitio de alojamiento de videos tenga alguna manera de hacer cumplir o detectar esto.
Las vicepresidentas de gestión de productos de YouTube, Jennifer Flannery O’Connor y Emily Moxley, analizaron la nueva política en un publicación de blog el 14 de noviembre. En primer lugar, cualquier video que contenga contenido generado por IA requerirá divulgación y etiquetas de contenido en la descripción del video que Deje en claro que algunos aspectos del video fueron creados por IA. Los ejemplos dados incluyen un video que “representa de manera realista un evento que nunca sucedió», así como deepfakes que muestran a un individuo «diciendo o haciendo algo que en realidad no hizo».
La publicación del blog dice que esta nueva política está destinada a ayudar a combatir la desinformación, especialmente en lo que respecta a cuestiones del mundo real como las elecciones y la salud y el mundo en curso. crisis. También establece que algunos contenidos generados por IA, ya sea que estén etiquetados o no, pueden eliminarse de YouTube si la exención de responsabilidad “puede no será suficiente para mitigar el riesgo de daño”. Un ejemplo de esto dado por YouTube es una representación realista de la violencia que únicamente existe para dar asco a la gente, a diferencia de un vídeo histórico de tipo educativo o informativo que también incluye violencia.
Además de la exención de responsabilidad, YouTube está implementando pautas comunitarias que permitirán a aquellos afectados por el contenido generado por IA solicitar que se eliminen videos de motivos. Entonces, si alguien está usando IA para simular que haces algo que no hiciste, puedes solicitar que se eliminen esos vídeos , YouTube ofrece el ejemplo específico de músicos cuyas voces están siendo imitadas por software de inteligencia artificial.
Una distinción que se hace es que si las voces generadas por IA son parte de un análisis, como la de un creador que analiza la tendencia de las portadas de IA y incluyendo audio que suena como un cantante interpretando la canción de otra persona, es posible que el video no se elimine. Pero suena como videos que son simplemente canciones interpretadas por una IA que imita la voz de alguien y que pueden ser eliminadas a petición de un artista. La parodia o sátira también es, aparentemente , juego limpio.
La gran pregunta aquí es si YouTube realmente tiene algún medio para hacer cumplir esto más allá de la amenaza de consecuencias, incluida la “eliminación de contenido”, suspensión del Programa de Partners de YouTube , u otras sanciones ” para aquellos que consistentemente no revelan. Presumiblemente, las “otras sanciones” podrían significar una eventual prohibición de la plataforma, pero aun así, parece como si todo el asunto fuera autoimpuesto y estuviera trabajando en una sistema de honor.
Si bien puede haber algunos inconvenientes para resolverlo, es un alivio ver que se está trabajando en enormes plataformas para combatir La desinformación generada por las herramientas de IA. Paso mucho tiempo en TikTok y mientras las portadas de IA y otros audios se han convertido en prominente en esa plataforma, he visto anecdóticamente a muchos usuarios crear cuentas completas que no hacen nada más que producir contenido de IA sin revelar en todo. Soy un desplazador crónico , así que aprendí las señales que buscar y escuchar, pero como herramientas de IA se están generalizando cada vez más, es cada vez más probable que las personas que no saben nada comiencen a grabar estos vídeos en valor nominal.
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.