YouTube dwingt makers hun gebruik van AI bekend te maken, maar niet altijd
YouTube eist nu van contentmakers dat ze vermelden wanneer ze kunstmatige intelligentie gebruiken om content te veranderen voor de duidelijkheid van de kijkers. Inhoud die van een label moet worden voorzien, omvat gewijzigde beelden van mensen of gebeurtenissen die niet hebben plaatsgevonden om feit van fictie te onderscheiden. De tags voor kunstmatige intelligentie zullen prominenter aanwezig zijn bij bepaalde onderwerpen zoals gezondheid, nieuws, verkiezingen of financiële inhoud.
Dit is wat we weten
In een aankondiging op de helppagina van YouTube zegt Google dat het een nieuwe tool lanceert waarmee YouTube-makers moeten aangeven wanneer ze AI hebben gebruikt om inhoud te maken. De informatie wordt dan weergegeven in een uitgebreide inhoudsbeschrijving waar kijkers kunnen zien hoe wat ze zien is veranderd. Inhoud die moet worden getagd, omvat alles waardoor een persoon iets zegt of doet wat in werkelijkheid niet is gebeurd, evenals gewijzigde beelden van een echte gebeurtenis of plaats. AI-geluidsgeneratie zal ook op dezelfde manier worden getagd.
Hoewel het gemakkelijk genoeg kan zijn om deze meldingen te missen in de uitgebreide beschrijving, merkte Google op dat het deze meldingen prominenter zal maken in inhoud over bepaalde onderwerpen. YouTube-video's over medicijnen, nieuws, verkiezingen of financiële kwesties zullen bijvoorbeeld een duidelijkere tag voor AI-meldingen krijgen.
Sommige inhoud heeft echter geen tag nodig om te worden opgenomen in AI. Het gebruik van lichtfilters of speciale achtergrondeffecten hoeft niet openbaar gemaakt te worden. Makers hoeven inhoud ook niet te taggen als de AI wordt gebruikt voor productiekwesties zoals het genereren van scripts. Google zegt dat als AI-veranderingen aan content "klein" zijn, het melden van die veranderingen optioneel is.
Bron: Youtube