Google werkt zijn Veo en Imagen AI-modellen bij voor nauwkeurigere inhoud
Google heeft een nieuwe versie aangekondigd van zijn generatieve AI-model voor video, Veo 2, dat volgens het bedrijf nu beter de fysica en menselijke bewegingen van de echte wereld begrijpt.
Dit is wat we weten
Met Veo 2 kunnen gebruikers bij het maken van video's verwijzen naar specifieke filmgenres, filmeffecten en lenzen. Het model vermindert ook artefacten zoals extra vingers en verbetert de beeldkwaliteit. Hieronder zie je een video die volledig is gemaakt met het Veo 2-model.
Google heeft ook zijn tekst-naar-beeld model, Imagen 3, verbeterd. Dit model genereert nu helderdere en beter gecomponeerde beelden en volgt aanwijzingen nauwkeuriger op.
Een afbeelding gegenereerd door het Imagen 3-model. Illustratie: Google
Google heeft ook een nieuw hulpmiddel toegevoegd, Whisk genaamd, dat de mogelijkheden van Imagen 3 en het Gemini-model voor visueel begrip combineert om unieke afbeeldingen te maken door meerdere ideeën of objecten te combineren in één illustratie.
De modellen bevatten een onzichtbaar SynthID-watermerk om de kans op verkeerde informatie te verkleinen. Veo 2 zal geleidelijk beschikbaar komen voor Google Labs-gebruikers in de VS en is nu nog beperkt voor testers om video's van maximaal acht seconden in 720p te maken. Verbeteringen voor Imagen 3 zijn al beschikbaar voor Google Labs-gebruikers in meer dan 100 landen via ImageFX.
Bron: Google