Google oppdaterer Veo- og Imagen AI-modellene for mer nøyaktig innhold
Google har kunngjort en ny versjon av sin generative AI-modell for video, Veo 2, som selskapet sier nå bedre forstår den virkelige verdens fysikk og menneskelige bevegelser.
Her er hva vi vet
Veo 2 lar brukerne referere til spesifikke filmsjangre, filmeffekter og linser når de lager videoer. Modellen reduserer også artefakter som ekstra fingre og forbedrer bildekvaliteten. Nedenfor ser du en video som i sin helhet er laget med Veo 2-modellen.
Google har også forbedret sin tekst-til-bilde-modell, Imagen 3, som nå genererer lysere og bedre komponerte bilder, og som følger ledetråder mer nøyaktig.
Et bilde generert av Imagen 3-modellen. Illustrasjon: Google
Google har også lagt til et nytt verktøy kalt Whisk, som kombinerer funksjonene til Imagen 3 og den visuelle forståelsesmodellen Gemini for å skape unike bilder ved å kombinere flere ideer eller objekter i én enkelt illustrasjon.
Modellene inkluderer et usynlig SynthID-vannmerke for å redusere sannsynligheten for feilinformasjon. Veo 2 vil gradvis bli tilgjengelig for Google Labs-brukere i USA, og er foreløpig begrenset til testere som kan lage videoer på opptil åtte sekunder i 720p. Forbedringer for Imagen 3 er allerede tilgjengelig for Google Labs-brukere i mer enn 100 land gjennom ImageFX.
Kilde: Google Labs Google