Google avduket offisielt Android XR - et operativsystem for en potensiell konkurrent til Apples Vision Pro
Google har offisielt avduket Android XR, en plattform for augmented reality (AR) og virtual reality (VR) enheter. Det ser ut til at etter nedleggelsen av Google Glass- og Daydream-prosjektene bestemte selskapet seg for å ta en ny sjanse i "våpenkappløpet" mot Apples VisionOS. Ironien er at begge selskapene nå kjemper for øynene dine, bokstavelig talt.
Hva Android XR lover
Googles nye tilnærming er basert på integrering med kjente Android-verktøy og støtte for et bredt spekter av eksisterende apper fra Play Store. Dette betyr at Google Maps eller YouTube vil få et nytt liv i et tredimensjonalt format. I tillegg lover Google en flervinduversjon av Chrome-nettleseren, slik at du kan lese nyheter og se på katter samtidig. Høres veldig futuristisk ut, ikke sant?
Apper for store skjermer drar full nytte av størrelsesendringsfunksjonene i Android XR. Illustrasjon: Android Developers Blog
Gemini AI i Android XR vil sette sitt eget preg på Android XR ved å fungere som en intelligent assistent: Den gjenkjenner objekter rundt deg, genererer tips fra det virkelige liv og lytter sannsynligvis enda bedre til hemmelighetene dine for å "forbedre opplevelsen din".
Men her er det som er kicket: Mens Apples VisionOS lover "romlig magi", har Google valgt en enklere tilnærming: "Vi tar din favoritt Android og gjør den mer AR. Og forresten, det er billigere." Det høres ut som Apples svar: "Det kan vi også gjøre, men på en enklere og mindre pretensiøs måte."
Chrome på Android XR støtter WebXR-funksjoner, inkludert dybdekart, som gjør at virtuelle objekter kan samhandle med virkelige overflater. Illustrasjon: Android Developers Blog
Android XR: åpne standarder for nye muligheter
Android XR fortsetter tradisjonen med åpenhet ved å introdusere OpenXR 1. 1-standarden, et "høyytelses-API på tvers av plattformer" med fokus på portabilitet. I tillegg utvider Google disse standardene med de nyeste tilleggene fra produsentene, som gir nye muligheter til å forstå verden rundt oss. Blant dem:
- Anevrale nettverk for håndgjengivelse - et system som tilpasser seg håndens form og størrelse, noe som sikrer at mangfoldet av brukere gjenspeiles nøyaktig.
- Detaljerte dybdeteksturer - gjør at virkelige objekter kan "skygge" eller overlappe virtuelt innhold.
- Avansert lysvurdering - sørger for at den virtuelle belysningen stemmer overens med forholdene i den virkelige verden.
- Nye sporingsenheter for objekter som bærbare datamaskiner, telefoner, tastaturer eller mus som kan integreres i virtuelle miljøer.
Android XR SDK støtter også åpne formater som glTF 2.0 for 3D-modeller og OpenEXR for miljøer med høyt dynamisk område. Denne tilnærmingen sikrer at utviklere har fleksibilitet og enkel tilgang til de beste verktøyene for å skape oppslukende XR-opplevelser.
Hva blir det neste?
De første Android XR-dingsene forventes å være tilgjengelige i 2025, og en av de første vil være et Samsung-hodesett med kodenavnet Project Moohan. Det vil tilby håndbevegelser og øyesporing, men spørsmålet er om Google vil være i stand til å gjøre disse funksjonene virkelig praktiske. Vil historien om Google Glass gjenta seg?
Kilde: Android Developers Blog