Opera oppdaterer nettleseren og legger til støtte for lokale AI-modeller
![Opera oppdaterer nettleseren og legger til støtte for lokale AI-modeller Opera oppdaterer nettleseren og legger til støtte for lokale AI-modeller](/media/post_big/opera-product-image_x5O6qMq.png)
Opera, som satser aktivt på kunstig intelligens (AI), har avduket en ny funksjon som gir brukerne tilgang til lokale AI-modeller direkte fra nettleseren.
Dette er hva vi vet
Denne muligheten, som ingen andre nettlesere tilbyr, er gjort mulig ved å legge til eksperimentell støtte for 150 varianter av lokale store språkmodeller (LLM) fra rundt 50 modellfamilier.
Lokale AI-modeller er et tillegg til Operas nettbaserte Aria AI-tjeneste, som også er tilgjengelig i Opera-nettleseren på iOS og Android. Lokale LLM-modeller som støttes, omfatter modeller som Llama (Meta), Vicuna, Gemma (Google), Mixtral (Mistral AI) og mange andre.
![](/media/uploads/1-2_1GKxljS.jpg)
![](/media/uploads/2-2.jpg)
![](/media/uploads/3_diFzQlx.png)
![](/media/cache/3c/c7/3cc7676e446efe17888b7f7e5467c4fc.jpg)
![](/media/cache/43/21/4321732246b96e73aca065c7a7980431.jpg)
![](/media/cache/5b/d0/5bd0c1a0da9878318e242d27686131b8.png)
Den nye funksjonen er spesielt viktig for dem som ønsker å ivareta personvernet når de surfer på nettet. Muligheten til å få tilgang til lokale LLM-er fra Opera betyr at brukernes data lagres lokalt på enheten, slik at de kan bruke generativ AI uten å måtte sende informasjon til en server.
Fra og med i dag er den nye funksjonen tilgjengelig for brukere av Opera One Developer, men du må oppgradere til den nyeste versjonen av Opera Developer og følge den trinnvise veiledningen for å aktivere den.
Det er verdt å huske at når du har valgt en bestemt LLM, lastes den ned til enheten din. Det er også viktig å merke seg at en lokal LLM vanligvis krever mellom 2 GB og 10 GB diskplass for hvert alternativ. Når den nye LLM-en er lastet ned til enheten, brukes den i stedet for Aria, Opera-leserens innebygde AI.
Kilde: Opera