Opera обновляет свой браузер, добавляя поддержку локальных моделей ИИ
Компания Opera, активно инвестирующая в развитие искусственного интеллекта (ИИ), представила новую функцию, которая позволяет пользователям получать доступ к локальным моделям ИИ прямо из браузера.
Что известно
Такая опция, которую пока не предлагает ни один другой браузер, стала возможной благодаря добавлению экспериментальной поддержки 150 вариантов локальных моделей большого языка (LLM) из около 50 семейств моделей.
Локальные модели ИИ являются дополнением к онлайн-сервису Aria AI от Opera, который также доступен в браузере Opera на iOS и Android. Поддерживаемые локальные LLM включают такие модели, как Llama (Meta), Vicuna, Gemma (Google), Mixtral (Mistral AI) и многие другие.
Новая функция особенно важна для тех, кто хочет сохранить конфиденциальность при просмотре веб-страниц. Возможность доступа к локальным LLM из Opera означает, что данные пользователей хранятся локально на их устройстве, что позволяет им использовать генеративный ИИ без необходимости отправки информации на сервер.
Начиная с сегодняшнего дня, новая функция доступна для пользователей Opera One Developer, хотя для ее активации необходимо обновиться до новейшей версии Opera Developer и следовать пошаговому руководству.
Стоит помнить, что после выбора определенного LLM он будет загружен на ваше устройство. Также важно отметить, что локальный LLM обычно требует от 2 до 10 ГБ места на диске для каждого варианта. После загрузки на ваше устройство новый LLM будет использоваться вместо Aria, встроенного AI браузера Opera.
Источник: Opera