Meta розробляє нові моделі для генерації зображень, відео й тексту
Meta працює над двома новими моделями штучного інтелекту для обробки зображень і відео, а також для генерації тексту. За даними The Wall Street Journal, відповідно до внутрішнього QA, компанія планує випустити моделі в першій половині 2026 року.
Що відомо
Модель для зображень та відео має кодову назву Mango, текстова модель Avocado. Розробку веде команда Meta Superintelligence Lab (MSL) під керівництвом Александра Ванга, співзасновника Scale AI. Під час зустрічі Ванг заявив, що Meta досліджує нові "світові моделі", здатні розуміти візуальну інформацію, міркувати, планувати й діяти без потреби навчання на всіх можливих сценаріях. Текстову модель також планують оптимізувати для програмування.
Цьогоріч Meta провела реорганізацію підрозділів ШІ, включаючи зміну керівництва та залучення дослідників з інших компаній. Деякі з них уже залишили MSL. У листопаді головний науковець компанії зі штучного інтелекту Янн Лекун оголосив про створення власного стартапу.
Асистент Meta AI інтегрований у застосунки компанії, зокрема в пошук Facebook та Instagram, і доступний мільярдам користувачів. Перші продукти від MSL стануть частиною оновленої ШІ стратегії компанії.
Джерело: The Wall Street Journal

