Stability AI выпустила новую модель для генерации изображений Stable Diffusion XL 1.0
Компания Stability AI выпустила модель преобразования текста в изображение Stable Diffusion XL 1.0, которую называет своей "самой продвинутой" версией на сегодняшний день.
Что известно
Глава отдела прикладного машинного обучения Stability AI Джо Пенна (Joe Penna) рассказал, что Stable Diffusion XL 1.0 содержит 3,5 млрд параметров. Модель может выдавать изображения с полным разрешением 1 МП "за секунды" с несколькими соотношениями сторон.
По словам создателей, алгоритм обеспечивает "более яркие" и "точные" цвета, а также лучшую контрастность, тени и освещение по сравнению с предшественником.
Stable Diffusion XL 1.0 поддерживает закрашивание, перекрашивание и подсказки "изображение-изображение". Это значит, что пользователи могут давать модели на вход картинку и редактировать ее.
По данным Stability AI, модель понимает сложные, состоящие из нескольких частей инструкции, данные в коротких подсказках. Предыдущие модели требовали более длинных текстовых подсказок.
Также разработчики научили Stable Diffusion XL 1.0 генерировать четкие и удобочитаемые тексты.
В Stability AI признали, что модель может генерировать токсичный и предвзятый контент. Однако разработчики постарались настроить ее так, чтобы снизить вероятность генерирования таких изображений.
Stable Diffusion XL 1.0 распространяется с открытым исходным кодом на GitHub в дополнение к API Stability и потребительским приложениям, таких как ClipDrop и DreamStudio.
Источник: TechCrunch