Stability AI lance un nouveau modèle de génération d'images Stable Diffusion XL 1.0
Stability AI a publié Stable Diffusion XL 1.0, qu'elle qualifie de version "la plus avancée" à ce jour.
Ce que l'on sait
Joe Penna, responsable de l'apprentissage automatique appliqué chez Stability AI, a déclaré que Stable Diffusion XL 1.0 contient 3,5 milliards de paramètres. Le modèle peut produire en quelques secondes des images d'une résolution complète de 1 mégapixel avec plusieurs rapports d'aspect.
Selon les créateurs, l'algorithme fournit des couleurs " plus lumineuses" et "plus précises ", ainsi qu'un meilleur contraste, de meilleures ombres et de meilleures lumières que son prédécesseur.
Stable Diffusion XL 1.0 prend en charge le paint over, le paint over et les indices d'image à image. Cela signifie que les utilisateurs peuvent donner au modèle une image en entrée et la modifier.
Selon Stability AI, le modèle comprend des instructions complexes, en plusieurs parties, données par des messages courts. Les modèles précédents nécessitaient des invites textuelles plus longues.
Les développeurs ont également entraîné Stable Diffusion XL 1.0 à générer des textes clairs et lisibles.
Stability AI a reconnu que le modèle pouvait générer des contenus toxiques et biaisés. Cependant, les développeurs ont essayé de l'ajuster pour réduire la probabilité de générer de telles images.
Stable Diffusion XL 1.0 est distribué en open source sur GitHub, en plus de l'API Stability et d'applications grand public telles que ClipDrop et DreamStudio.
Source : TechCrunch TechCrunch