Stability AI annonce un modèle linguistique compact de 1,6 milliard de paramètres
Stability AI, une entreprise connue pour son IA générative pour le texte et les images, a dévoilé un nouveau modèle de langage compact, Stable LM 2 1.6B. Selon les développeurs, cette version est destinée à abaisser les barrières à l'expérimentation de l'IA et à élargir la communauté avec moins de puissance de calcul.
Ce que nous savons
Selon Carlos Riquelme de Stability AI, la principale réussite du nouveau produit n'est pas sa taille, mais la perfection des algorithmes et la quantité de données d'entraînement de haute qualité dans sept langues. Stable LM 2 1,6B devance ainsi d'autres modèles de plus grande taille, dont Stable LM 3B, le propre modèle de Stability AI.
Selon Stability AI, c'est comme pour les ordinateurs et les micropuces : au fil du temps, ils deviennent plus petits et plus puissants à la fois.
La technologie LM stable est généralement utilisée pour générer et comprendre des contenus textuels. Avec une taille réduite, elle présente toujours un risque d'"hallucinations" et de comportement toxique. L'entreprise promet une meilleure gestion des risques.
Stability AI met l'accent sur la transparence. En plus des modèles finis, l'entreprise publie des versions brutes de ceux-ci avant le cycle de formation final. Cela devrait permettre aux développeurs d'adapter les algorithmes à leurs besoins et d'obtenir de meilleurs résultats.
Comme le note Stability AI, l'ouverture est nécessaire pour élargir la communauté d'experts en IA générative.
Source : VentureBeat