Vous avez probablement entendu parlé des LoRA pour Stable Diffusion - et peut-etre même les utilisez vous déjà. Mais connaissez vous les LyCORIS ? Ce sont d'excellentes alternatives aux LoRA.
Dans cet article, vous apprendrez ce qu'ils sont, où les télécharger et comment les utiliser.
LyCORIS signifie Lora beY*ond Conventional methods, Other Rank adaptation Implementations for Stable diffusion* (Oui, c'est asser long et obscure comme nom).
Semblables aux LoRAs, il s'agit en fait d'une collection de méthodes différentes permettant d'apporter de petites modifications à un modèle comme Stable Diffusion.
Avec les LyCORIS, vous pouvez ajouter ou modifier le modèle Stable Diffusion pour lui apprendre de nouveaux éléments comme :
<div align="center">
<script async src="<https://pagead2.googlesyndication.com/pagead/js/adsbygoogle.js?client=ca-pub-7985850631154058>"
crossorigin="anonymous"></script>
<ins class="adsbygoogle"
style="display:block; text-align:center;"
data-ad-layout="in-article"
data-ad-format="fluid"
data-ad-client="ca-pub-7985850631154058"
data-ad-slot="8593366035"></ins>
<script>
window.onload = function() {
(adsbygoogle = window.adsbygoogle || []).push({});
window.addEventListener('popstate', function(event) {
// Your code here
(adsbygoogle = window.adsbygoogle || []).push({});
});
};
</script>
</div>
Les LyCORIS et les LoRA visent tous à apporter de légères modifications à un modèle Stable Diffusion à l'aide d'un petit fichier. Techniquement, ils modifient le U-Net par décomposition matricielle - mais les approches diffèrent entre LyCORIS et LoRA.
LoRA est en fait la méthode originale qui modifie la couche d’attention croisée du U-Net, en stockant efficacement les nouveaux poids : au lieu de stocker des matrices entières, un LoRA fais une approximation d’une grande matrice en deux matrices de faible rang beaucoup plus petites.
L'avantage de cette méthode est qu'elle permet de réduire le nombre de paramètres. Par exemple, si la matrice d'origine a une dimension de 1 000 sur 2 000, vous avez besoin de 2 000 000 de paramètres. Mais en utilisant un rang de 10, LoRA n'a besoin que de 1 000 x 10 + 2 000 x 10 = 30 000 paramètres. C'est plus de 60 fois moins !