Bienvenue sur mon blog dédié aux ressources 3D et VR. Ici, vous trouverez des guides pratiques, des outils et des conseils pour vos projets immersifs. Explorez nos articles pour en savoir plus sur la modélisation 3D, la réalité virtuelle et l’art numérique.

Partagez cette page

Stable Diffusion XL, Samplers, Lora, Utilisations… et définitions… et tout ça sur TON PC GRATUITEMENT !

Les sources détaillent l'installation et l'utilisation de Stable Diffusion, un logiciel d'intelligence artificielle générant des images à partir de descriptions textuelles.

Plusieurs tutoriels expliquent les étapes d'installation, qu'elle soit simple (Easy Diffusion) ou plus technique (AUTOMATIC1111). L'impact des différents "samplers" sur la qualité et la vitesse de génération est analysé.

Enfin, l'utilisation de ControlNet pour guider la génération et des Lora pour affiner le style est expliquée, démontrant la puissance et la flexibilité de Stable Diffusion.

Version Podcast pour écouter tranquillement

Stable Diffusion XL : Un Voyage au Cœur de l'Intelligence Artificielle Génératrice d'Images

L'intelligence artificielle (IA) a révolutionné de nombreux domaines, et la génération d'images ne fait pas exception.

Stable Diffusion XL (SDXL) est l'une des IA les plus avancées pour créer des images à partir de texte, repoussant les limites de la créativité et du réalisme.

Ce cours complet vous guidera à travers les concepts clés de SDXL, des samplers et des Lora, en les vulgarisant pour une meilleure compréhension.

Introduction à Stable Diffusion XL

SDXL est un modèle d'apprentissage profond qui utilise un processus appelé diffusion pour transformer du bruit aléatoire en images cohérentes. Ce processus est guidé par le texte que vous fournissez, appelé prompt, qui décrit l'image que vous souhaitez générer.

Voici quelques caractéristiques clés de SDXL :

  • Modèle de grande taille : SDXL est un modèle volumineux, ce qui lui permet de capturer plus de détails et de complexité dans les images.
  • Refiner : SDXL utilise un modèle de raffinement supplémentaire pour améliorer la netteté et le réalisme des images générées.
  • Résolution élevée : SDXL peut générer des images de résolution supérieure à celles des versions précédentes de Stable Diffusion.

Samplers : Les Architectes du Processus de Diffusion

Les samplers sont des algorithmes qui déterminent comment le modèle SDXL transforme le bruit en une image. Ils influencent la vitesse, la qualité et le style de l'image générée. Différents samplers ont des forces et des faiblesses, et le choix du sampler dépendra de vos besoins spécifiques.

Catégories de Samplers :

  • DPM++ : Connus pour leur qualité et leur cohérence.
  • Avantages : Haute précision, diversité améliorée, sorties nettes et lisses.
  • Inconvénients : Peut-être lent, surtout pour les variantes d'ordre supérieur.
  • Euler : Rapides et efficaces, parfaits pour les itérations rapides.
  • Avantages : Rapidité, cohérence.
  • Inconvénients : Manque de détails fins, peut avoir du mal avec des détails complexes.
  • LMS : Excellent pour le réalisme et les détails de haute qualité.
  • Avantages : Transitions nettes et naturelles, bon équilibre entre vitesse et qualité.
  • Inconvénients : Plus lent que les samplers plus simples.
  • Heun : Produit des images plus lisses avec moins de bruit.
  • Avantages : Transitions douces, réduction du bruit.
  • Inconvénients : Lent pour les grandes images.

Exemples de Samplers et leurs usages :

  • Euler a : Idéal pour les tests initiaux et la génération rapide d'images.
  • DDIM : Un bon choix pour un équilibre entre vitesse et qualité.
  • PLMS : Excellent pour les images détaillées et réalistes.
  • DPM++ 2M SDE Heun : Recommandé pour des résultats photo réalistes de haute qualité.
  • UniPC : Un sampler polyvalent et efficace, capable de générer des images de haute qualité en peu d'étapes.

Lora : Des Experts pour Personnaliser Votre Style

Les Lora (Low-Rank Adaptation) sont des fichiers qui permettent de modifier le style et le contenu des images générées par SDXL. Ils agissent comme des experts spécialisés dans un domaine particulier, comme un style artistique, un personnage, un concept ou une texture.

Types de Lora :

  • Style artistique : Reproduire le style d'un artiste célèbre (Van Gogh, Picasso, etc.) ou d'un mouvement artistique (impressionnisme, cubisme, etc.).
  • Personnage : Créer des images cohérentes d'un personnage spécifique, réel ou fictif (super-héros, personnages de films, etc.).
  • Concept : Ajouter des éléments ou des thèmes particuliers aux images (steampunk, cyberpunk, fantasy, etc.).
  • Texture : Améliorer le rendu de textures spécifiques (cuir, métal, peau, etc.).

Utiliser des Lora :

  • Téléchargement : Les Lora sont disponibles sur des plateformes comme Civitai, Hugging Face ou GitHub.
  • Installation : Placez le fichier LoRA dans le dossier stable-diffusion-webui/models/Lora de votre installation SDXL.
  • Activation : Activez le LoRA dans votre prompt en utilisant la syntaxe <lora:nom_du_lora:poids>.
  • Le poids détermine l'influence du LoRA sur l'image.

Exemples d'applications de Lora :

  • Générer des portraits dans le style de Rembrandt.
  • Créer des images de personnages de jeux vidéo avec un style cohérent.
  • Ajouter des éléments futuristes à des paysages urbains.
  • Améliorer le réalisme des textures de vêtements dans les images de mode.

Comprendre le Fonctionnement de SDXL

SDXL utilise un encodeur variationnel (VAE) pour compresser les images en un espace latent de dimension inférieure. Le modèle de diffusion opère ensuite dans cet espace latent pour transformer le bruit en une représentation compressée de l'image. Enfin, le VAE décode cette représentation pour obtenir l'image finale.

Etapes du processus de génération d'images avec SDXL :

  1. Encodage : L'image d'entrée est encodée dans l'espace latent par le VAE.
  2. Diffusion : Le modèle de diffusion ajoute du bruit à l'image encodée dans l'espace latent.
  3. Echantillonnage : Le sampler guide le processus de débruitage pour créer une image cohérente dans l'espace latent.
  4. Décodage : Le VAE décode l'image débruitée de l'espace latent pour produire l'image finale.

Optimiser les Paramètres de Génération d'Images

Pour obtenir les meilleurs résultats avec SDXL, il est important de comprendre les différents paramètres qui influencent le processus de génération d'images.

Paramètres clés :

  • Steps : Le nombre d'étapes de débruitage. Plus il y a d'étapes, plus l'image sera détaillée, mais le temps de génération sera également plus long.
  • CFG scale : Contrôle l'influence du prompt sur l'image. Une valeur plus élevée donne plus de poids au prompt.
  • Width et Height : La largeur et la hauteur de l'image générée.
  • Seed : Un nombre aléatoire qui initialise le processus de diffusion. Changer le seed permet de générer différentes variations de la même image.

Conseils pour optimiser les paramètres :

  • Expérimentez avec différents samplers et Lora pour trouver ceux qui conviennent le mieux à votre style et à vos besoins.
  • Ajustez le nombre de steps en fonction du niveau de détail souhaité et de la puissance de votre ordinateur.
  • Modifiez le CFG scale pour trouver un bon équilibre entre le respect du prompt et la créativité du modèle.
  • Utilisez un seed spécifique pour reproduire une image ou explorer différentes variations.

Conclusion

SDXL est un outil puissant qui ouvre de nouvelles perspectives créatives. En comprenant les concepts clés des samplers, des Lora et des paramètres de génération, vous pouvez exploiter tout le potentiel de cette IA pour créer des images uniques et captivantes. N'hésitez pas à explorer les différentes options et à expérimenter pour découvrir le vaste univers de la génération d'images par IA.

***

Synthèse des sources sur Stable Diffusion et ses outils

Ce document synthétise les informations clés issues de différentes sources (vidéos YouTube, pages GitHub et articles) concernant Stable Diffusion, un modèle d'intelligence artificielle générative permettant de créer des images à partir de texte ou d'images.

Thèmes principaux :

  1. Installation et configuration de Stable Diffusion:
  • AUTOMATIC1111: L'interface web UI d'AUTOMATIC1111 est la plus populaire. Son installation est détaillée dans plusieurs sources, avec des instructions pour Windows et Linux.
  • EasyDiffusion: Alternative plus simple pour débutants, avec une installation en un clic.
  • Configuration matérielle: Nécessite une carte graphique NVIDIA ou AMD avec au moins 2 Go de VRAM (6 Go recommandés), ou un processeur puissant.
  • Modèles: Des modèles pré-entraînés (checkpoints) sont disponibles sur Civitai et Hugging Face, permettant de générer différents styles d'images.
  1. Fonctionnement de Stable Diffusion:
  • Prompt: Le texte descriptif (prompt) en anglais guide la génération d'images. Des outils comme Lexica.art et PageBrain.ai aident à la formulation des prompts.
  • Samplers: Algorithmes contrôlant le processus de débruitage, impactant la vitesse et la qualité de l'image. Euler A est rapide, DDIM et PLMS offrent un bon équilibre, tandis que DPM++ est plus lent mais précis.
  • Steps: Nombre d'étapes de débruitage, influençant la qualité et le temps de génération.
  • CFG Scale: Contrôle l'influence du prompt sur l'image.
  1. Outils avancés:
  • ControlNet: Extension permettant de contrôler la composition et le style des images grâce à des images de référence ou des croquis.
  • LoRA: Mini-modèles modifiant le style ou ajoutant des éléments spécifiques aux images.
  • SDXL: Version améliorée de Stable Diffusion offrant une meilleure qualité d'image et des fonctionnalités supplémentaires.
  • Refiner: Modèle complémentaire utilisé avec SDXL pour affiner les images et ajouter des détails.

Points importants:

  • Puissance de calcul: Stable Diffusion est gourmand en ressources. Une carte graphique performante est essentielle pour une génération rapide et des images haute résolution.
  • Expérimentation: La variété des paramètres, samplers, modèles et outils offre une grande liberté de création. L'expérimentation est clé pour maîtriser Stable Diffusion.
  • Communauté: La communauté active de Stable Diffusion partage des ressources, des tutoriels et des modèles sur des plateformes comme Civitai et Hugging Face.

Citations:

  • "ControlNet est certainement l'outil le plus puissant développé pour stable diffusion" - La PUISSANCE de ControlNet 💥 sur Stable Diffusion - Tuto A1111 #7
  • "Stable Diffusion : Comparatif des Samplers (Modèles de latent diffusion)" : "le sampleur qui est en fait l'algorithme que vous souhaitez utiliser pour la génération de votre image"
  • "Le modèle est publié sous une licence Creative ML OpenRAIL-M. Il s’agit d’une licence permissive qui autorise l’utilisation commerciale et non commerciale." - Stable Diffusion Public Release — Stability AI
  • "The sampler is responsible for carrying out the denoising steps." - Stable Diffusion Samplers: A Comprehensive Guide - Stable Diffusion Art
  • "Les LoRA permettent de modifier très fortement les résultats de vos promptes" - Utiliser les LORA sur Stable Diffusion - Tuto A1111 #6

Conclusion:

Stable Diffusion est un outil puissant pour la création d'images par IA. La maîtrise de ses paramètres et outils permet de générer des images de haute qualité et de style varié. L'exploration des ressources de la communauté et l'expérimentation sont essentielles pour exploiter tout le potentiel de Stable Diffusion.

***

Définitions

1. Stability AI:

  • Organisation à l'origine du développement de Stable Diffusion.
  • Responsable de la publication du modèle et de la licence Creative ML OpenRAIL-M.
  • Développe un classificateur de sécurité basé sur l'IA.

2. automatic1111:

  • Développeur de "stable-diffusion-webui", une interface utilisateur web pour Stable Diffusion.
  • Son interface est très populaire et offre de nombreuses options de configuration.

3. EasyDiffusion:

  • Développeur d'une interface utilisateur simplifiée pour Stable Diffusion.
  • Vise à rendre Stable Diffusion accessible aux utilisateurs sans connaissances techniques.

4. Communauté Stable Diffusion:

  • Utilisateurs de Stable Diffusion qui partagent des modèles, des extensions, des tutoriels et des informations sur le logiciel.
  • Contribue activement à l'amélioration et à l'évolution de Stable Diffusion.

5. Civitai:

  • Plateforme en ligne où les utilisateurs peuvent partager et télécharger des modèles personnalisés, des LoRA, des embeddings et d'autres ressources pour Stable Diffusion.

6. Hugging Face:

  • Plateforme hébergeant des modèles d'IA, y compris des versions de Stable Diffusion et des composants associés.

7. Kris Kashtanova:

  • Artiste et auteur d'un tutoriel sur l'installation de Stable Diffusion.

8. Auteurs des tutoriels vidéo:

  • Créateurs de tutoriels vidéo sur l'installation, la configuration et l'utilisation de Stable Diffusion et de ses fonctionnalités, notamment ControlNet, les LoRA et SDXL.

Note: Il est important de noter que cette liste n'est pas exhaustive et que de nombreuses autres personnes contribuent au développement et à la popularisation de Stable Diffusion.

Glossaire :

Automatic1111: Une interface graphique populaire pour Stable Diffusion, offrant de nombreuses fonctionnalités avancées et options de personnalisation.

Checkpoint: Un fichier contenant les poids d'un modèle Stable Diffusion pré-entraîné. Il définit le style et les capacités de génération d'images du modèle.

Civitai: Une plateforme communautaire pour le partage et la découverte de ressources pour Stable Diffusion, telles que les checkpoints, les Lora et les embeddings.

CMD: L'interface de ligne de commande de Windows, utilisée pour exécuter des instructions et des scripts.

ControlNet: Une extension qui permet de guider la génération d'images Stable Diffusion en utilisant des images d'entrée comme référence pour des éléments tels que la pose, la profondeur et les contours.

CUDA: Une plateforme de calcul parallèle développée par Nvidia, permettant d'utiliser la puissance de calcul des cartes graphiques pour accélérer les tâches.

Denoising: Le processus de suppression progressive du bruit d'une image latente pour générer une image finale.

Diffusion Model: Un type de modèle d'apprentissage profond qui apprend à générer des images en inversant un processus de diffusion qui ajoute progressivement du bruit à une image.

Embedding: Une représentation numérique d'un concept ou d'un mot, utilisée pour guider la génération d'images.

GitHub: Une plateforme d'hébergement de code et de collaboration pour les développeurs.

GPU: Un processeur graphique, spécialisé dans le traitement des images et des vidéos, utilisé pour accélérer la génération d'images par Stable Diffusion.

Hugging Face: Une plateforme communautaire pour l'hébergement et le partage de modèles d'apprentissage profond, de jeux de données et d'outils.

Image Latente: Une représentation compressée d'une image, utilisée par les modèles de diffusion pour générer des images.

LoRA (Low-Rank Adaptation): Une technique d'apprentissage automatique qui permet d'entraîner de petits modèles spécialisés pour modifier le comportement d'un modèle de base plus grand.

Negative Prompt: Une description textuelle des éléments que l'utilisateur ne souhaite pas voir dans l'image générée.

Prompt: Une description textuelle utilisée pour guider la génération d'images par Stable Diffusion.

Refiner: Un modèle spécialisé utilisé dans SDXL pour affiner les détails et la netteté de l'image générée par le modèle de base.

Sampler: Un algorithme qui guide le processus de débruitage dans la génération d'images, influençant la vitesse, la qualité et le style de l'image finale.

Scheduler: Un composant qui définit la planification de la réduction du bruit au cours du processus de génération d'images.

SDXL: La dernière version de Stable Diffusion, offrant des améliorations significatives en termes de qualité d'image, de vitesse et de fonctionnalités.

Stable Diffusion: Un modèle d'apprentissage profond open-source pour la génération d'images à partir de descriptions textuelles.

VRAM: La mémoire vidéo, utilisée par la carte graphique pour stocker les données d'image et les textures.

Web UI: Une interface utilisateur web, permettant d'interagir avec Stable Diffusion et Automatic1111 via un navigateur web.

Liste détaillée des samplers disponibles dans Stable Diffusion, leurs avantages, inconvénients et usages :

Famille DPM++

Ces samplers utilisent un modèle probabiliste de diffusion avec des améliorations visant à obtenir des résultats de haute qualité tout en restant efficaces sur le plan informatique. Ils sont connus pour produire des images plus nettes et plus cohérentes, en particulier pour les styles réalistes.

  • DPM++ 2M : Un sampler déterministe qui vise des transitions d'images précises et lisses. Il convient au réalisme mais peut prendre plus de temps que d'autres.
  • Force : Haute précision.
  • Limite : Légèrement plus lent que les samplers plus simples.
  • DPM++ SDE : Les équations différentielles stochastiques (SDE) introduisent de l'aléatoire dans le processus d'échantillonnage. Cette variante permet d'explorer des sorties plus diverses, ce qui peut améliorer les détails dans les zones complexes ou texturées de l'image.
  • Force : Améliore la diversité.
  • Limite : Les résultats peuvent varier légèrement d'une exécution à l'autre.
  • DPM++ 2M SDE : Combine l'approche déterministe (2M) avec le SDE. Offre le contrôle des méthodes déterministes avec la flexibilité du SDE, ce qui le rend polyvalent.
  • Force : Diversité et contrôle équilibrés.
  • Limite : Il n'est pas toujours l'option la plus rapide.
  • DPM++ 2M SDE Heun : Utilise la méthode de Heun (une technique d'intégration numérique spécifique) pour améliorer les transitions d'images, réduisant ainsi le bruit. Cela fonctionne bien pour des sorties plus photo réalistes.
  • Force : Sorties nettes et lisses.
  • Limite : Temps plus long en raison des étapes d'intégration.
  • DPM++ 2S a : Une autre variante avec différentes stratégies de pondération. Il peut parfois donner des résultats plus stylisés ou artistiques.
  • Force : Bon pour les images artistiques.
  • Limite : Il n'est pas toujours réaliste.
  • DPM++ 3M SDE : Une version 2M SDE d'ordre supérieur capable de produire des détails encore plus complexes mais pouvant être plus lente.
  • Force : Idéal pour les images très détaillées.
  • Limite : Lourd en calcul.

Famille Euler

Les samplers Euler sont connus pour leur rapidité et leur efficacité. Ils fonctionnent bien avec un nombre d'étapes inférieur et ont tendance à être plus efficaces sur le plan informatique.

  • Euler A : Une méthode d'Euler modifiée connue pour sa rapidité et la production de résultats audacieux et cohérents. Il est souvent utilisé pour une génération rapide mais peut manquer de détails fins.
  • Force : Rapidité et cohérence.
  • Limite : Manque de détails fins dans les nombres d'étapes inférieurs.
  • Euler : La méthode d'Euler standard donne de meilleurs résultats sur les détails qu'Euler A mais peut-être moins efficace en termes de temps.
  • Force : Bon pour les images équilibrées.
  • Limite : Peut avoir du mal avec des détails très complexes.

LMS (Laplacian Pyramid Sampling)

C'est un sampler populaire pour les images réalistes, en particulier lorsqu'il est associé à un nombre d'étapes élevé. Il offre un contrôle robuste sur les transitions d'images et produit des résultats qui apparaissent souvent nets et naturels.

  • Force : Idéal pour le photoréalisme et les détails de haute qualité.
  • Limite : Plus lent que les samplers plus rapides comme Euler A.

Heun

Les samplers Heun utilisent un mécanisme de pas adaptatif qui tente d'améliorer la fluidité des transitions. Ils sont légèrement plus lents mais donnent souvent des images plus lisses et moins bruitées.

  • Force : Transitions lisses et réduction du bruit.
  • Limite : Long en temps pour les grandes images.

DPM2 / DPM2 A

Ce sont des samplers de second ordre conçus pour être rapides tout en conservant un niveau raisonnable de détail et de réalisme.

  • DPM2 : Le modèle de base est bon pour une utilisation générale avec un équilibre entre vitesse et qualité.
  • Force : Rapide et de bonne qualité.
  • Limite : Manque parfois de détails complexes.
  • DPM2 a : Ajoute une variante "a" pour augmenter la diversité, produisant des résultats légèrement plus variés que le DPM2.
  • Force : Bonne diversité.
  • Limite : Un peu plus lent que le DPM2.

DPM Fast / DPM Adaptive

Ce sont des samplers optimisés conçus pour la vitesse avec des techniques adaptatives pour ajuster dynamiquement le processus d'échantillonnage.

  • DPM Fast : Privilégie la vitesse aux détails, ce qui le rend adapté aux itérations rapides.
  • Force : Extrêmement rapide.
  • Limite : Perte de détails fins.
  • DPM Adaptive : Ajuste dynamiquement la taille des pas, en équilibrant la vitesse et les détails en fonction de la complexité de l'image.
  • Force : Excellent équilibre pour les tâches complexes.
  • Limite : Les résultats peuvent varier en fonction de la complexité.

Autres samplers spécialisés

  • KDPM2 Ancestral : Un sampler ancestral qui introduit du bruit à chaque étape, conduisant à une plus grande diversité de sorties. Il est particulièrement utile pour des images abstraites ou artistiques.
  • Force : Extrêmement diversifié.
  • Limite : Moins cohérent pour le réalisme.
  • KDPM2 : La version déterministe de KDPM2, offrant plus de contrôle et de cohérence. Il convient aux images qui nécessitent plus de précision.
  • Force : Sorties de haute qualité.
  • Limite : Consommation de temps.
  • DEIS : Sampler inspiré de la diffusion conçu pour équilibrer vitesse et qualité.
  • Force : Polyvalent avec un bon réalisme.
  • Limite : Pas aussi rapide qu'Euler A.

DDIM (Denoising Diffusion Implicit Models)

Ce sampler est très apprécié pour sa capacité à créer des images détaillées et réalistes tout en étant relativement rapide. Le DDIM fonctionne bien avec un nombre d'étapes faible ou élevé.

  • Force : Bon réalisme avec un échantillonnage efficace.
  • Limite : Il peut manquer certains détails plus fins par rapport à des samplers comme le LMS.

PLMS (Pseudo-Laplacian Pyramid Sampling)

Une autre méthode populaire pour le réalisme, mais elle est un peu plus rapide que le LMS. Elle fonctionne bien pour des sorties équilibrées et photo réalistes.

  • Force : Idéal pour des résultats de haute qualité sans trop de temps.
  • Limite : Un peu moins de contrôle que le LMS.

UniPC

Un sampler plus récent qui se concentre sur l'unification des points forts des samplers précédents tout en étant efficace et de haute qualité. Il est polyvalent pour différents styles d'images.

  • Force : Polyvalent et efficace.
  • Limite : Nouveau, il pourrait donc avoir une cohérence moins prouvée.

LCM (Latent Control Models)

Ce sampler introduit le contrôle de l'espace latent, donnant un contrôle plus raffiné sur la façon dont les caractéristiques émergent dans l'image finale.

  • Force : Contrôle élevé pour des détails spécifiques.
  • Limite : Complexité et temps.

DDPM (Denoising Diffusion Probabilistic Models)

Le modèle de diffusion original est connu pour être le plus stable et le plus lent. Il est excellent pour les images de haute qualité, mais il n'est pas idéal si la vitesse est nécessaire.

  • Force : Extrêmement stable et cohérent.
  • Limite : Le plus lent du lot.

Variantes spécialisées d'Euler

  • Euler_Dy_Negative / Euler_Dy : Ce sont des samplers Euler dynamiques optimisés pour différents styles d'images, ce qui est bénéfique pour des tâches plus artistiques ou expérimentales.
  • Force : Résultats créatifs.
  • Limite : Moins de photoréalisme.
  • Euler_Max / Euler_Negative : Des versions plus extrêmes d'Euler qui se concentrent sur des dynamiques particulières de bruit et de structure.
  • Force : Images audacieuses.
  • Limite : Pas toujours réaliste.
  • Euler_Smea_Dy / Euler_Smea : Méthodes basées sur le maculage qui donnent aux images une qualité légèrement adoucie et onirique.
  • Force : Bon pour des images plus douces et plus artistiques.
  • Limite : Moins net.

Le choix du sampler dépendra de vos besoins et priorités spécifiques:

Si la vitesse est votre priorité, Euler A est un bon choix. Si vous recherchez des images réalistes de haute qualité, DPM++ 2M SDE Heun ou LMS sont de bons choix.

Et si vous voulez expérimenter différents styles artistiques, KDPM2 Ancestral ou les variantes d'Euler spécialisées valent la peine d'être essayées.

 Sources et Liens :

-Ganakel : Les Ressources IA :

https://ganakel.com/articles-et-ressources/les-ressources-ia

Ganakel : Les IA N'existent PAS… et les sources en description !

-Comment Installer Stable Diffusion IA 2024 - automatic1111 - Votre première image IA

https://youtu.be/jOfKHOhb25w?list=TLGGJmlb6pVx7kExNDAxMjAyNQ

-GitHub - easydiffusion/easydiffusion: Easiest 1-click way to create beautiful artwork on your PC using AI

https://github.com/Stability-AI/stablediffusion

-Guide to Stable Diffusion Samplers | getimg.ai

https://getimg.ai/guides/guide-to-stable-diffusion-samplers

-Stable Diffusion 10 Samplers Compared

https://youtu.be/siejjQ5SxKs?si=yGWjd3GV4a_4QTjU

-Install and Run on NVidia GPUs · AUTOMATIC1111/stable-diffusion-webui Wiki · GitHub

https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-on-NVidia-GPUs

- InstallStableDiffusion — Kris Kashtanova

https://www.kris.art/installsd

- Installer AUTOMATIC1111 - Tuto A1111 #1 par Instinct IA

https://youtu.be/s_D1cMp1HvI?list=TLGGR9XloBcrUUAxNDAxMjAyNQ

- La PUISSANCE de ControlNet 💥 sur Stable Diffusion - Tuto A1111 #7 par Instinct IA

https://youtu.be/pE3kiP0TAok?list=TLGG84tesbc-KUcxNDAxMjAyNQ

- Plus RAPIDE et plus JOLI grâce à la nouvelle config SXDL

https://youtu.be/dhNju295T0E?si=5jtxVP7PV9lhMqfZ

- Stable Diffusion 2-1 - a Hugging Face Space by stabilityai

https://huggingface.co/spaces/stabilityai/stable-diffusion

- Stable Diffusion : Comparatif des Samplers (Modèles de latent diffusion) par Formation Facile fr

https://youtu.be/jD5biZn4FLw?list=TLGGky2emlT0fwoxNDAxMjAyNQ

- Stable Diffusion Public Release — Stability AI

https://stability.ai/news/stable-diffusion-public-release

- Stable Diffusion Samplers: A Comprehensive Guide - Stable Diffusion Art

https://stable-diffusion-art.com/samplers/

Pas de commentaire encore

Partagez cette page

Recherche