
Stable Diffusion, c'est quoi ?
Stable Diffusion peut transformer vos idées en images réelles !
Le modèle Stable Diffusion est une avancée majeure dans la génération d'images par intelligence artificielle.
Il se démarque par sa capacité à produire des images d'une réalité saisissante, des textes facilement lisibles, des visages d'un réalisme photographique, une composition d'image améliorée et une esthétique supérieure.
Tout cela est rendu possible grâce à des instructions plus concises et plus simples.

Qui a créer Stable Diffusion ?
Stable Diffusion a été développée par un groupe de chercheurs de l'université de Munich (LMU Munich), en collaboration avec Stability AI, Runway et EleutherAI. Le modèle a été publié grâce à un soutien financier de LAION, une organisation allemande à but non lucratif. En octobre 2022, Stability AI a réussi à lever 101 millions de dollars lors d'une levée de fonds menée par Lightspeed Venture Partners et Coatue Management.
Stable Diffusion est en Open source, cela veut dire que vous avez la possibilité d'utiliser Stable Diffusion sur votre ordinateur personnel, à condition d'avoir une carte graphique (GPU) avec au moins 8 Go de mémoire vidéo (VRAM).
Stable Diffusion - Stability AI https://stability.ai/
LAION - Large-scale Artificial Intelligence Open Network https://laion.ai/
La Forge du Savoir
Un lieu où les connaissances sont forgées et où les utilisatrices et utilisateurs peuvent se former et se perfectionner grâce à des tutoriels et des guides.

La bonne recette sauce Stable Diffusion
Lorsque vous utilisez Stable Diffusion pour générer une nouvelle image, c'est comme confier une recette au chef cuisinier et lui demander de la réaliser. Le modèle va alors utiliser ses connaissances pour trouver les ingrédients adéquats et les assembler pour créer l'image finale.
Il est important de souligner que, à l'instar d'un chef cuisinier, le modèle ne peut pas réaliser n'importe quel plat à partir de n'importe quelle recette. Même s'il a été formé sur une vaste base de données d'images et de descriptions écrites, il ne peut pas créer des images qui dépassent ce qu'il a appris lors de son entraînement.
Si vous lui fournissez une description d'une image qui ne correspond à aucun des éléments qu'il a appris à reconnaître lors de son entraînement, il ne sera pas en mesure de créer une image correspondante.
Maîtrisez l'IA pour concevoir des images uniques en suivant nos cours et tutoriels.
Débutez votre apprentissage dès aujourd'hui !
Participez à notre stage d'initiation à la génération d'images assistée par intelligence artificielle !
Les principaux paramètres de Stable Diffusion

La structure d'un bon Prompt
L'ordre des mots peut être aussi important que les mots eux-mêmes.
De simples modificateurs de sentiments (émotions positives ou négatives) peuvent définir l'atmosphère de la scène!
Il y a des techniques éprouvées pour générer des images de haute qualité et spécifiques. Votre prompt devrait donc couvrir la plupart, sinon la totalité, de ces points :
- Sujet (obligatoire)
- Média
- Style
- Artiste
- Site Web
- Résolution et qualité
- Détails supplémentaires
- Couleur
🪄 Magic words : Des mots de qualité comme HDR, UHD, 4K, 8k et highly detailed peuvent faire une différence sur la qualité de votre image.
Les prompts négatifs
Les prompts négatifs permettent de préciser ce que l'on ne souhaite pas voir dans les images. Par exemple des malformations, des monstruosités, des sujets hors cadre…
Voici une liste d'exemple de prompt négatif :
b&w, bad anatomy, bad art, bad proportions, blurry, body out of frame, canvas frame, cartoon, cloned face, close up, cross-eye, deformed, disfigured, duplicate, extra arms, extra fingers, extra legs, extra limbs, fused fingers, gross proportions, long neck, malformed limbs, missing arms, missing legs, morbid, mutated, mutated hands, mutation, mutilated, out of frame, Photoshop, poorly drawn face, poorly drawn feet, poorly drawn hands, tiling, too many fingers, video game, weird colors
Token efficiency
Votre prompt est limité
à 75 token 🪙
(jetons). Si vous travaillez avec une longue invite
(prompt), essayez d'être concis en utilisant des mots qui ne sont
pas superflus pour exprimer votre idée.
🧮 Essayer votre prompt pour connaitre le nombre de token sur Tokenizer : https://platform.openai.com/tokenizer
Step count
Stable Diffusion crée une image en commençant par une toile pleine de bruit et la dénomme progressivement pour atteindre la sortie finale. Ce paramètre contrôle le nombre de ces étapes de débruitage. Habituellement, plus c'est élevé, mieux c'est.
Pour les débutants, il est recommandé de s'en tenir à la valeur par défaut.
Step count (Nombre de pas) – la valeur par défaut est 50

Consultez ce site pour mieux comprendre :
Stable Diffusion Steps
https://proximacentaurib.notion.site/Stable-Diffusion-Steps-6a7c7e61e6ed4c2f9516e4f67075d7f2

Classifier Free Guidance (CFG)
Vous pouvez voir ce paramètre comme une échelle « Créativité vs. prompt ». Des nombres plus bas donnent à l'IA plus de liberté pour être créatif, tandis que des nombres plus élevés le forcent à s'en tenir au prompt.
Utiliser des valeurs CFG différentes
- CFG 2 - 6 : Créatif, mais peut ne pas suivre le prompt
- CFG 7 - 10 : Recommandé pour la plupart des prompts. Bon Équilibre entre créativité et génération guidée
- CFG 10 - 15 : Lorsque vous êtes sûr que votre prompt est bon/assez précis.
- CFG 16 - 20 : Généralement déconseillé sauf est bien détaillée. Pourrait affecter la cohérence et qualité
Classifier Free Guidance (CFG) – la valeur par défaut est 7
Consultez ce site pour mieux comprendre :
Comparaison de l'échelle CFG Stable Diffusion V2

Sampler – Échantillonneur
Les échantillonneurs de diffusion sont des outils utilisés pour déterminer l'image lors de la génération.
Comme ils varient dans leur méthode de calcul de l'étape suivante dans la production d'images, ils nécessitent des durées et des nombres d'étapes différents pour obtenir une image utilisable.
Consultez ce site pour mieux comprendre :
Étapes de Stable Diffusion par rapport à la méthode d'échantillonnage
Euler – KLMS – HEUN – DDIM – DPM2 - PLMS
Résolution
📏 Ce paramètre est simple. Vous choisissez la largeur et la hauteur des images générées. Mais il est important de savoir que le modèle a été formé sur des images en 512 x 512 pixels. En général ces dimensions fournissent la meilleure qualité et composition.
Autres études pour mieux utiliser Stable Diffusion
Stable Diffusion V1 Modifier Studies
Stable Diffusion V1 Études de style / artiste
Stable Diffusion V2 Études de style artiste
Les tutoriels et guides
Parmi les documents et articles qui vous sont proposés, certains peuvent être en anglais.
Vous pouvez utiliser REVERSO un outil de traduction gratuit. 🇫🇷 ↔️ 🇬🇧

Stable Diffusion XL
Tout ce qu'il faut savoir pour comprendre et utiliser SDXL

Stable Diffusion XL
Articles et tutoriels pour SDXL

SD Toolset
Il s'agit essentiellement d'un mini wiki ou d'un aide-mémoire. Le fait de cliquer sur un segment fournit une explication très brève et des liens pertinents.
Cette page vous présente quelques outils que vous pouvez trouver utiles pour créer vos images. L'accent est mis sur la façon d'obtenir ce que vous voulez plutôt que sur la façon dont cela fonctionne