Beste kostenlose Techniken zum Generieren von KI-Bildern mit stabiler Diffusion

Wichtige Hinweise

  • Stable Diffusion ist Open Source und ermöglicht die lokale Bildgenerierung.
  • Für die Verwendung stehen mehrere Methoden zur Verfügung, die jeweils auf unterschiedliche Benutzerebenen zugeschnitten sind.
  • Systemanforderungen optimieren die Leistung, insbesondere die GPU-Anforderungen.

Nutzung der Kraft stabiler Diffusion für die KI-Bilderzeugung

Stellen Sie sich vor, Sie erstellen beeindruckende Visualisierungen mithilfe von KI bequem von zu Hause aus. Im Gegensatz zu eingeschränkten Online-Generatoren ist Stable Diffusion ein leistungsstarkes Open-Source-Tool, das diese Freiheit ermöglicht. In diesem Leitfaden untersuchen wir drei verschiedene Methoden zur Nutzung von Stable Diffusion zur Generierung authentischer KI-Bilder.

Was ist stabile Diffusion?

Stable Diffusion dient als grundlegendes Framework, das Texteingaben in detaillierte Bilder umwandelt. Obwohl es keine eigenständige Anwendung ist, bildet es die Grundlage für mehrere Anwendungen und bietet Nutzern eine erstklassige Methode zur generativen KI-Bildproduktion. Dieser Leitfaden behandelt Strategien für alle Kenntnisstufen – von anfängerfreundlichen Methoden bis hin zu fortgeschrittenen Techniken.

Grundlegende Systemanforderungen

Um ein optimales Erlebnis bei der Verwendung von Stable Diffusion zu gewährleisten, beachten Sie die folgenden Systemanforderungen:

  • macOS: Apple Silicon (Chip der M-Serie)
  • Windows oder Linux: NVIDIA- oder AMD-GPU
  • RAM: Aus Effizienzgründen werden mindestens 16 GB empfohlen.
  • GPU-VRAM: Mindestens 4 GB (8 GB sind ideal).
  • Speicher: Erfordert etwa 60–70 GB verfügbaren Speicherplatz.

1. Verwenden der Automatic1111-WebUI

Mit der ersten Methode können Sie die Web-Benutzeroberfläche von AUTOMATIC1111 für einen nahtlosen Zugriff auf Stable Diffusion nutzen, das mit verschiedenen Betriebssystemen kompatibel ist.

Laden Sie zunächst die neueste Python-Version herunter. Wählen Sie nach der Installation die Option „python.exe zu PATH hinzufügen“ aus.

Schritt 1: Installieren Sie ein Modell

Bevor Sie die Web-Benutzeroberfläche nutzen können, müssen Sie mindestens ein Modell installieren. Dieses dient als künstlerische Grundlage für Ihre Bildausgaben. Wählen Sie ein Modell von CIVITAI, das Ihrer Vision entspricht.

Laden Sie nach der Auswahl Ihres Modells die entsprechende Checkpoint-Datei „.safetensors“ herunter und platzieren Sie sie im richtigen Verzeichnis innerhalb Ihres Automatic1111-WebUI-Installationspfads.

Schritt 2: WebUI ausführen und konfigurieren

Wenn Ihr Modell bereit ist, öffnen Sie das Terminal für macOS, navigieren Sie zu Ihrem Ordner „stable-diffusion-webui“ und führen Sie den Befehl aus ./webui.sh --xformers. Windows-Benutzer sollten ausführen. Dadurch wird eine URL (normalerweise http://127.0.0.1:7860./webui-user.bat ) für den lokalen Zugriff bereitgestellt.

Geben Sie die URL in Ihren Browser ein, und Sie gelangen zur lokal gehosteten Web-Benutzeroberfläche. Auch wenn die Oberfläche etwas einschüchternd wirkt, können die meisten Einstellungen zunächst unverändert bleiben. Passen Sie die Parameter Breite und Höhe an und legen Sie die Stapelgröße auf 4 fest, sodass bei jeder Eingabeaufforderung vier einzigartige Bilder erstellt werden können.

Geben Sie im Reiter „ txt2img“ eine kreative Aufforderung ein und beschreiben Sie die gewünschten Bildeigenschaften. Seien Sie präzise und trennen Sie Ihre Ideen durch Kommas. Definieren Sie den künstlerischen Stil mit Schlüsselwörtern wie „realistisch“ oder „detailliert“.

Geben Sie bei der Festlegung negativer Eingabeaufforderungen Elemente an, die Sie aus dem endgültigen Bild ausschließen möchten. Klicken Sie auf „Generieren“, um den Vorgang zu starten. Sie können Ihre Ergebnisse anhand der generierten Miniaturansichten überprüfen und optimieren.

2. Fooocus erkunden: Der einfachste KI-Bildgenerator

Als intuitive Alternative zeichnet sich Fooocus durch seine benutzerfreundliche Oberfläche aus und ist daher ideal für Einsteiger in die KI-Bildgenerierung.

Laden Sie zunächst die komprimierte Fooocus-Datei herunter und extrahieren Sie deren Inhalt. Wählen Sie anschließend einen Prüfpunkt von CIVITAI aus, navigieren Sie zu Ihrem Fooocus-Ordner und folgen Sie den Anweisungen unter „Modelle -> Prüfpunkte“, um die Datei zu platzieren.

Schritt 1: Ausführen von Fooocus

Starten Sie Fooocus mit einem Doppelklick auf run.bat. Die Oberfläche wird in Ihrem Webbrowser geöffnet. Aktivieren Sie die Option „Erweiterte Einstellungen“, um weitere Konfigurationsmöglichkeiten zu erhalten.

Passen Sie das Seitenverhältnis an und geben Sie die Anzahl der Bilder pro Eingabeaufforderung an. Stellen Sie die Leistung auf „ Geschwindigkeit“ für optimale Generierungsraten ein und geben Sie negative Eingabeaufforderungen ein, um unerwünschte Elemente aus Bildern zu filtern.

Schritt 2: Verwenden von AI Face Swap in Fooocus

Fooocus bietet außerdem die FaceSwap-Funktion, mit der das Gesicht eines Bildes durch ein anderes ersetzt werden kann. Aktivieren Sie die Optionen „Bild eingeben“ und „Bildaufforderung“, um das entsprechende Bild hochzuladen.

Nachdem Sie den Gesichtsbereich markiert haben, passen Sie die Einstellungen im Entwickler-Debugmodus an, um den Austausch effizient durchzuführen. Löschen Sie einfach Ihre Eingabeaufforderungen und klicken Sie auf „Generieren“, um die Gesichtsaustauschfunktion zu aktivieren.

3. Generieren von KI-Bildern mit ComfyUI

ComfyUI bietet Nutzern eine umfassende und zugleich anspruchsvolle Benutzeroberfläche für die Bildgenerierung mit Stable Diffusion.Laden Sie ComfyUI herunter und richten Sie es gemäß den Anweisungen ein.

Schritt 1: Ausführen von ComfyUI

Platzieren Sie nach der Extraktion Ihre Checkpoints und LoRAs im entsprechenden Verzeichnis. Führen Sie zunächst update_comfyui.bat im Update-Ordner aus, um sicherzustellen, dass alles aktuell ist.

Wenn Sie fertig sind, starten Sie ComfyUI je nach Ihrer Hardware entweder über run_nvidia_gpu.bat oder run_cpu.bat und machen Sie sich mit der vernetzten Knotenstruktur vertraut, die die KI-Bildgenerierung steuert.

Schritt 2: Verwenden von LoRAs in ComfyUI

Um Ihre Bilder weiter zu verbessern, klicken Sie mit der rechten Maustaste in die Nähe des Checkpoint-Knotens und wählen Sie „LoRA laden“.Ordnen Sie die Verbindungen zwischen den Knoten korrekt an, um den Datenfluss zu erleichtern und einen reibungslosen Ablauf während des gesamten Prozesses zu gewährleisten.

Häufig gestellte Fragen

Wie unterscheiden sich stabile Diffusion, DALL-E und Midjourney?

Alle drei KI-Systeme können Bilder aus Texteingaben erzeugen, aber nur Stable Diffusion ist völlig kostenlos und Open Source. Sie können es kostenlos auf Ihrem Computer installieren und ausführen, während DALL-E und Midjourney proprietäre Software sind.

Was genau ist ein Modell in stabiler Diffusion?

Ein Modell dient als Datei, die einen KI-Algorithmus verkörpert, der mit bestimmten Bildern und Schlüsselwörtern trainiert wurde. Verschiedene Modelle zeichnen sich durch die Generierung unterschiedlicher visueller Darstellungen aus. Einige sind beispielsweise für realistische menschliche Darstellungen optimiert, während andere besser für 2D-Illustrationen oder verschiedene künstlerische Stile geeignet sind.

Weitere Informationen

Weitere Ressourcen zu Stable Diffusion und seinen Funktionen finden Sie auf der offiziellen GitHub-Seite zu Stable Diffusion. Dort finden Sie die neuesten Updates und Beiträge der Community.

Zusammenfassung

Dieser Leitfaden behandelt die Funktionen von Stable Diffusion, beschreibt die Anforderungen und drei verschiedene Methoden zur Generierung von KI-Bildern – von Automatic1111 WebUI über Fooocus‘ vereinfachten Prozess bis hin zu den Anpassungsmöglichkeiten von ComfyUI. Nutzen Sie diese Techniken, um Ihrer Kreativität mit KI-generierten Bildern freien Lauf zu lassen.

Abschluss

Die Nutzung der Leistungsfähigkeit von Stable Diffusion revolutioniert Ihre Bildgestaltung. Nutzen Sie verschiedene Methoden und eine Fülle von Ressourcen und bereichern Sie Ihre künstlerischen Erkundungen mit KI.