Jürgen Schick schrieb:
>Manfred Polak schrieb am 03 Sep 2023:
>[Stable Diffusion]
>> Wenn man die Möglichkeiten von Stable Diffusion wirklich
>> ausschöpfen will, sollte man es jedenfalls auf dem eigenen
>> PC/Notebook installieren. Das ist reichlich komplex, aber
>> es gibt auch ausführliche Anleitungen [...]
>
>P.S.: Ja wenn, aber warum dazu mehrere GByte HD-Speicher abzweigen
>und zusätzlich Python installieren falls nicht?
Na ja, ich schrieb ja, "wenn man die Möglichkeiten von Stable Diffusion
wirklich ausschöpfen will". Wenn man das nicht will, dann braucht man
es natürlich auch nicht installieren. Wenn man es tut, dann gehen halt
auch Dinge wie Inpaint (siehe mein Nessie-Bild), Outpaint, beliebig
viele Bilder als Batch in einem Rutsch erzeugen, oder das Hochskalieren
von Bildern, die man zuvor mit niedriger Auflösung erzeugt hat, und
manches mehr.
Wenn man die letzten beiden Punkte kombiniert, kann man z.b. acht
oder zehn Bilder mit demselben Prompt in mittlerer Qualität erzeugen,
damit es nicht so lange dauert. Und dann nimmt man die zwei oder drei,
die einem am besten gefallen, und berechnet sie nochmal mit doppelter
oder dreifacher Auflösung. Es wird gelegentlich behauptet, dass das
gar nicht geht, aber es geht eben doch, wenn man weiß, wie (nämlich
mit der Option "Hires. fix", wenn man gleichzeitig die "Denoising
strength" auf einen niedrigen Wert setzt).
Und man kann neben den offiziellen Basismodellen von Stable Diffusion
beliebig viele weitere, die davon abgeleitet sind, verwenden. Und man
kann letztere auch selbst erzeugen. OK, ich nicht, da bräuchte ich
eine dickere Grafikkarte. Aber immerhin kann ich kleine Erweiterungen
zum Feintuning wie insbesondere LoRAs [1] selbst trainieren. AI-Wanger
beispielsweise ist in den derzeit kursierenden drei offiziellen Modellen
SD 1.5, 2.1 und XL überhaupt nicht vertreten. Aber dem kann ich leicht
abhelfen. 20 bis 30 Trainingsbilder reichen, zur Not auch 10. Auf meiner
relativ moderaten Nvidia RTX 3050 (8 GB Speicher, Preisklasse so
zwischen 200 und 300 Euro) ist ein auf SD 1.5 aufsitzendes LoRA in
weniger als einer halben Stunde trainiert. Das ist also nicht nur eine
theoretische, sondern eine ganz reale Option. Hab ich auch schon
gemacht (aber nicht mit AI-Wanger).
[1]
https://aituts.com/stable-diffusion-lora/
Und was die paar Gigabyte betrifft: Die Basismodelle SD 1.5 und 2.1
haben zusammen 10 GB, dazu kommt dann noch einiger Kleinkram
(auf SDXL kann man vorerst verzichten, ist IMHO noch nicht ganz
ausgereift, ich hab es aber trotzdem schon installiert). Vier oder fünf
Filme in FullHD von einer Mediathek runtergeladen, und der Platz ist
auch weg. Also, was soll's.
><BavarianHumour!> Womit könnte man an der LMU Stable Diffusion
>trainiert haben, wenn es mit AI-Wan&%$?%=NO_CARRIER, Donald T.,
>"Lower Bavaria" und "Bavarian Fish" das Bild eines um Jahrzehnte
>verjüngten, optisch theoretisch mit einem bayerischen Politiker
>verwandten Donald T.s plus einen fliegenden(!) Fisch generierte?
Wenn ich das richtig verstanden habe, wurde an der LMU "nur" der
Algorithmus entworfen, also die Architektur des neuronalen Netzwerks.
Das eigentliche Training lag wohl komplett in den Händen von
StabilityAI. Jedenfalls sind die Basismodelle SD 1.5, 2.1 und auch
noch SDXL stark angelsächsisch ausgerichtet. Deutsche "Celebrities"
sind nur vertreten, wenn sie auch in der englischsprachigen Welt
einen gewissen Bekanntheitsgrad besitzen (daran muss AI-Wanger
noch arbeiten...). Aber wie schon angedeutet, spricht technisch (und
auch rechtlich) nichts dagegen, ein von einem der Basismodelle
abgeleitetes Modell zu bauen, das mehr auf Deutschland oder Europa
ausgerichtet ist. Es müsste nur jemand machen. Und wenn man es
gut machen will, dann kostet das Zeit und Geld.
>> Gebt mir ein ... weia.
>
>Btw Tracklist des neuen Heino-Albums wäre z.B. zu finden via
>
https://www.jpc.de/s/heino+mal+laudaaa ... weia.
Also "Zehn nackte Friseusen" und "Finger im Po - Mexiko!" klingt
doch schon mal vielversprechend!
>Vor ein paar Jahren gab Country Joe McDonald (jünger als Heino)
>ein interessantes Interview zu seinem '69er Woodstock-Auftritt:
>
https://www.youtube.com/watch?v=4GD8qXInI00
Fuckin' good! :-Þ
Manfred