Hvad er stabil diffusion, hvordan man installerer og bruger den

billeder genereret med stabil diffusion

Dette er en guide til at lære om stabil diffusion og lære, hvordan du kan bruge dette værktøj.

Billedet ovenfor er genereret med stabil diffusion. Det er blevet genereret ud fra følgende tekst (prompt)

Byens skyline med skycrapers, af Stanislav Sidorov, digital kunst, ultrarealistisk, ultra detaljeret, fotorealistisk, 4k, karakterkoncept, blødt lys, blade runner, futuristisk

Stable Diffusion er en tekst-til-billede maskinlæringsmodel. En dyb læringsmodel, af kunstig intelligens, der giver os mulighed for at generere billeder fra tekst, som vi sætter som input eller input.

Det er ikke den første model eller det første værktøj i denne stil, lige nu er der meget snak om Dall-e 2, MidJourney, Google Image, men det er det vigtigste på grund af, hvad det repræsenterer. Stable Diffusion er et Open Source-projekt, så alle kan bruge og ændre det. I version 1.4 har vi en 4G .cpxt fil, hvor hele den præ-trænede model kommer fra, og det er en sand revolution.

Så meget, at vi på kun 2 eller 3 uger siden udgivelsen finder plugins til PhotoShop, GIMP, Krita, WordPress, Blender osv. stort set alle værktøjer, der følger med billeder, implementerer Stable Diffusion, så meget, at selv konkurrenter som Midjourney bruger det til at forbedre deres værktøjer. Men det bruges ikke kun til at generere værktøjer, men vi kan som brugere installere det på vores pc og køre det for at få billederne lokalt.

For udover at være Open Source betyder det ikke, at det er mindre kraftfuldt end de tidligere. Det er et sandt vidunder. For mig lige nu er det det bedste værktøj, vi kan bruge, hvis vi vil generere vores billeder til ethvert projekt.

Måder at installere og bruge stabil diffusion

Der er forskellige måder at bruge det på. Lige nu anbefaler jeg 2. Hvis din computer har den nødvendige strøm, det vil sige et grafikkort med omkring 8Gb RAM, så installer det på din computer. Hvis din hardware ikke er kraftig nok, brug en Google Collab, lige nu anbefaler jeg Altryne, fordi den kommer med en grafisk grænseflade og er nemmere at bruge.

trin til detaljer.

Colab af Altryne

Dette er den mulighed, jeg anbefaler, hvis din computer ikke er kraftig nok (GPU med 8 Gb RAM), eller hvis du vil prøve den med alle dens funktioner uden at skulle installere noget.

Jeg anbefaler det, fordi det har en meget behagelig grafisk grænseflade med mange muligheder for at styre billederne og andre modelværktøjer såsom billede til billede og opskalere.

Vi bruger Google colab skabt af Altryne og Google Drev for at gemme modellen og resultaterne.

Det hele er gratis. Jeg efterlader en video af hele processen, der som du vil se er meget enkel.

Installer på pc

For at installere det fra pc kan du følge instruktionerne givet i dets GitHub, https://github.com/CompVis/stable-diffusion eller i sin version med grafisk interface, som jeg holder meget mere af https://github.com/AUTOMATIC1111/stable-diffusion-webui og på Windows og Linux kan du bruge denne eksekverbare til at installere den Stabil Diffusion UI v2

Du ved allerede, at du har brug for en kraftig GPU med minimum 8 Gb RAM, for at den kan fungere problemfrit. Du kan få det til at trække CPU, men det er meget langsommere, og det vil også afhænge af den processor du har. Så hvis dit udstyr er gammelt, bliver du nødt til at resignere med at bruge Colab eller en anden betalingsmetode for at bruge Stable Diffusion

Fordelene ved at have det på din pc er, at det er meget hurtigere at bruge, du behøver ikke installere eller konfigurere noget, bare at gøre det én gang er nok, fra da af går alt meget hurtigere.

En anden grund til, at jeg holder meget af det, er, at jeg kan integrere det i andre scripts og drage fordel af de genererede billeder ved at indsætte dem direkte i opgavernes arbejdsgang, hvilket er et meget vigtigt punkt.

Officielle Collab Diffusers

Den minder meget om Colab, som jeg har anbefalet ovenfor, den kører næsten det samme, du behøver IKKE at uploade modellen, men den har ikke en grafisk grænseflade og for at ændre enhver mulighed skal du ændre kodens muligheder blokke og modificere dem for at tilpasse det til det, vi har brug for.

Derudover kan vi ikke bruge billedet til billede-indstillingen, hvilket er meget attraktivt.

Du kan få adgang herfra https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/stable_diffusion.ipynb

Vi har et filter til voksne billeder, det berømte NSFW, men du kan deaktivere det ved at bruge denne kode, dvs. oprette en celle i dokumentet med

def dummy_checker(images, **kwargs): return images, False
http://pipe.safety_checker = dummy_checker

Du skal sætte den lige efter cellen

pipe = pipe.to("cuda")

og kør det

Colab Stable Diffusion Infinity

I denne Colab kan vi bruge Infinity-værktøjet, som giver os mulighed for at færdiggøre billeder. Opret indhold fra det eksisterende billede. Et rigtigt pas.

https://colab.research.google.com/github/lkwq007/stablediffusion-infinity/blob/master/stablediffusion_infinity_colab.ipynb#scrollTo=lVLSD0Dh0i-L

Dreamboth med stabil diffusion

Dette er implementeringen af ​​Googles Dreamboth med stabil diffusion, der tillader, fra et par billeder af en person, at opnå personlige resultater med det ansigt, som demoerne.

En fantastisk måde at tilpasse billeder på

https://github.com/XavierXiao/Dreambooth-Stable-Diffusion

Andre Colabs

Du ved allerede, hvordan du arbejder i Colab, godt jeg vil efterlade dig andre, som jeg finder, så du kan bruge den, du bedst kan lide. Selv hvis du vil, kan du lave en kopi og ændre den til din smag for at få din egen version

Fra dens officielle hjemmeside

En simpel måde at bruge det på, som hvis du bruger Dall-e 2 i OpenAI, men hvis du bruger platformen er tjenesten betalt. https://stability.ai/

Fra HuggingFace

En interessant mulighed for at teste det hurtigt og tage nogle billeder, bare for at se, hvordan det virker, men der er mange muligheder, som vi vil bruge, hvis vi skal gøre alvor af dette.

https://huggingface.co/spaces/stabilityai/stable-diffusion

Bruger AWS eller en anden cloud-tjeneste

Stable Diffusion-modellen kan bruges ved at køre den på hardware i skyen, en klassisk tjeneste er Amazons AWS. Lige nu tester jeg med EC2-instanser for at arbejde med forskellige algoritmer. Jeg skal fortælle dig, hvordan det er.

Andre betalingstjenester

Der er mange, og flere og flere dukker op, lige fra implementeringer i stockfotos til hjemmesider, der giver os mulighed for at integrere med API'er. I øjeblikket har dette fanget min opmærksomhed, selvom jeg personligt vil bruge de gratis tjenester

Værktøjer til hurtig konstruktion

Den tekniske prompt er den del, der refererer til genereringen af ​​prompten, det vil sige den sætning, som vi fodrer modellen med, så den genererer vores billeder. Det er ikke et trivielt problem, og du skal vide meget godt, hvordan du bruger det for at opnå fantastiske resultater.

Et meget nyttigt værktøj til at lære er leksikon, hvor vi ser billeder og den prompt, de har brugt, frøet og vejledningsskalaen.

Når du kigger rundt, vil du lære, hvilken type elementer du skal tildele til prompten for at opnå den type resultat, du leder efter.

Efterlad en kommentar