Rolismo ~Magia negra del tío Rojo~ Aprende a usar Stable Diffusion sin morir en el intento

Tema en 'Café Rolero' iniciado por Rojo FireRed, 27 Febrero 2023.

Cargando...
  1.  
    Rojo FireRed

    Rojo FireRed Orientador

    Acuario
    Miembro desde:
    12 Abril 2013
    Mensajes:
    1,553
    Pluma de

    Inventory:

    Escritor
    Yo, ahora que tengo su atención.

    Muy bien mi querida rolero gang, estoy mas que seguro que todos ustedes han oído, leído, o visto sobre esta obra del demonio diabólico que se llama STABLE DIFFUSION, ¿No?, algo que ha causao to' tipo de furor, pero que para nosotros aquí en este rinconcito vamos a usar para nuestros fines personales rolerísticos con gran efecto, lo que es una maldición pa uno es una bendición pa otro (?

    Pero weno, vamos a aprender a usar las artes arcanas de la magia negra que saca waifus y husbandos como Diosito manda, así que abróchense cinturones que vamos a todo dar en este crash course lmao.

    Pero ya va, Stable Diffusion es mas enfocado al fotorealismo, ¿Como haremos a nuestros pollitos anime? ¡Oh no, no podemos bruh!

    ...

    [​IMG]

    Una cosita increíble sobre Stable Diffusion es su modularidad, por lo que existen chorrocientos modelos a elegir y utilizar, y gran parte de los mismos están enfocados en anime, así que asquerosos weeaboos como nosotros podemos escribir chorradas y sacar monos chinos sin ningún esfuerzo (?

    Y lo mejor de todo...

    ¡Sin instalar ná de ná!
    Sin PC de la NASA, ni RTX4090, ni 32GB de RAM, ni almacenamiento infinito, nada, nein, none, con solo una cuenta de Google y un navegador.

    Rápido Disclaimer:


    Dada la naturaleza polémica de SD y afines con respecto a la generación del artwork, este hilo solo se ceñirá con fines informativos y educativos con respecto al uso, NO SE COMPARTIRÁ INFORMACIÓN SOBRE COMO ENTRENAR Y GENERAR MODELS, vuelvo y repito, sólo fines educativos, así mismo, cualquier duda será respondida mediante privado. Todo lo utilizado en esta guía está disponible abiertamente.

    Tengamos en cuenta que se ha generado un gran debate sobre si esto puede considerarse robo de arte, plagio, o en efecto éticamente incorrecto, sumando a ello acciones legales contra los creadores de Stable Diffusion, así que si decides continuar con esta guía, eres plenamente consciente de las implicaciones que conllevan el uso de IAs generadoras de imágenes, así que con cuidado y responsabilidad al respecto.

    Reiterando y dejando en claro, lo tratado en este hilo puede generar reacciones a favor y en contra, mi posición en general con respecto a esto es neutral y decido compartir esto en aras del aprendizaje para quienes se sienten interesados en el tema, no apruebo ni desapruebo el uso de lo establecido aquí presente, la idea es ser lo más objetivo posible con el tema.



    Configurando



    Así como lees, usaremos este lindo enlace de Google Colab para que no tengamos que descargar absolutamente nada, por otro lado, aquí encontraremos los models que usaremos para este tutorial, una vez abran este enlace nuestra atención estará enfocada en el modelo AbyssOrangeMix3.

    AOM3, como nos referiremos a este model de ahora en adelante, tiene unas variantes que podemos ver a continuación, las diferencias residen en el tipo de coloreado utilizado, y la profundidad del mismo, así que elegid el que mas les guste owo.

    Google Colab es totalmente gratuito, aunque como toda cosa gratis, tiene su pega, y es que tenemos un límite de uso de dos horas, normalmente dirás, pero dos horas son suficientes lol, y pues es suficiente, pero el proceso de generación es un tantito tardado ya que es un procedimiento de prueba y error básicamente constante, aunque es muy pero muy simple de solventar... Solo hay que usar una cuenta alternativa y listo, otras dos horas de magia negra (?

    Para poner en marcha el Colab, seguiremos una serie de pasos que si bien al principio pueden parecer confusos o extraños, son bastante simples.

    De inicio, una vez logeados en nuestra cuenta de Google, haremos click a ese par de botones, esto nos instalará en la sesión, toda la interfaz de usuario y los componentes internos de Stable Diffusion para su funcionamiento, de la misma manera, como se puede apreciar, el colab a utilizar hace uso de la GUI creada por AUTOMATIC1111, que en mi opinión personal es la mejor (?

    [​IMG]

    Ya teniendo esto listo por aquí, haremos la siguiente serie de pasos pasos para elegir el modelo que utilizaremos:

    [​IMG]
    [​IMG]
    [​IMG]
    [​IMG]


    Aquí pues en esta última podemos apreciar varios modelos, podéis hacer click en cualquiera que deseen, en mi caso para ejemplo, utilizaré el AOM3.safetensors, lo que les interesa es el paso a continuación:

    [​IMG]

    Es muy importante que copiemos y peguemos el enlace que está marcado en rojo, ya que este es el model personalizado que utilizaremos en el Colab, una vez que lo tengamos copiado regresamos al Colab.

    MUY IMPORTANTE, primero pegamos el link que traemos de Huggingface en el apartado que dice MODEL_LINK, luego de eso tildamos el recuadro que dice Safetensors, y de último ejecutamos el código dando click al botón de play, si dejamos Safetensors sin tildar, no se descargará el model.

    [​IMG]

    Por el momento ignoraremos el apartado de ControlNet, no lo he probado ni he tenido el tiempo de hacerlo, así que checamos Use_localtunnel y damos play.

    [​IMG]

    El proceso de arranque de Stable Diffusion puede tardar un tanto dependiendo del tamaño de los models, como estos del ejemplo son mas nuevos y livianos, en mas o menos un minuto tienen la celda ejecutándose.

    [​IMG]

    IMPORTANTE: Para abrir la intefaz de SD tenemos que hacer click en ese enlace, el nombre del mismo varía automáticamente y nunca será el mismo, así como a veces el protocolo tiene hincadas en las posaderas y no funca, así que en dado caso, detenemos la celda (Donde está el botón de Stop) e intentamos de nuevo, en dado caso que no les funcione, desactivan el Localtunnel, ejecutan y tendrán lo siguiente:

    [​IMG]

    Una vez que sigamos el enlace independientemente de lo que nos arroje, seremos recibidos por esta interfaz... voilá!

    [​IMG]


    Ya estamos en las entrañas de Stable Diffusion, aunque tenemos que hacer unos ajustitos antes de empezar, así que primero nos vamos a Settings...

    [​IMG]

    Stable Diffusion, bajamos y ponemos el Clip Skip en 2....

    [​IMG]


    Luego clickamos Sampler Parameters y anotamos 31337 en el recuadro debajo de Eta Noise Seed Delta

    [​IMG]

    IMPORTANTE, subimos y damos Apply Settings, luego clickamos txt2img, esto nos devolverá a la interfaz inicial.

    [​IMG]





    Generando Imágenes

    Bien, para los mejores resultados recomiendo usar los siguientes ajustes:
    DPM++ 2M Karras - Sampling Steps 28

    [​IMG]
    [​IMG]


    Ya que tenemos todo ajustado, ahora pondremos nuestra atención en el CFG Scale y lo llevaremos a 8 para mejores resultados, a menor escala, sacará imágenes menos apegadas a lo que queremos, si lo subimos mucho, se ceñirá al punto, pero generará imágenes distorsionadas, así que hay que establecer un punto medio, para empezar, recomiendo dejarlo en 8. Añadiendo, estos models utilizan el sistema de indexado de Danbooru, así que si queremos establecer un prompt lo ideal es escribir los tags de Danbooru correspondientes.

    [​IMG]

    Ahora como pueden notar, hay dos grandes cuadros que rezan Prompt y Negative Prompt, y en el prompt negativo pondremos lo que estará en el siguiente spoiler, de modo que quede así, de la misma manera lo que está en el prompt positivo para empezar, así mismo, ajustaré el slider de altura (Height) a 768 para generar una imagen en vertical:

    [​IMG]

    nsfw, (worst quality, low quality:1.4), (lip, nose, tooth, rouge, lipstick, eyeshadow:1.4), (blush:1.2), (jpeg artifacts:1.4), (depth of field, bokeh, blurry, film grain, chromatic aberration, lens flare:1.0), (1boy, abs, muscular, rib:1.0), greyscale, monochrome, dusty sunbeams, trembling, motion lines, motion blur, emphasis lines, text, title, logo, signature,
    masterpiece, best quality, deep eyes,
    El prompt que usaré para probar es el siguiente:
    masterpiece, best quality, deep eyes, 1girl, solo, original, bob cut, short hair, blunt ends, blunt bangs, black hair, green eyes, ahoge, t-shirt, pink shirt, jacket, letterman jacket, upper body, smile, medium breasts, indoors,

    Una vez tengamos listo lo que vamos a escribir pinchamos es enorme botón naranja que dice GENERATE y esperamos... ¡y tenemos resultado!

    [​IMG]

    Sin embargo, esto es la mitad del trabajo, ya que pues podemos ver una imagen un tanto cruda, así que vamos a retocarla con estas opciones, vamos a pinchar el recuadrito que reza Hires.fix y tendremos una serie de nuevas configuraciones.

    [​IMG]


    Para tener los mejores resultados, lo configuramos de la siguiente manera, de extra, les explicaré, para repetir esa misma imagen que acabamos de generar, pincharemos el ícono con el símbolo de reciclaje, esto nos dará un número en ese recuadro de al lado y una vez puesto, subimos y generamos de nuevo:

    [​IMG]

    Este procedimiento generará la imagen dos veces, y de extra, le hará upscale, duplicando su resolución, con lo que podemos ver ahora un excelente resultado.

    [​IMG]

    ¡Y así de simple! Todo esto es de experimentar y hacer mame con el generador, además, de utilizar el sistema de tags de Danbooru, así que lo mejor es pasarse, ver y utilizarlos.

    EDIT RÁPIDO: Estos models son muy propensos al horny, así que mantener NSFW como prompt negativo lo eliminará, ahora, aplicad la inversa si buscaís el smut (?
    Por cierto, utilizable desde teléfonos también uwu
    Si buscáis generar pibes, eliminar el 1boy del prompt negativo ahre

    00005-2026065311.png


     
    Última edición: 1 Marzo 2023
    • Ganador Ganador x 7
    • Fangirl Fangirl x 3
    • Impaktado Impaktado x 2
    • Informativo Informativo x 2
  2.  
    madarauchiha

    madarauchiha Gracias Andy!!! TWT Orientador Game Master

    Aries
    Miembro desde:
    3 Abril 2020
    Mensajes:
    1,965
    Pluma de

    Inventory:

    Escritor
    ¡Interesante! <3
     
    • Fangirl Fangirl x 1
  3.  
    Kaisa Morinachi

    Kaisa Morinachi Crazy goat

    Tauro
    Miembro desde:
    20 Julio 2015
    Mensajes:
    6,296
    Pluma de

    Inventory:

    Escritora
    No voy a leer todo ahora, pero déjame decir que admiro le empeño que le has puesto al tutorial XD Sé te quiere, rojito uwu
     
    • Fangirl Fangirl x 3
  4.  
    madarauchiha

    madarauchiha Gracias Andy!!! TWT Orientador Game Master

    Aries
    Miembro desde:
    3 Abril 2020
    Mensajes:
    1,965
    Pluma de

    Inventory:

    Escritor
    Ohoho! y tanto que se le quiere, te debemos mucho rojito <3
     
    • Adorable Adorable x 1
    • Fangirl Fangirl x 1
  5.  
    Yugen

    Yugen D e p r e s s e d | m e s s

    Piscis
    Miembro desde:
    25 Mayo 2013
    Mensajes:
    5,616
    Pluma de

    Inventory:

    Escritora
    Oh, ¿es como NAIFU?

    Aunque el acabado es mucho más profesional.
     
    • Fangirl Fangirl x 3
    • Adorable Adorable x 1
  6.  
    Rojo FireRed

    Rojo FireRed Orientador

    Acuario
    Miembro desde:
    12 Abril 2013
    Mensajes:
    1,553
    Pluma de

    Inventory:

    Escritor
    Bueno, Naifu es un fork de una build filtrada de NovelAI, no está mal, pero en general los models nuevos que están en Huggingface tienen mejores acabados si, y son más flexibles, por lo menos la interfaz de AUTOMATIC1111 es mejor en el sentido de que hace una imagen terminada en una sola pasada, básicamente el Generate más Enhance de Naifu uwu
     
    Última edición: 27 Febrero 2023
    • Fangirl Fangirl x 1
  7. Threadmarks: UPDATE: Todavía mas técnico nos vamos a poner pa sacarle el mayor provecho ahre
     
    Rojo FireRed

    Rojo FireRed Orientador

    Acuario
    Miembro desde:
    12 Abril 2013
    Mensajes:
    1,553
    Pluma de

    Inventory:

    Escritor




    Muy bien gentecita bella, si bien cubrimos un aspecto bastante importante de como hacer funcionar el cacharro, aún quedan algunos detallitos por elaborar así como unos tips muy útiles a la hora de generar (?

    Muy bien, empezaremos con dos puntillos:
    • Textual Inversion
    • VAE
    Textual Inversion, para nuestro uso, se referirá a un set de datos específicamente entrenados en un model y usará esos resultados en las generaciones que haremos, y que por lo general puede ayudarnos a refinar aún mas las imágenes producidas.

    El VAE es un Variable Auto Encoder, en corto, una red neuronal igualmente entrenada en un model específico y que en conjunto con el mismo puede producir un resultado de mayor calidad, si bien el fin del VAE es el mismo que el del Textual Inversion, que es aumentar la calidad y el detalle de los resultados, el método a utilizar es distinto y pueden utilizarse en conjunto para generar imágenes de aún mayor calidad, en resumen:
    • Textual Inversion trabaja en base a los prompts, y son un set de datos algo limitado
    • El VAE es un añadido para los models que hay que cargar desde la interfaz, de la misma manera, el VAE aporta mas datos para la producción de la imagen.
    En conjunto, estos dos extras, además de elevar la calidad, disminuye la probabilidad de errores propios de la difusión latente, como por ejemplo (y mas infame) las manos deformes y con dedos excesivos, si bien no los erradica por completo, se reduce la aparición de estas deformidades.

    En el caso del Textual Inversion, utilizaremos EasyNegative, mientras que en el caso del VAE, utilizaremos uno proporcionado en el índice de los models ya compartidos anteriormente, ahora les enseñaré como añadirlos, los enlaces en el siguiente spoiler:


    Abriremos el enlace de Colab compartido anteriormente, y haremos los pasos establecidos anteriormente hasta la carga del model, y como no hay una opción para cargar estos archivos, nos ensuciaremos las manos y añadiremos una celda de código de la siguiente manera:

    [​IMG]

    Recomiendo crear la celda abajo de la celda de carga de modelos y antes de la de ControlNet, una vez tengamos la celda, escribiremos el comando !wget y pegaremos los links, esto es individual, así que un comando !wget para el VAE, y otro en la línea de abajo para la Textual Inversion, de modo que quede así:

    [​IMG]


    Una vez se vea así, ejecutamos la celda en el botón Play, y ahora nos meteremos con el gestor de archivos, por lo que seguiremos la ruta que les marcaré a continuación para llegar a los archivos descargados:

    [​IMG]
    [​IMG]


    Ya llegando ahí, nos toparemos con los archivos que descargamos en la misma carpeta que el model, y tendremos que arrastrar y mover los archivos a sus carpetas correspondientes, el orangemix.vae.pt irá a la carpeta VAE, y el EasyNegative a la carpeta Embeddings, de manera que todo acomodado luzca así:

    [​IMG]


    Una vez estemos en la interfaz, cargaremos el VAE, de la siguiente manera:

    [​IMG]

    [​IMG]
    [​IMG]


    IMPORTANTE: Desmarcar el recuadro que reza Ignore selected VAE for stable diffusion checkpoints that have their own .vae.pt next to them, es el que está debajito así que no tiene pérdida

    Y damos Apply Settings.... ¡Y tenemos el VAE cargado! Ya podemos regresar a la interfaz inicial en txt2img, ahora, ya vamos con el procedimiento para el Textual Inversion, que está un tantito mas escondido.

    [​IMG]
    [​IMG]


    Una vez tengamos este recuadro, clickaremos el prompt negativo y luego el recuadro de EasyNegative, y lo tendremos ya como prompt negativo, muy importante que esté en el de debajo, ya que es un archivo generado para el prompt negativo, ¡Ya podemos darle Close y empezar a generar!


    [​IMG]

    ¡Es mas, solo miren la subida de calidad con respecto al model base, y sin meter el Hires.fix aún!

    Como lo pueden notar, estos dos ajustes extra pueden suponer una ayuda enorme a la hora de añadir aún mas calidad a las ilustraciones, es mas, les dejaré una comparativa en los siguientes spoilers y juzgad ustedes mismos:

    00010-3957285701.png
    00012-3957285701.png




    Consideraciones Extra:

    Estos Models SÍ pueden generar fanart, solo asegúrense de que el personaje que deseen utilizar tenga una cantidad elevada de ilustraciones en los boorus, si no, pues valieron pepino lol, solo basta el tag de personaje así que no habría que describirlo al pelo con el prompt, dejando valioso espacio libre para el resto del prompt.

    00004-2847610969.png


    Así mismo, son increíbles para la generación de fondos y paisajes, pueden ser un poco, mejor dicho, demasiado random, pero aún así muy recomendados para el uso en roles aquí ahre (?

    [​IMG]
    [​IMG]


    Como nota final, el uso de los paréntesis en un tag es muy importante en caso de que no les salga algo que deseen, buscaremos ese tag faltante y le pondremos paréntesis en sus lados, cada paréntesis eleva la importancia de dicho tag en el prompt en un 10%, así que usar acorde, muchos paréntesis pueden descarrilar la generación de la imagen, recomiendo usar a lo mucho tres a cuatro paréntesis, es la cantidad idónea de énfasis que se le puede hacer, así mismo, se pueden utilizar en el prompt negativo para limpiar la imagen de algo que no queremos.

    Stay tuned para mas información, este hilo está en actualización cuando trastee del todo con esto uwu.

     
    • Ganador Ganador x 2
    • Informativo Informativo x 2
    • Adorable Adorable x 1
  8.  
    Amane

    Amane Equipo administrativo Comentarista destacado fifteen k. gakkouer

    Piscis
    Miembro desde:
    10 Julio 2013
    Mensajes:
    15,865
    Pluma de

    Inventory:

    Escritora
    Hey, rojo, entiendo que estás copiando la lista de etiquetas de roleros pero agradecería que a mí no me etiquetases más en este tema. Estoy bastante en contra del uso de IAs para hacer imágenes, porque básicamente hacen el trabajo a base de robarle a artistas humanos, y honestamente, preferiría no tener nada que ver con un tema que trata de promocionarlo; no lo siento moralmente correcto y no me gusta.

    Aparte, creo que las personas que estén interesadas ya lo habrán visto y no es necesario etiquetar de nuevo en otro mensaje, porque el que no quiera, no va a participar por mucho que lo etiquetes.

    Thanks.
     
    • Ganador Ganador x 5
    • Me gusta Me gusta x 1
  9.  
    Zireael

    Zireael Equipo administrativo Comentarista empedernido

    Leo
    Miembro desde:
    27 Agosto 2011
    Mensajes:
    10,031
    Pluma de

    Inventory:

    Escritora
    Me sumo a Gabi y por los mismos motivos. Por si lo puedes tener en cuenta para que no me etiquetes tampoco si vas a seguir con las guías, por favor y gracias
     
    • De acuerdo De acuerdo x 2
    • Ganador Ganador x 2
    • Me gusta Me gusta x 1
  10.  
    Gigi Blanche

    Gigi Blanche Equipo administrativo Game Master

    Piscis
    Miembro desde:
    1 Abril 2019
    Mensajes:
    6,995
    Pluma de

    Inventory:

    Escritora
    Heyo. Le estuve dando vueltas al asunto desde que vi que posteaste el tema, y hace un ratito hablándolo con Gabi resolví por fin cómo tratarlo.

    Adhiero a que las IAs de generación de imágenes me parecen ética y moralmente incorrectas por cualquier cantidad de razones. Eso no significa que vaya a detener a otras personas de usarlas, pero sí considero que, aún a día de hoy, las personas usan las IAs con un gran desconocimiento de su funcionamiento base. Therefore, si vas a promocionar una IA Rojo FireRed te voy a pedir, en calidad de moderadora, que en el primer post agregues un breve disclaimer donde expliques estas cuestiones. Que, dicho sea de paso, espero y confío que tú también eres consciente. No sólo de las implicancias éticas, sino de que los creadores de Stable Diffusion fueron demandados recientemente.

    Todos podemos andar de ilegales, aquí nadie es un santo, pero creo que sí es importante que la gente lo sea sabiendo que lo está siendo.

    Eso sería todo, Rojito.
     
    • Ganador Ganador x 6
  11.  
    Kaisa Morinachi

    Kaisa Morinachi Crazy goat

    Tauro
    Miembro desde:
    20 Julio 2015
    Mensajes:
    6,296
    Pluma de

    Inventory:

    Escritora
    Solo diré que kinda funny negarse a las IA cuando varios acá hacemos edit con dibujos que no son de nuestra autoría y pocas veces se dan los respectivos créditos.

    En cualquier caso, la decisión siempre será individual y cada quién es libre de no hacer lo que no les gusta.


    Por mi parte, agradezco mucho por enseñar a usar lo mejor posible algo como las IAs, son re complicadas XD Aunque... sí voy a evitar usarlas.

    Y para ser aún más consecuente, al tener las habilidades crearé mejor personajes de cero que tomando un random anime de internet
     
    Última edición: 15 Mayo 2023
    • Borrashooo Borrashooo x 1
    • En desacuerdo En desacuerdo x 1
Cargando...

Comparte esta página

  1. This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
    By continuing to use this site, you are consenting to our use of cookies.
    Descartar aviso