Te contaré sobre la imagen de AI webui (difusión estable)
¡Hoy te guiaré el sitio que dibuja la imagen de forma gratuita con AI!
¡Puedes dibujar una imagen muy fácilmente!
Webui (difusión estable)
La AI de estabilidad, lanzada el 22 de agosto de 2022, es un modelo de IA que convierte el texto en una imagen. Este modelo se distribuye como una licencia de código abierto, lo que permite que una variedad de usuarios lo usen libremente. Cuando ingresa el texto, la AI de estabilidad crea una imagen de alta calidad basada en ese texto.
Dirección web :
https://stability.ai/
Característica:
La difusión estable es un modelo de inteligencia artificial de aprendizaje profundo desarrollado basado en la "investigación de síntesis de imágenes de alta resolución" por el laboratorio de Machine Vision & Learning Group (COMPVIS) en la Universidad de Munich en Munich, Alemania. Se ha desarrollado con el apoyo de la estabilidad IA y la pista de pasarela.
Stability AI es una compañía británica llamada Emad Mostaque, que proporciona recursos informáticos para la difusión estable, lo que le permite aprender una base de datos LAION-5B. A diferencia de los modelos de texto a imagen como Dall-E 2 o Imagen, este modelo también se puede usar en computadoras con VRAM de 4 GB o menos al reducir en gran medida los recursos informáticos.
Además, incluso si es costoso, está abierto al código abierto y puede ser utilizado por el público en general. Esto ha abierto la edad de pintura de IA, y la función del servicio de imagen de IA basada en el modelo continúa aumentando.
Puede usar el plug -in "Controlnet" para hacer una pose. Además, al usar varios modelos auxiliares de ControlNet, como el modelo astuto derivado de OpenPose, ajusta los cultivos del área del cuerpo para ayudar al bosquejo del nivel de la línea.
La difusión estable se compone principalmente de tres redes neuronales artificiales: clip, unlo y vae (VAE). Cuando el usuario ingresa al texto, el codificador de texto, clip, convierte el texto en el token que Unet puede entender. Unet crea una imagen al eliminar el ruido generado aleatoriamente basado en tokens. Repetir el proceso de dinomera crea una imagen precisa, y el VAE juega un papel en la conversión de estas imágenes a píxeles.
A diferencia del modelo de creación de imágenes de probabilidad de difusión tradicional, la difusión estable ha introducido el incodificador Otto antes y después para resolver el problema de que el consumo de recursos aumenta a medida que aumenta la resolución. Esto le permite crear una imagen de resolución relativamente grande manipulando el ruido en un pequeño nivel de espacio potencial, no toda la imagen, y no requiere muchos recursos informáticos. Por lo tanto, la diferencia estable se puede utilizar como un recurso de tarjetas gráficas utilizadas en supuestos generales.
Licencia:
Stable AI introdujo una licencia de código abierto [4] para el nuevo aprendizaje automático. Esta licencia tiene una característica diferente de la licencia de código abierto habitual. Si proporciona un servicio utilizando difusión estable, el usuario debe cumplir explícitamente con esa licencia. Además, al ajustar el modelo del modelo, debe usarse solo para el uso específico especificado en la licencia, y no debe usarse para otros fines.
Cómo utilizar :
Se han desarrollado varios proyectos de código abierto utilizando difusión estable. A continuación se muestra una descripción de cada proyecto:
1. UI web de difusión estable: un proyecto que proporciona una interfaz de usuario basada en la web para facilitar el uso del modelo de difusión estable. Los desarrolladores continúan actualizando y agregando una variedad de características, como la corrección GFPGAN, la escala de ESRGAN e inversión textual, además de la función frontal de la difusión estable.
2. Autor original: el proyecto original publicado por CompVis. La usabilidad es limitada, por lo que se puede usar para fines de referencia.
3. Difusores: este es un marco para el nuevo modelo de difusión proporcionado por Herging Face, un famoso proveedor de marco de aprendizaje automático. Proporciona una forma de hacer fácilmente el finetuneng de la difusión estable. También incluye marcos como transformadores o conjuntos de datos.
4. DiFessBee: puede ejecutar la diferencia estable directamente con la aplicación para el Mac. Es posible ingresar texto e imágenes, y también admitir funciones de pintura y venta de avance. La versión Apple Silicon utiliza un motor neuronal dentro de Apple Silicon, y la versión HQ utiliza la GPU para aumentar la calidad, pero la velocidad es lenta. También es compatible con Intel Mac y admitirá Windows en el futuro.
5. Dibuje cosas: puede ejecutar difusión estable con aplicaciones para iOS, iPados y macOS. Admite tres modos: CPU + GPU, CPU + Motor Neural, CPU + GPU + Motor Neural (TLE). Puede usar CheckPoint, Lora, inversión textual, etc., y ofrece una característica similar a WebUI. La función de expansión no es compatible, y debido a las limitaciones de la capacidad de memoria, la aplicación a menudo puede terminar debido a la falta de memoria si se ejecuta más de una cierta resolución en dispositivos antiguos y nuevos.
6. Riffusion: este es un ejemplo de aplicarlo a la composición de AI usando el espectrograma.
7. Plato dentro de la galería de imágenes de IA: hemos abierto una galería dedicada que puede crear imágenes de IA utilizando el servicio de Civitai.
Los proyectos anteriores utilizan la difusión estable para crear imágenes de IA en varias funciones y entornos.
Comentarios
Publicar un comentario