Filtrado de contenido para imágenes NSFW.
Filtrado de contenido para imágenes NSFW.
Stable Diffusion es un filtro de imagen de aprendizaje automático de código abierto diseñado para identificar de forma rápida y precisa si una imagen contiene contenido que no es seguro para el trabajo (NSFW). Se alimenta con modelos de código abierto y se puede utilizar con cualquier imagen, no solo con imágenes generadas por IA.…
¿Cómo calificarías esta IA?
Ayuda a otras personas haciéndoles saber si esta IA fue útil.