Filtrado de contenido para imágenes NSFW.
Filtrado de contenido para imágenes NSFW.
Stable Diffusion es un filtro de imagen de aprendizaje automático de código abierto diseñado para identificar de forma rápida y precisa si una imagen contiene contenido que no es seguro para el trabajo (NSFW). Se alimenta con modelos de código abierto y se puede utilizar con cualquier imagen, no solo con imágenes generadas por IA. La herramienta proporciona una interfaz de usuario sencilla, permitiendo a los usuarios cargar o arrastrar y soltar imágenes PNG o JPG de hasta 50MB de tamaño. El verificador de seguridad está mal documentado, pero se puede modificar con unos pocos cambios. La herramienta está construida…
¿Cómo calificarías esta IA?
Ayuda a otras personas haciéndoles saber si esta IA fue útil.