Podrán eliminar sus pinturas de las redes neuronales los Art

Stability AI ha anunciado que permitirá a los artistas eliminar su trabajo del conjunto de datos de entrenamiento en Stable Diffusion 3.0. Stability AI ejecutará solicitudes de rebote recopiladas en el sitio web Have I Been Trained (una base de datos de imágenes utilizadas para entrenar redes neuronales).

Para entender cómo debería funcionar el sistema de negativa a participar en Stable Diffusion 3.0, los expertos subieron carteles publicitarios de otras personas al sitio web Have I Been Trained y seleccionaron varias imágenes que deben abandonarse. Vale la pena señalar que después de la elección, el usuario no necesita confirmar la identidad ni ningún derecho legal sobre las imágenes.

Te puede interesar: Google lanza OSV-Scanner para buscar vulnerabilidades en proyectos de código abierto

Se han excluido las imágenes con casillas de verificación
Se han excluido las imágenes con casillas de verificación

Además, para eliminar una imagen del sistema de entrenamiento, ya debe estar en el conjunto de datos LAION. Actualmente, no es posible optar por no participar en grandes grupos de imágenes o múltiples copias de la misma imagen que pueden estar en un conjunto de datos.

Te puede interesar: El Tribunal de Apelación confirmó el bloqueo del sitio web del Proyecto Tor y del navegador Tor en Google Play

Durante el experimento, los investigadores de Arstechnica utilizaron una red neuronal para crear 7 fotos de un usuario ficticio de una red social. Usando estas 7 imágenes, la red neuronal aprendió a generar kompromat real en John.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *