miren qué maravillosa iniciativa contra la IA generativa:
Nightshade, una herramienta que convierte cualquier imagen en una muestra de datos no apta para el entrenamiento de modelos. Más precisamente, Nightshade transforma las imágenes en muestras tóxicas, de modo que los modelos que se entrenan con ellas sin consentimiento aprenden comportamientos impredecibles que se desvían de las normas esperadas. Por ejemplo, una solicitud que pide la imagen de una vaca volando en el espacio podría mostrar la imagen de un bolso flotando en el espacio.
Por favor hagamos que llegue a todas las personas ilustradoras y fotógrafas
https://nightshade.cs.uchicago.edu/index.html
@arteesetica
@IoannesEnsis @CorioPsicologia @tunubesecamirio @niasoler @naidajazmin8a @carissaveliz @segap_cgt @milamiceli
