Nightshade отравляет данные, нарушая процесс обучения ИИ-моделей
2023-10-26 16:30:38
Исследователи из Чикагского университета разработали Nightshade — метод «отравления» данных, направленный на нарушение процесса обучения ИИ. Таким способом эксперты хотят помочь художникам и издателям защитить свои работы от использования для обучения генеративных ИИ, таких как Midjourney, DALL-E 3 и Stable Diffusion.
Подробнее https://xakep.ru/20...