Anthropic: для отравления LLM достаточно 250 вредоносных документов в обучающих данных
2025-10-13 08:30:57
Специалисты компании Anthropic, совместно с Институтом безопасности ИИ при правительстве Великобритании, Институтом Алана Тьюринга и другими академическими учреждениями, сообщили, что всего 250 специально подготовленных вредоносных документов достаточно, чтобы заставить ИИ-модель генерировать бессвязный текст при обнаружении определенной триггерной фразы.
Подробнее https://xakep.ru/2025...