На этой неделе у нас абсолютно безудержные новости. Начнем с самого веселого. Anthropic тут исследование провела и внезапно выяснила, что для «отравления» моделек нужно не предоставить для обучения некий процент некорректных исходных данных, а достаточно фиксированного количества. Примерно 250 штук. Почитайте исследование — крайне интересно.
Для тех, кто не в курсе: «отравление» — это намеренное вмешательство в набор данных для обучения с целью сместить выдаваемые моделью данные в какую либо сторону.
Ну, вроде бы страшно, но только в теории, да? Нет... Уже есть пример вполне успешной атаки на компанию, в том числе, с фактическим отравлением выдачи ChatGPT. Читать лучше самим, но я резюмирую: став модератором раздела Реддита (самый популярный в мире сайт, на секундочку), посвященного буткемпам для программистов, товарищ начал создавать посты о том, какая конкурирующая компания ужасная. Создал примерно 450 таких записей. Они пролились в ChatGPT, да и в целом их было много, и они были отрицательные. Показатели конкурента упали в ноль.
Поле для различных вредоносных действий, банальных манипуляций при наличии административного ресурса и прочих неприятностей просто огромное.
Разработчик поделился тем, как на интервью ему подсунули вредоносный код в надежде, что он его запустит. Он поделился этим в блоге и запрещённых соцсетях, где ему сказали, что это вообще уже почти стандартный вектор атаки и у некоторых товарищей уводили данные таким образом. Тяжело быть программистом.
Данные 70 000 человек, включая фото документов, утекли с платформы для общения Discord. А оказалось, это там всё из-за законов UK о верификации пользователей. Было бы здорово, если бы на таких ошибках законодатели учились, но это маловероятно.
Исследователи из университетов в Калифорнии и Мэриленде с помощью железок за 800 долларов перехватывали нешифрованные данные, передаваемые через спутники. В том числе и военные. Б — безопасность.
 
                            Оставьте свои контактные данные и наш специалист свяжется с вами в ближайшее время.