Надежность нейронных сетей, Укрепляем устойчивость ИИ к обману, Уорр К., 2021.
Глубокие нейронные сети (DNN) становятся неотъемлемой частью IT-продуктов, провоцируя появление нового направления кибератак. Хакеры пытаются обмануть нейросети с помощью
данных, которые не смогли бы обмануть человека. Кэти Уорр рассматривает мотивацию подобных атак, риски, которые влечет вредоносный ввод, а также методы повышения устойчивости ИИ к таким взломам. Если вы специалист по data science, архитектор системы безопасности и стремитесь повысить устойчивость систем с ИИ или вас просто интересует различие между искусственным и биологическим восприятием, то эта книга для вас.
Понимание реальных угроз.
В части II рассмотрены математические и алгоритмические методы, с помощью которых можно создать входные данные, способные обмануть ГНС. В части III на примере этих методов вы увидите, с какими угрозами приходится иметь дело в реальных ситуациях, когда целевая ГНС входит в состав более крупной компьютерной системы. Такой более крупной системой может быть, например, устройство с голосовым управлением, программное обеспечение для фильтрации вебконтента или автономное транспортное средство. В главе 7 речь пойдет о том, какие методы может использовать злоумышленник для запуска вредоносной атаки в случае ограниченного доступа к целевой системе. Вы узнаете, что может усложнить (или упростить) для злоумышленника проведение атаки, а также ознакомитесь с существующими схемами атак: прямой, с копированием и с переносом. Будет также рассмотрен вопрос о том, может ли атака, созданная с расчетом на одну целевую систему, сработать против другой системы.
Краткое содержание.
Предисловие.
ЧАСТЬ I.ОБЩИЕ СВЕДЕНИЯ ОБ ОБМАНЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА.
Глава 1.Введение.
Глава 2.Мотивация к атакам.
Глава 3.Основные понятия ГНС.
Глава 4.ГНС-обработка изображений, аудио- и видеоданных.
ЧАСТЬ II.ГЕНЕРАЦИЯ ВРЕДОНОСНЫХ ВХОДНЫХ ДАННЫХ.
Глава 5.Базовые принципы вредоносных входных данных.
Глава 6.Методы генерации вредоносных искажений.
ЧАСТЬ III.ПОНИМАНИЕ РЕАЛЬНЫХ УГРОЗ.
Глава 7.Схемы атак прогив реальных систем.
Глава 8.Атаки в физическом мире.
ЧАСТЬ IV.ЗАЩИТА.
Глава 9.Оценка устойчивости модели к вредоносным входным данным.
Глава 10.Защита от вредоносных входных данных.
Глава 11.Дальнейшие перспективы: повышение надежности ИИ.
Приложение. Справочник математических обозначений.
Об авторе.
Об обложке.
Купить .
Теги: Уорр :: книги по программированию :: программирование :: нейросети
Смотрите также учебники, книги и учебные материалы:
- Осваиваем Ethereum, Создание смарт-контрактов и децентрализованных приложений, Антонопулос А., Вуд Г., 2021
- Объекты, Стильное ООП, Нобак М., 2023
- Облачные архитектуры, Разработка устойчивых и экономичных облачных приложений, Лащевски Т., Арора К., Фарр Э., Зонуз П., 2022
- Непрерывное развитие API, Правильные решения в изменчивом технологическом ландшафте, Меджуи М., Уайлд Э., Митра Р., Амундсен М., 2023
- Наглядный CSS, Сидельников Г., 2021
- Head First, Изучаем Swift, Мэннинг Д., Баттфилд-Эддисон П., 2023
- Микросервисы, От архитектуры до релиза, Митра Р., Надареишвили И., 2023
- Здесь должен быть текст, Профессиональный UX-райтинг, Меттс М.Д., Уэлфл Э., 2024