Темная сторона ИИ: какие угрозы бизнесу несут джейлбрейки и дипфейки
Искусственный интеллект (ИИ) называют также «машинным обучением». Как злоумышленники учат нейросети плохому, рассказал «ЭГ» директор Глобального центра исследований и анализа угроз (GReAT) «Лаборатории Касперского» Игорь Кузнецов.
Два пути получения вредоносного результата от ИИ
Добиться от ИИ незаконных или неэтичных действий можно двумя способами. Первый — убедить легальную нейросеть обойти встроенные в ее алгоритмы ограничения (так называемый джейлбрейк). Второй — воспользоваться специально созданными продуктами в сегменте Dark Al — «теневого ИИ».
Что генерируют злоумышленники
Обычно преследуются три задачи:
-
генерация вредоносного кода;
-
подготовка фишинговых текстов;
-
создание дипфейков — поддельных видео и/или голосовых сообщений нужной персоны.
Платные Dark AI-сервисы
Легальные модели защищены, и их сложно заставить обойти ограничения: нужны хорошие навыки работы с промптами (запросами) в ИИ-чатах, знание особенностей нейросетей и их уязвимостей.
Поэтому появился спрос на Dark Al-сервисы, на которые можно оформить платную подписку. Операторы таких сервисов часто позиционируют их как инструменты для тестирования систем кибербезопасности.
На практике эти ресурсы значительно облегчают подготовку...