Палка у двух концах: Применение ИИ в сфере информационной безопасности
Согласно данным приведенных в совместном исследовании компаний Sapio Research и Deep Instinct, в 2023 году 75% основных мировых экспертов в области кибербезопасности отметили увеличение числа кибератак. Особенно 85% из них связали это с увеличением числа злоумышленников, применяющих генеративный Искусственный Интеллект.
Согласно прогнозам множества экспертов, доступ к новейшим технологиям предоставит злоумышленникам широкий спектр возможностей для ускоренной и более эффективной разработки новых вариантов вредоносного программного обеспечения и программ-вымогателей. В частности, исследователи выделяют использование масштабных лингвистических моделей для проведения фишинговых атак, а также применение технологии дипфейков для манипулирования людьми с использованием методов социальной инженерии.
Простой пример. Мошенничество с использованием дипфейков открывает дверь к новому измерению обмана. Используя передовые технологии и алгоритмы машинного обучения, злоумышленники создают дипфейки, чтобы обманывать и манипулировать людьми. В финансовой сфере дипфейки могут быть использованы для подтверждения биометрии с целью финансовых транзакций или звонков, обманывая компании и даже банки.
Как отмечает директор Национального координационного центра информационной безопасности (НКЦИБ) АО «Государственная техническая служба» Айдос Сулейменов, для экспертов, занимающихся информационной безопасностью, это уже давно не сенсация.
– Искусственный интеллект – это палка о двух концах, которая уже оказывает помощь специалистам по информационной безопасности в защите людей и компаний от злоумышленников. Однако, не без одного «но»….Хотя список угроз для компаний и граждан остается прежним, технические методы их реализации теперь изменены. Дипфейки, например, представляют собой обычные фейковые звонки. Однако, теперь искусственный интеллект используется в фишинговых атаках для автоматизации написания сообщений таким образом, чтобы они были более убедительными. Злоумышленники также применяют искусственный интеллект для поиска уязвимостей, что делает этот процесс более эффективным. Хотя все эти методы не являются новыми, использование искусственного интеллекта значительно ускоряет их выполнение, – отметил он.
В текущем году в Казахстане были зафиксированы случаи использования голосовых и видеодипфейков для мошенничества. Преступники создавали фальшивые сообщения с помощью нейронных сетей, используя записи голоса реальных людей в качестве образцов. В основном они подражали голосам высокопоставленных лиц в различных компаниях и государственных органов. Затем, сотрудникам с поддельных аккаунтов от имени руководства поступали голосовые сообщения, призывающие их выполнить определенные действия.
Принципиальное сравнение плюсов и минусов от ИИ для сферы информационной безопасности не приведет к однозначному вердикту. Так как ИИ представляет собой двойственный инструмент.
Какая польза? Автоматизация обнаружения угроз. ИИ способен анализировать огромные объемы данных за короткое время и выявлять необычное поведение, которое может указывать на кибератаки. Это позволяет обнаруживать и реагировать на угрозы быстрее, чем это может сделать человек.
Усиление защиты. ИИ используется для создания интеллектуальных систем безопасности, которые могут эффективно защищать компьютерные сети от вредоносных атак. Это включает в себя системы, которые могут быстро адаптироваться к новым угрозам и принимать предупреждения и решения без участия человека.
Прогнозирование угроз. ИИ может анализировать данные о предыдущих кибератаках и пытаться предсказать будущие угрозы. Это позволяет компаниям и организациям принимать меры по предотвращению атак до их возникновения.
А из вредного? Усиление кибератак. Применение ИИ может усилить мощь и эффективность кибератак. Киберпреступники могут использовать ИИ для создания более сложных и непроницаемых атак, что делает их обнаружение и борьбу с ними более сложными.
Автоматизация масштабных атак. Используя ИИ, злоумышленники могут создавать и выпускать масштабные кибератаки с минимальным участием человека. Это может привести к более серьезным последствиям и большему ущербу для жертв.
Проблемы конфиденциальности. Системы ИИ могут собирать и анализировать огромные объемы личных данных пользователей без их согласия. Это создает проблемы с конфиденциальностью и может привести к утечкам личной информации.
– Правильное использование может улучшить безопасность в интернете, но неправильное применение может привести к серьезным последствиям для общества. Стремление к балансу между пользой и риском является ключом к эффективному использованию ИИ в борьбе с киберпреступностью, – заключил Айдос Сулейменов.
Человечеству предстоит еще много работы впереди по согласованию совместного использования решений искусственного интеллекта и кибербезопасности не только с технической, но и с нормативно-правовой точки зрения.
Агадиль Адамбаев