Палка у двух концах: Применение ИИ в сфере информационной безопасности

Палка у двух концах: Применение ИИ в сфере информационной безопасности

Согласно данным приведенных в совместном исследовании компаний Sapio Research и Deep Instinct, в 2023 году 75% основных мировых экспертов в области кибербезопасности отметили увеличение числа кибератак. Особенно 85% из них связали это с увеличением числа злоумышленников, применяющих генеративный Искусственный Интеллект.

Согласно прогнозам множества экспертов, доступ к новейшим технологиям предоставит злоумышленникам широкий спектр возможностей для ускоренной и более эффективной разработки новых вариантов вредоносного программного обеспечения и программ-вымогателей. В частности, исследователи выделяют использование масштабных лингвистических моделей для проведения фишинговых атак, а также применение технологии дипфейков для манипулирования людьми с использованием методов социальной инженерии.

Простой пример. Мошенничество с использованием дипфейков открывает дверь к новому измерению обмана. Используя передовые технологии и алгоритмы машинного обучения, злоумышленники создают дипфейки, чтобы обманывать и манипулировать людьми. В финансовой сфере дипфейки могут быть использованы для подтверждения биометрии с целью финансовых транзакций или звонков, обманывая компании и даже банки.

Как отмечает директор Национального координационного центра информационной безопасности (НКЦИБ) АО «Государственная техническая служба» Айдос Сулейменов, для экспертов, занимающихся информационной безопасностью, это уже давно не сенсация.

– Искусственный интеллект – это палка о двух концах, которая уже оказывает помощь специалистам по информационной безопасности в защите людей и компаний от злоумышленников. Однако, не без одного «но»….Хотя список угроз для компаний и граждан остается прежним, технические методы их реализации теперь изменены. Дипфейки, например, представляют собой обычные фейковые звонки. Однако, теперь искусственный интеллект используется в фишинговых атаках для автоматизации написания сообщений таким образом, чтобы они были более убедительными. Злоумышленники также применяют искусственный интеллект для поиска уязвимостей, что делает этот процесс более эффективным. Хотя все эти методы не являются новыми, использование искусственного интеллекта значительно ускоряет их выполнение, – отметил он.

В текущем году в Казахстане были зафиксированы случаи использования голосовых и видеодипфейков для мошенничества. Преступники создавали фальшивые сообщения с помощью нейронных сетей, используя записи голоса реальных людей в качестве образцов. В основном они подражали голосам высокопоставленных лиц в различных компаниях и государственных органов. Затем, сотрудникам с поддельных аккаунтов от имени руководства поступали голосовые сообщения, призывающие их выполнить определенные действия.

Принципиальное сравнение плюсов и минусов от ИИ для сферы информационной безопасности не приведет к однозначному вердикту. Так как ИИ представляет собой двойственный инструмент.

Какая польза? Автоматизация обнаружения угроз. ИИ способен анализировать огромные объемы данных за короткое время и выявлять необычное поведение, которое может указывать на кибератаки. Это позволяет обнаруживать и реагировать на угрозы быстрее, чем это может сделать человек.

Усиление защиты. ИИ используется для создания интеллектуальных систем безопасности, которые могут эффективно защищать компьютерные сети от вредоносных атак. Это включает в себя системы, которые могут быстро адаптироваться к новым угрозам и принимать предупреждения и решения без участия человека.

Прогнозирование угроз. ИИ может анализировать данные о предыдущих кибератаках и пытаться предсказать будущие угрозы. Это позволяет компаниям и организациям принимать меры по предотвращению атак до их возникновения.

А из вредного? Усиление кибератак. Применение ИИ может усилить мощь и эффективность кибератак. Киберпреступники могут использовать ИИ для создания более сложных и непроницаемых атак, что делает их обнаружение и борьбу с ними более сложными.

Автоматизация масштабных атак. Используя ИИ, злоумышленники могут создавать и выпускать масштабные кибератаки с минимальным участием человека. Это может привести к более серьезным последствиям и большему ущербу для жертв.

Проблемы конфиденциальности. Системы ИИ могут собирать и анализировать огромные объемы личных данных пользователей без их согласия. Это создает проблемы с конфиденциальностью и может привести к утечкам личной информации.

– Правильное использование может улучшить безопасность в интернете, но неправильное применение может привести к серьезным последствиям для общества. Стремление к балансу между пользой и риском является ключом к эффективному использованию ИИ в борьбе с киберпреступностью, – заключил Айдос Сулейменов.

Человечеству предстоит еще много работы впереди по согласованию совместного использования решений искусственного интеллекта и кибербезопасности не только с технической, но и с нормативно-правовой точки зрения.

Агадиль Адамбаев

Оцените новость

  • Ваша оценка
Итоги:
Проголосовало людей: 1

Оставить комментарий

Ваш e-mail не будет опубликован. Поля обязательны для заполненеия - *

  • bowtiesmilelaughingblushsmileyrelaxedsmirk
    heart_eyeskissing_heartkissing_closed_eyesflushedrelievedsatisfiedgrin
    winkstuck_out_tongue_winking_eyestuck_out_tongue_closed_eyesgrinningkissingstuck_out_tonguesleeping
    worriedfrowninganguishedopen_mouthgrimacingconfusedhushed
    expressionlessunamusedsweat_smilesweatdisappointed_relievedwearypensive
    disappointedconfoundedfearfulcold_sweatperseverecrysob
    joyastonishedscreamtired_faceangryragetriumph
    sleepyyummasksunglassesdizzy_faceimpsmiling_imp
    neutral_faceno_mouthinnocent
Кликните на изображение чтобы обновить код, если он неразборчив

Актуальные новости

Логотип

О портале

Новостной портал Казахстана, только свежие новости со всего мира!

© 2024 INFOZAKON. Все права защищены.

×