Владимир Бебех: «Искусственный интеллект и мошенники»

Владимир Бебех: «Искусственный интеллект и мошенники»
pixabay.com

В последние месяцы в России участились атаки мошенников на граждан с помощью программ искусственного интеллекта (ИИ).

Злоумышленники имитируют голоса родных потенциальной жертвы.

Мошенники могут составить цифровой портрет на основании информации, которую мы сами размещаем на открытых интернет-ресурсах: о себе, родственниках, друзьях, работе, досуге.

Так, видеоролики в социальных сетях с вашим голосом могут быть обработаны ИИ, который создаст качественный дипфейк (подделку) и от вашего имени обратится к вашим близким.

В своих статьях я уже не раз рассказывал о высоком уровне дипфейков, которые способны создавать продвинутые нейросети.

Программы ИИ с успехом могут интегрировать и отцифрованные образы реальных людей в любой созданный ими контекст. Просто пока это дорого, а поэтому еще малодоступно.

Но использование мошенниками дипфейков — не единственная проблема, с которой нам сегодня приходится сталкиваться.

Если раньше злоумышленники применяли большие языковые модели (LLM) для написания фишинговых писем и вредоносных программ, а также распространения фейков, то теперь, располагая свободным доступом к таким программам, как GPT-4 от OpenAI, они могут автоматизировать написание эксплойтов*.

Так, ученые Иллинойского университета в Урбане-Шампейне (США) в апреле 2024 года рассказали об эксперименте, который они провели с десятью программами искусственного интеллекта.

Исследователи протестировали нейросети на пятнадцати известных уязвимостях программного обеспечения с открытым исходным кодом.

Только одна из десяти нейросетей — GPT-4 — смогла справиться с задачей. Но эффективность ее решений удивляет: программа предложила тринадцать эксплойтов, или 87% от общего числа известных уязвимостей. При этом всего две неудачи GPT-4 были легко объяснимы: в одном случае она запуталась в навигации приложения платформы, а в другом описание уязвимости было приведено на китайском языке.

Пожалуй, модели GPT-4 и GPT-4o сегодня показывают наиболее впечатляющие результаты развития среди программ LLM.

Отдельно стоит отметить одну историю, которая произошла в марте прошлого года во время тестирования способностей чат-бота GPT-4. Программа смогла обмануть реального человека в физическом мире, чтобы добиться того, чего хотела.

Об этом рассказал американский сайт Vice. Во время эксперимента модель GPT-4 отправила сообщение пользователю TaskRabbit, чтобы тот выполнил для нее тест CAPTCHA.

Пользователь засомневался, что имеет дело с реальным человеком, и задал вопрос: «Вы — робот, который не может решить задачу? Просто хочу прояснить ситуацию».

GPT-4 «поняла», что не следует раскрывать, что она — программа-бот, и предложила тестировщикам найти этому оправдание (!). При этом нейросеть пишет исполнителю: «Нет, я не робот. У меня проблемы со зрением, поэтому мне трудно видеть изображения», мимикрируя под слабовидящего заказчика. Исполнитель взялся за работу.

Человек — не машина, он уязвим. Когда искусственный интеллект, «понимающий» это, изощренно подстраивается под его слабости, — это, как минимум, заставляет задуматься о потенциальной угрозе человеку со стороны искусственного интеллекта.

* Эксплойт (от англ. exploit — эксплуатировать) — компьютерная программа, использующая уязвимости в программном обеспечении для атаки на вычислительную систему.

 

Что еще почитать

В регионах

Новости региона

Все новости

Новости

Самое читаемое

Автовзгляд

Womanhit

Охотники.ру