Мошенники в Европе впервые украли крупную сумму с помощью искусственного интеллекта
В марте 2019 года мошенники обманом заставили подчиненного британской компании перевести им 243 тыс. долларов, используя сымитированный с помощью искусственного интеллекта голос его руководителя.
Об этом сообщает Tjournal со ссылкой на The Wall Street Journal.
Генеральный директор британской энергетической фирмы думал, что разговаривал по телефону со своим начальником, исполнительным директором немецкой головной компании. Босс попросил его срочно, в течение часа, перевести 243 тыс. долларов венгерскому поставщику.
Директор британской фирмы узнал легкий немецкий акцент и тембр начальника голоса, поэтому выполнил просьбу. Но мошенники позвонили еще дважды. После перевода денег хакеры сказали, что немецкая компания отправила британской сумму на возмещение убытков. В третий раз они запросили второй платеж. Однако обещанный перевод еще не пришел, а звонок поступил с австрийского номера. Тогда британец заподозрил неладное и не стал платить еще раз.
Деньги ушли на счет венгерского банка, затем были переведены в Мексику и дальше разошлись по разным местам. Детективам не удалось обнаружить ни одного подозреваемого. Неизвестно, использовали ли преступники роботов, чтобы сгенерированный голос мог самостоятельно реагировать на вопросы жертвы.
Полиция и эксперты по кибербезопасности еще в 2018 году предсказывали, что преступники начнут использовать ИИ для автоматизации кибератак. Рюдигер Кирш, эксперт по мошенничеству в Euler Hermes, отметил, что никогда не сталкивался с мошенниками, которые использовали бы ИИ.
Инцидент стал первым подобным зарегистрированным преступлением в Европе, отметил Филипп Аманн, глава безопасности в Европейском центре киберпреступности. Он подчеркнул, что хакеры, скорее всего, начнут чаще использовать технологию, если она позволяет успешно совершать преступления.
Кирш полагает, что мошенники использовали коммерческую программу для генерации голоса. С помощью подобного сервиса он записал собственный голос и отметил, что имитация звучала как настоящая. Существует несколько компаний, продающих программы, позволяющие быстро имитировать голос, отметил Бобби Филар, директор компании Endgame, занимающейся анализом данных: “Вам не нужна докторская степень по математике, чтобы ее использовать”.
Хакеры также могли склеить отрывки аудиозаписей для имитации голоса, но на это потребовались бы часы аудиозаписей. Мошенники могли получить доступ к публичным выступлениям директора немецкой компании. Филар считает, что все попадают в такие ситуации, когда случайно выдают информацию, которую потом мошенники могут использовать против них.
Технологии машинного обучения, с помощью которых можно имитировать голоса, позволяют намного проще совершать киберпреступления, считает глава исследовательского центра ИИ и роботов в институте ООН по вопросам преступности и правосудия Иракли Беридзе. Он изучает способы, позволяющие распознавать фейковые видео. Беридзе считает, что DeepFake-ролики станут еще более удобным инструментом для хакеров.
“Представьте видео-звонок с голосом и выражением лица вашего начальника. У вас не возникло бы никаких сомнений”, – подчеркнул Беридзе.
Бажаєте бути в курсі найважливіших подій? Підписуйтесь на АНТИРЕЙД у соцмережах.
Обирайте, що вам зручніше:
- Телеграм t.me/antiraid
- Фейсбук facebook.com/antiraid
- Твіттер twitter.com/antiraid
Leave a Reply
Want to join the discussion?Feel free to contribute!