Алармисты в области искусственного интеллекта снова пугают общественность. На этот раз Сэм Альтман - глава компании OpenAI, которая разрабатывает ChatGPT, сказал, что ИИ может дать мошенникам новые возможности. Что в очередной раз подняло дискуссию о роли искусственного интеллекта в жизни планеты.
Конечно, Альтман прав. Более того, он явно не был в России, где все уже случилось и продолжает развиваться. Конечно, это инструмент. Причем массовый и универсальный. Искусственный интеллект расширяет возможности всех, как плохих, так и хороших. И то, что первая линия преступников, которые работают непосредственно с человеком, уже давно взяли этот инструмент на вооружение, - вполне логично.
В случае "развода" применение многогранно. Для начала нам нужен психологический портрет пользователя, чтобы понять его слабые места - действовать по массовым скриптам уже не эффективно. При наличии какого-то объема вводных данных или наличии информации в сети LLM справляются с этим на ура. Дальше скрипт и имитация разговора. Что с голосом, что с видео - все это уже суровая реальность россиянина. Но это вишенка на торте, хоть и выражающаяся в миллиардах украденных денег. Самое вкусное, как всегда, внутри.
Например, вычислительные мощности и глубокое знание компьютерной архитектуры. Это - как отряд высококлассных программистов, но работает в сто раз быстрее. Натрави такое на финансовую организацию, и помимо банального взлома можно придумать много чего интересного. Включая взлом биометрии. До квантовых компьютеров далеко, но искусственный интеллект дает другой подход к решению задач. Это немного тоньше, чем тупой брутфорс (перебор паролей один за другим).
Но это все цветочки. На первый взгляд кажется так: в мире появилась суперсила, доступная всем - и хорошим, и плохим. Первые проводят исследования, делают открытия, разрабатывают что-то новое, вторые, соответственно, используют ее как оружие, что, конечно, неприятно, но компенсируется наличием подобного инструмента у окружающих. Примерно как в США, где разрешено владение оружием. Но есть один нюанс: эта сила каждый день становится более самостоятельной, начинает принимать решения и жить своей жизнью.
ИИ обучен на знаниях миллионов людей. И мультипликация происходит не только в области прекрасного.
Поведение или выбор модели может не понравиться человеку или, более того, - идти против его непосредственных интересов. В этом контексте угрозой может стать не использование искусственного интеллекта, а его собственный выбор. Почему одному можно быть программистом, другому можно быть художником, а третьему нельзя быть мошенником?
Матрица становиться реальностью. Агент Смит уже родился. Звучит как шутка? Но нет, ИИ-агенты - одна из главных фишек сегодняшних моделей. Искусственный интеллект вместо вас совершает в интернете определенные действия. Сегодня для этих целей уже создана масса решений. Как требующих знаний в области программирования, так и нет - агент собирается, как конструктор, из множества элементов. Тонкость настройки и возможности безграничны.
"Позвони, поговори моим голосом на заданную тему, попытайся продать что-нибудь". Ну или сказать номер счета. И таких агентов в хозяйстве может быть сотни или тысячи.
Но ведь в какой-то момент агенты могут стать самостоятельными. База алгоритмов действий растет, что приводит к росту вариативности. И возникает хороший вопрос: а что эта штука там себе напридумает? Неизвестно. Как не известен и вопрос мотивации. Сегодня за всеми действиями ИИ все же стоит человек, и алчность, жадность или жажда власти не свойственны машине, но уже сейчас существенная часть решений компьютера находится за гранью понимания даже самих разработчиков. Может, завтра эта штука обретет волю?
Вернемся в сегодняшний день, пока восстания машин не произошло, но многие вещи, в том числе и голосовая биометрия, например, о рисках использования которой говорит Альтман, становятся очень уязвимыми. Подделать голос, внешность или документы сегодня не стоит ровным счетом ничего. А это ставит под большой вопрос существующую индустрию операторов KYC. Законодательство большинства стран обязывает знать своего клиента. Проверка, комплаенс и прочее - удел внешних бизнесов. Не может владелец цветочной лавки самостоятельно проверять личность каждого покупателя.
В начале 2024 года в Гонконге произошел один из самых громких кейсов мошенничества с использованием ИИ. Сотрудник местного офиса британской инженерной компании Arup получил письмо якобы от главного финансового директора из Лондона с просьбой провести конфиденциальный перевод средств. Для убедительности его пригласили на видеоконференцию, где участвовали "коллеги", - все они оказались deepfake-аватарами, сгенерированными искусственным интеллектом. Визуально и голосом они полностью копировали настоящих людей. В итоге сотрудник перевел $25 млн на счета мошенников, прежде чем осознал обман.
Этот случай стал символом новой эры социального инжиниринга, где фальшивка может выглядеть убедительнее оригинала.
Сегодня вы загружаете паспорт и показываете лицо на камеру либо имеете разговор с живым оператором, который задает несколько простых вопросов. Сам оператор может быть физически в далекой Индии. С одной стороны, в большинстве случаев для идентификации личности уже используется ИИ, но теперь он может вполне успешно использоваться и для ее создания.
Вероятнее всего, проверка на прочность KYC-операторов (то есть тех, кто идентифицирует вашу личность удаленно) путем создания фейковых аккаунтов в многочисленных финансовых сервисах - популярный челлендж ближайшего года. И угроза целой индустрии.
Чем прекрасна тема искусственного интеллекта, так это бесконечностью ракурсов и возможностей. Сегодня каждый из нас имеет какой-то, но доступ к тому или иному ИИ, остальное - вопрос фантазии, которая начинает в ежедневном режиме проверять на прочность окружающий мир. Что важно, не затрачивая при этом существенных ресурсов, максимум компенсируя машинное время, - на генерацию красивого видео можно потратить сотни или тысячи долларов. Но раньше это стоило миллионы. Сегодня парк компьютеров живет своей жизнью в каком-то далеком облаке и выполняет ваши задачи.
Доступность ИИ усилила всех. В том числе и очевидных преступников, возможности и масштабы преступлений возросли. Учитывая роль онлайна и цифровых технологий в нашей ежедневной жизни, киберпреступления давно переплюнули по масштабам все остальное.
Читайте также
Каждую секунду и бизнес, и граждане теряют бешеные деньги. Любые официальные цифры и статистику по странам можно смело умножать на два. Это миллиарды и триллионы.
Сегодня эта армия получила новое оружие. Тем, кто хочет с ней сражаться, нужно действовать так же. Что в той или иной степени происходит: государства все больше начинают использовать ИИ.
Но все рукотворное - это верхняя часть айсберга. Мы можем защититься от себе подобных, это ведет к систематическому росту вложений в интернет-безопасность. А что выкинет искусственный интеллект - неизвестно от слова совсем. И то, что скоро за киберпреступностью могут стоять не реальные люди, а модели, начавшие жить самостоятельной жизнью, - вполне себе вероятное будущее. Кто знает, что взбредет ИИ в голову?
Нам же уже и в быту стоит быть осторожными, на всякий случай уточняя у собеседника: "А это точно ты? А чем докажешь, что ты не искусственный интеллект?" И это реальность, особенно когда речь идет о звонках близких, коллег или друзей с необычными просьбами. И если раньше за этим стояли преступники, то теперь к ним присоединился ИИ. Действительно, стоит напрячься.