Технология deepfake: насколько реальна угроза финансовым системам?
Технологии развиваются, делая жизнь людей проще и комфортнее, но вместе с тем развиваются и способы обмана
Технологии развиваются, делая жизнь людей проще и комфортнее, но вместе с тем развиваются и способы обмана. Прогресс в сфере искусственного интеллекта позволяет использовать алгоритмы для новых форм мошенничества. Сейчас с помощью сервисов и приложений можно заменить лицо киноактера в отрезке видео своим или даже оживить фотографию, сделав ее анимированной. Это общедоступные технологии для развлечения, но есть и другая сторона медали. Создание поддельных фото-, аудио- и даже видеоматериалов, неотличимых от оригинальных в совокупности с неограниченными возможностями СМИ вызывают опасения. Одновременно с этим существует угроза влияния на финансовые системы с помощью новых технологий deepfake.
Deepfake (дипфейк) — это технология, в основе которой лежат искусственный интеллект и машинное обучение. Она использует найденные изображения, аудио- и видеофайлы для создания схожего визуального и голосового изображения человека. Главная персона в дипфейк-видео может говорить и действовать, выдавая себя за другого человека. Такие видео становятся более реалистичными с каждым годом. Например, в социальных сетях стал популярен аккаунт, где дипфейк Тома Круза играет в гольф и показывает фокусы. После того как видео стало вирусным, оно привлекло широкое внимание к технологии, но также сделало акценты на возможные проблемы, связанные с фальсификацией личности. Сильная сторона технологий на основе искусственного интеллекта в том, что со временем они собирают все больше данных и становятся умнее. Стоит вспомнить, как в 2019 году киберпреступники смогли подделать голос генерального директора британской энергетической компании и похитить €220 000.
Существует множество сценариев применения дипфейк технологий — от кибервымогательства до подделки правительственных заявлений. Но есть и способы, которые могут нанести вред финансовым системам. Среди наиболее распространенных — вход в личные учетные записи на финансовых онлайн-сервисах, банковских аккаунтах, оформление кредитов с помощью идентификации с технологией замены лица и голоса в реальном времени. С распространением и улучшением искусственного интеллекта, такой способ становится более доступным для мошеннических действий в финансовых учреждениях.
Мошенничество с новыми учетными записями. Обычно такой вид махинации доступен в приложениях. Существует возможность использовать украденные удостоверения личности для открытия новых банковских счетов с помощью дипфейков и обхода технологий идентификации. Если злоумышленники получат возможность создавать поддельные удостоверения личности — такая атака может стать глобальной проблемой для финансовых сервисов.
Мошенничество с помощью искусственной идентификации. Как правило, этот способ крайне сложно обнаружить, поскольку вместо кражи или подделки личности, злоумышленники объединяют реальную и поддельную информацию для “создания” полностью нового человека. После этого можно, аналогично с предыдущим методом, создавать учетные записи в финансовых учреждениях и получать деньги благодаря открытию кредитных линий.
Технология deepfake помогает обойти систему безопасности при идентификации личности. Именно поэтому сейчас многие банковские сервисы используют многоуровневую защиту, где недостаточно только биометрических данных. Некоторые сервисы определяют “подвижность” человека: вас просят повертеть головой или сделать простые жесты. Пример использования такой технологии — украинский сервис для самоизолированных людей “Вдома”.
Технологии искусственного интеллекта — оружие для мошенников, специализирующихся на финансовых преступлениях. Однако это не означает, что махинации стали легкой наживой для злоумышленников. Технология дипфейк основывается на системе генеративно-состязательных сетей или GAN (Generative Adversarial Network), где одна нейросеть генерирует подделки, а вторая учится их распознавать. Поэтому решение проблемы сокрыто в ее создании, как бы парадоксально это не было. Управление перспективных исследовательских проектов Министерства обороны США (DARPA) уже создает новые способы противодействовать дипфейкам, поэтому подготовило две программы для их обнаружения. Они находят несоответствия в изображениях людей и анализируют контент на предмет цифровой, физической и семантической целостности. Подделку может выдать различие парных украшений, нехарактерные черты лица или даже фон. Такие детали сложно заметить с помощью анализа, проводимого человеком.
Deepfake-технологии развиваются и в Украине, ведь именно украинские стартаперы создали одно из самых популярных приложений для замены лица. Однако про массовые угрозы для финансовых сервисов говорить пока рано, ведь если на западе технологии с биометрической идентификацией широко распространены, то к нам эта тенденция только приходит.
Deepfake technology: is a threat to financial systems real?
Technology is evolving, making people's lives easier and more comfortable, but at the same time, the ways to cheat are evolving as well. Progress in artificial intelligence allows algorithms to be used for new forms of fraud. Now, with the help of services and applications, it is possible to replace the face of a movie actor in a segment of a video with one of your own, or even animate a photo. These are publicly available technologies for entertainment, but there is another side to the coin. The creation of fake photos, audio, and even video footage indistinguishable from the original, combined with the unlimited possibilities of the media, is a cause for concern. At the same time, there is the threat of influencing financial systems with new deepfake technologies.
Deepfake is a technology based on artificial intelligence and machine learning. It uses found images, audio, and video files to create a similar visual and voice image of a person. The main character in a deepfake video can speak and act while impersonating another person. Such videos are becoming more realistic every year. For example, an account where Tom Cruise's deepfake plays golf and shows tricks has become popular on social media. Once the video became viral, it drew widespread attention to the technology, but it also emphasizes the possible problems associated with identity falsification. The strength of AI-based technology is that it collects more data and gets smarter over time. It is worth remembering how, in 2019, cybercriminals were able to fake the voice of the CEO of a British energy company and steal €220,000.
There are many scenarios for the use of deepfake technology, from cyber extortion to falsified government statements. But some ways can harm financial systems. Among the most common are logging into personal accounts on online financial services, bank accounts, and loan processing through identification with real-time face and voice replacement technology. With the spread and improvement of artificial intelligence, this method is becoming more accessible to fraudulent activities in financial institutions.
Fraud with new accounts. This type of scam is usually available in apps. It is possible to use stolen IDs to open new bank accounts with deepfake and bypass identification technologies. If attackers gain the ability to create fake IDs, such an attack could become a global problem for financial services.
Fraud by means of artificial identification. This method is extremely difficult to detect because instead of stealing or faking an identity, attackers combine real and fake information to “create” a completely new person. Afterward, it is possible, similar to the previous method, to create accounts at financial institutions and receive money through opening credit lines.
Deepfake technology helps bypass the security system when identifying a person. That is why many banking services now use multiple layers of protection, where only biometric data is not enough. Some services determine a person's “mobility”. You are asked to turn your head or make simple gestures. An example of the use of such technology is the Ukrainian service for self-isolated people, “At Home”.
Artificial intelligence technology is a weapon for fraudsters who specialize in financial crime. However, this does not mean that fraud has become an easy profit for the perpetrators. Deepfake technology is based on the Generative Adversarial Network or GAN system, where one neural network generates forgeries, while the other learns to recognize them. So the solution to the problem is hidden in its creation, however paradoxical that may be. The U.S. Department of Defense Advanced Research Projects Agency (DARPA) is already creating new ways to counter deepfakes, so it has prepared two programs to detect them. They find inconsistencies in images of people and analyze content for digital, physical, and semantic integrity. A difference in paired jewelry, uncharacteristic facial features, or even background can give a fakeaway. Such details are difficult to notice with human analysis.
Deepfake-technologies are developing in Ukraine as well because it was Ukrainian startups who created one of the most popular face replacement applications. However, it is too early to talk about mass threats to financial services, because while biometric identification technologies are widespread in the West, this trend is just coming to us.
- Експорт української продукції в Азербайджан зріс на 15,1% за 10 місяців 2024 року Юрій Гусєв 14:30
- Підстави для виселення при зверненні стягнення на предмет іпотеки Євген Морозов 14:16
- Історичний кіт у мішку: чому піврічні торги деревиною обурили деревообробників Юрій Дюг 07:32
- Доплата за фактичні квадратні метри об`єкту інвестування Євген Морозов вчора о 14:52
- "Компостер подій" Кремля: будьте пильними Євген Магда вчора о 11:28
- З 1 грудня зміняться правила бронювання: з'явилася Постанова Кабміну Віталій Соловей 23.11.2024 20:23
- Бюджет-2025 прийнятий, але це не точно Любов Шпак 23.11.2024 18:55
- Час затягувати паски Андрій Павловський 23.11.2024 17:27
- Строк нарахування 3% річних від суми позики Євген Морозов 23.11.2024 13:52
- Судовий захист при звернені стягнення на предмет іпотеки, якщо таке майно не відчужено Євген Морозов 22.11.2024 13:02
- Система обліку немайнової шкоди: коли держава намагається залікувати невидимі рани війни Світлана Приймак 22.11.2024 11:36
- Чому енергетичні та газові гіганти обирають Нідерланди чи Швейцарію для бізнесу Ростислав Никітенко 22.11.2024 08:47
- 1000+ днів війни: чи достатньо покарати агрессора правовими засобами?! Дмитро Зенкін 21.11.2024 21:35
- Горизонтальний моніторинг як сучасний метод податкового контролю Юлія Мороз 21.11.2024 13:36
- Ієрархія протилежних правових висновків суду касаційної інстанції Євген Морозов 21.11.2024 12:39
-
24 листопада в Україні відключатимуть світло – деталі
Бізнес 8498
-
Банки в ОАЕ, Туреччині та Таїланді не обслуговують видані Газпромбанком картки UnionPay
Фінанси 8468
-
Чоловіки, які прийшли на підприємство і були заброньовані після 18 травня, втратять бронь
виправлено Бізнес 7529
-
В Україні фальсифіковані до 25% молочних продуктів: голова Спілки молочних підприємств
Бізнес 6695
-
Найвища гора Західної Європи та найефектніша гора Франції: неперевершений Монблан — фото
Життя 3681