Технология deepfake: насколько реальна угроза финансовым системам?
Технологии развиваются, делая жизнь людей проще и комфортнее, но вместе с тем развиваются и способы обмана
Технологии развиваются, делая жизнь людей проще и комфортнее, но вместе с тем развиваются и способы обмана. Прогресс в сфере искусственного интеллекта позволяет использовать алгоритмы для новых форм мошенничества. Сейчас с помощью сервисов и приложений можно заменить лицо киноактера в отрезке видео своим или даже оживить фотографию, сделав ее анимированной. Это общедоступные технологии для развлечения, но есть и другая сторона медали. Создание поддельных фото-, аудио- и даже видеоматериалов, неотличимых от оригинальных в совокупности с неограниченными возможностями СМИ вызывают опасения. Одновременно с этим существует угроза влияния на финансовые системы с помощью новых технологий deepfake.
Deepfake (дипфейк) — это технология, в основе которой лежат искусственный интеллект и машинное обучение. Она использует найденные изображения, аудио- и видеофайлы для создания схожего визуального и голосового изображения человека. Главная персона в дипфейк-видео может говорить и действовать, выдавая себя за другого человека. Такие видео становятся более реалистичными с каждым годом. Например, в социальных сетях стал популярен аккаунт, где дипфейк Тома Круза играет в гольф и показывает фокусы. После того как видео стало вирусным, оно привлекло широкое внимание к технологии, но также сделало акценты на возможные проблемы, связанные с фальсификацией личности. Сильная сторона технологий на основе искусственного интеллекта в том, что со временем они собирают все больше данных и становятся умнее. Стоит вспомнить, как в 2019 году киберпреступники смогли подделать голос генерального директора британской энергетической компании и похитить €220 000.
Существует множество сценариев применения дипфейк технологий — от кибервымогательства до подделки правительственных заявлений. Но есть и способы, которые могут нанести вред финансовым системам. Среди наиболее распространенных — вход в личные учетные записи на финансовых онлайн-сервисах, банковских аккаунтах, оформление кредитов с помощью идентификации с технологией замены лица и голоса в реальном времени. С распространением и улучшением искусственного интеллекта, такой способ становится более доступным для мошеннических действий в финансовых учреждениях.
Мошенничество с новыми учетными записями. Обычно такой вид махинации доступен в приложениях. Существует возможность использовать украденные удостоверения личности для открытия новых банковских счетов с помощью дипфейков и обхода технологий идентификации. Если злоумышленники получат возможность создавать поддельные удостоверения личности — такая атака может стать глобальной проблемой для финансовых сервисов.
Мошенничество с помощью искусственной идентификации. Как правило, этот способ крайне сложно обнаружить, поскольку вместо кражи или подделки личности, злоумышленники объединяют реальную и поддельную информацию для “создания” полностью нового человека. После этого можно, аналогично с предыдущим методом, создавать учетные записи в финансовых учреждениях и получать деньги благодаря открытию кредитных линий.
Технология deepfake помогает обойти систему безопасности при идентификации личности. Именно поэтому сейчас многие банковские сервисы используют многоуровневую защиту, где недостаточно только биометрических данных. Некоторые сервисы определяют “подвижность” человека: вас просят повертеть головой или сделать простые жесты. Пример использования такой технологии — украинский сервис для самоизолированных людей “Вдома”.
Технологии искусственного интеллекта — оружие для мошенников, специализирующихся на финансовых преступлениях. Однако это не означает, что махинации стали легкой наживой для злоумышленников. Технология дипфейк основывается на системе генеративно-состязательных сетей или GAN (Generative Adversarial Network), где одна нейросеть генерирует подделки, а вторая учится их распознавать. Поэтому решение проблемы сокрыто в ее создании, как бы парадоксально это не было. Управление перспективных исследовательских проектов Министерства обороны США (DARPA) уже создает новые способы противодействовать дипфейкам, поэтому подготовило две программы для их обнаружения. Они находят несоответствия в изображениях людей и анализируют контент на предмет цифровой, физической и семантической целостности. Подделку может выдать различие парных украшений, нехарактерные черты лица или даже фон. Такие детали сложно заметить с помощью анализа, проводимого человеком.
Deepfake-технологии развиваются и в Украине, ведь именно украинские стартаперы создали одно из самых популярных приложений для замены лица. Однако про массовые угрозы для финансовых сервисов говорить пока рано, ведь если на западе технологии с биометрической идентификацией широко распространены, то к нам эта тенденция только приходит.
Deepfake technology: is a threat to financial systems real?
Technology is evolving, making people's lives easier and more comfortable, but at the same time, the ways to cheat are evolving as well. Progress in artificial intelligence allows algorithms to be used for new forms of fraud. Now, with the help of services and applications, it is possible to replace the face of a movie actor in a segment of a video with one of your own, or even animate a photo. These are publicly available technologies for entertainment, but there is another side to the coin. The creation of fake photos, audio, and even video footage indistinguishable from the original, combined with the unlimited possibilities of the media, is a cause for concern. At the same time, there is the threat of influencing financial systems with new deepfake technologies.
Deepfake is a technology based on artificial intelligence and machine learning. It uses found images, audio, and video files to create a similar visual and voice image of a person. The main character in a deepfake video can speak and act while impersonating another person. Such videos are becoming more realistic every year. For example, an account where Tom Cruise's deepfake plays golf and shows tricks has become popular on social media. Once the video became viral, it drew widespread attention to the technology, but it also emphasizes the possible problems associated with identity falsification. The strength of AI-based technology is that it collects more data and gets smarter over time. It is worth remembering how, in 2019, cybercriminals were able to fake the voice of the CEO of a British energy company and steal €220,000.
There are many scenarios for the use of deepfake technology, from cyber extortion to falsified government statements. But some ways can harm financial systems. Among the most common are logging into personal accounts on online financial services, bank accounts, and loan processing through identification with real-time face and voice replacement technology. With the spread and improvement of artificial intelligence, this method is becoming more accessible to fraudulent activities in financial institutions.
Fraud with new accounts. This type of scam is usually available in apps. It is possible to use stolen IDs to open new bank accounts with deepfake and bypass identification technologies. If attackers gain the ability to create fake IDs, such an attack could become a global problem for financial services.
Fraud by means of artificial identification. This method is extremely difficult to detect because instead of stealing or faking an identity, attackers combine real and fake information to “create” a completely new person. Afterward, it is possible, similar to the previous method, to create accounts at financial institutions and receive money through opening credit lines.
Deepfake technology helps bypass the security system when identifying a person. That is why many banking services now use multiple layers of protection, where only biometric data is not enough. Some services determine a person's “mobility”. You are asked to turn your head or make simple gestures. An example of the use of such technology is the Ukrainian service for self-isolated people, “At Home”.
Artificial intelligence technology is a weapon for fraudsters who specialize in financial crime. However, this does not mean that fraud has become an easy profit for the perpetrators. Deepfake technology is based on the Generative Adversarial Network or GAN system, where one neural network generates forgeries, while the other learns to recognize them. So the solution to the problem is hidden in its creation, however paradoxical that may be. The U.S. Department of Defense Advanced Research Projects Agency (DARPA) is already creating new ways to counter deepfakes, so it has prepared two programs to detect them. They find inconsistencies in images of people and analyze content for digital, physical, and semantic integrity. A difference in paired jewelry, uncharacteristic facial features, or even background can give a fakeaway. Such details are difficult to notice with human analysis.
Deepfake-technologies are developing in Ukraine as well because it was Ukrainian startups who created one of the most popular face replacement applications. However, it is too early to talk about mass threats to financial services, because while biometric identification technologies are widespread in the West, this trend is just coming to us.
- Розпорядження майном «цивільного подружжя» при поділі спільного сумісного майна Євген Морозов 20:34
- JIT — концепція, час якої настав Наталія Качан 19:43
- Оновлення законодавства про захист персональних даних: GDPR в законопроєкті 8153 Анастасія Полтавцева вчора о 18:47
- Податкова біполярність або коли виграв справу, але неправильно Євген Власов вчора о 16:35
- Встановлення факту спільного проживання «цивільного подружжя» при поділі майна Євген Морозов вчора о 10:52
- Когнітивка від Psymetrics – прогнозований бар’єр для Вищого антикорупційного суду Лариса Гольник вчора о 09:26
- Топ-3 проєктів протидії фінансовому шахрайству у 2024 році Артем Ковбель 20.12.2024 23:10
- Как снять арест с карты: советы для должников ЖКХ Віра Тарасенко 20.12.2024 21:40
- Кейс нотаріальної фальсифікації в Україні: кримінал, зловживання довірою й порушення етики Світлана Приймак 20.12.2024 16:40
- Валюта боргу та валюта платежу в договірних відносинах Євген Морозов 20.12.2024 09:50
- БЕБ, OnlyFans та податкова істерика: хто насправді винен? Дмитро Зенкін 19.12.2024 16:55
- Посилено відповідальність за домашнє та гендерно зумовлене насильство Світлана Приймак 19.12.2024 16:44
- Вчимося та вчимо дітей: мотивація та управління часом Інна Бєлянська 19.12.2024 16:11
- Гендерний розрив на ринку праці України: дослідження Міжнародної організації з міграції Юлія Маліч 19.12.2024 13:36
- Україна сировинний придаток, тепер офіційно? Андрій Павловський 19.12.2024 12:50
- Україна сировинний придаток, тепер офіційно? 1256
- Після зупинення війни, вільних виборів може і не відбутися 1254
- Правова стратегія для захисту інтересів дитини у суді 561
- Когнітивка від Psymetrics – прогнозований бар’єр для Вищого антикорупційного суду 508
- Вчимося та вчимо дітей: мотивація та управління часом 235
-
Для мешканців багатоквартирних будинків встановили фіксовані ціни за електроенергію
Бізнес 11324
-
Рекордно подорожчав овоч, який є унікальним засобом від застуди
Бізнес 4464
-
Глиняний посуд на Святвечір: традиції, символіка та як обрати для святкового столу
Життя 4355
-
Вісім треків тижня: новий фіт Соловій і Дантеса та зимова лірика Jerry Heil
Життя 3894
-
Орбан: Угорщина веде переговори щодо транзиту російського газу через Україну
Бізнес 3098