Авторські блоги та коментарі до них відображають виключно точку зору їхніх авторів. Редакція ЛІГА.net може не поділяти думку авторів блогів.
22.08.2024 16:18

Інтелект – штучний, відповідальність – людська: як використовувати ШІ безпечно

CEO українського офісу Burson

Рекомендації щодо безпечного та відповідального використання ШІ в комунікаціях та маркетингу

Нещодавно Міністерство цифрової трансформації опублікувало Рекомендації з відповідального використання штучного інтелекту у сфері реклами та маркетингових комунікацій. Цей документ стане основою для нормативного регулювання ШІ в Україні. Що це за рекомендації, як штучний інтелект змінює комунікації та маркетинг і чому українським компаніям варто слідкувати за європейським регулюванням вже сьогодні? Про це - далі у тексті.

Від буму до врегулювання: світовий досвід

Минулий 2023-й був роком буму штучного інтелекту. Ми слідкували за виходом нової версії чату GPT, обговорювали діпфейки з Папою Римським у пуховику Balenciaga й обговорювали, що більше приносить ШІ: користі чи шкоди. В усьому світі дискусії про безпечність використання ШІ-інструментів вийшли за межі роздумів за круглими столами й стали основою документів, що регулюють використання штучного інтелекту. Відтак, етап “початкового буму” пройдений - нині уряди намагаються своїм регулюванням не просто наздогнати, а передбачити технологічний прогрес.

Так, у березні 2024 року Європарламент ухвалив Регламент про регулювання штучного інтелекту в Європейському Союзі. Цей документ окреслює єдиний правовий підхід до регулювання використання штучного інтелекту, незалежно від індустрії або технології. Регламент запроваджує ризикоорієнтований підхід у систематизації ШІ-інструментів і окреслює вимоги до застосування кожної групи (неприйнятного, високого, обмеженого та мінімального ризику). Зокрема, для комунікаційників та маркетологів особливо важливим є припис, що кожен аудіо-, візуальний чи іншого типу контент, створений за допомогою ШІ, має бути маркований.

Нині положення Регламенту не є обов’язковими для України. Проте, враховуючи наші євроінтеграційні прагнення, маємо враховувати цей документ у розробці власного законодавства щодо використання ШІ.

А яка ситуація в Україні?

В Україні штучний інтелект активно застосовують всюди: все частіше бачимо генеровану ШІ рекламу, спостерігаємо за цифровою представницею МЗС із консульських питань Вікторією Ші, бачимо, як компанії створюють спеціалізовані посади та навіть відділи з використання ШІ. Генеративний ШІ став надійним помічником і в роботі нашої агенції: використовуємо його під час креативних брейнштормів, збору інформації, обробки візуалів та ін.

Однак, українським компаніям варто пам'ятати, що використання систем штучного інтелекту також пов'язане з низкою ризиків. І роботу з ними не варто відкладати "на потім", адже їх неможливо повністю уникнути. Натомість ШІ потребує наполегливої системної роботи всередині компанії. Тим більше, що актуальний світовий підхід до використання ШІ такий: інтелект - штучний, проте відповідальність - людська.

Нещодавно Міністерство цифрової трансформації опублікувало Рекомендації з відповідального використання штучного інтелекту у сфері реклами та маркетингових комунікацій (далі - Рекомендації). Цей документ - спільне напрацювання профільних експертів, котре стане фундаментом для розробки українського законодавства щодо регулювання ШІ. У процесі написання рекомендацій ми, зокрема, поділилися глобальним досвідом нашого холдингу WPP (що є одним зі світових лідерів з впровадження ШІ у сфері комунікацій), намагалися адаптувати цей досвід до українських реалій, адже вже давно сповідуємо світові практики з використання ШІ.

На що звертати увагу комунікаційникам під час використання ШІ?

Напрацьовані спільними зусиллями Рекомендації - це зручний путівник для українських комунікаційників і креативників з відповідального використання ШІ в роботі. Хочу поділитися основними, на мою думку, рекомендаціями з документа, проте радив би колегам ознайомитися з ним у повному обсязі.

  1. Інтелект - штучний, відповідальність - людська. Спосіб та результати взаємодії з системами ШІ може порушувати низку етичних та юридичних норм, зокрема, щодо реклами, захисту персональних даних та конфіденційної інформації, захисту авторських та суміжних прав, недобросовісної конкуренції, інклюзивності тощо. Необачність щодо “помилок” ШІ навряд стане аргументом для суду чи регуляторів, тож фаховий людський контроль має стати невіддільною ланкою у взаємодії з ШІ. Щобільше, якщо компанія працює не тільки в Україні, а і на інших ринках, то її діяльність може потрапляти й під міжнародні регламенти, такі як GDPR (на який неодноразово посилається EU AI Act).
  2. Персональні дані та інтелектуальна власність - мабуть, найтиповіші зони ризику для компаній у сфері комунікацій. Чи має розробник право на використання даних, на яких натреновано систему ШІ? Чи не схожа картинка, згенерована ШІ, на реальну людину чи роботу відомого художника? Чи не передбачають умови використання системи права розробника на подальше використання даних для власних цілей? Фаховий людський контроль, ретельне вивчення умови використання кожної окремої системи ШІ, а також (в ідеалі) відмова від використання публічних версій систем ШІ - це той мінімум, до якого мають бути готові сучасні агенції.
  3. ШІ - не відповідь на всі потреби. Є теми та способи використання ШІ, які, в кращому випадку, вимагають підвищеної уваги, в гіршому - є апріорі неетичними. Чи варто довіряти ще новій технології роботу з чутливими темами, як-от війна, гострі соціальні проблеми, контент для дітей тощо? Чи доречно імітувати подобу людини без її згоди, як днями вирішив зробити Дональд Трамп? Ці та інші питання варто ставити на рівні керівництва, перш ніж погоджувати використання ШІ.
  4. Клієнти, партнери, споживачі мають право знати, коли взаємодіють із системами ШІ або результатами їх роботи. На жаль, на українському ринку дедалі поширеним стає недобросовісний контент, виготовлений за допомогою ШІ. Саме тому відповідні матеріали мають обов'язково маркуватися. Це допоможе зменшити поширення діпфейків, уникнути маніпуляцій, а також дасть споживачам можливість свідомо контролювати власну взаємодію з ШІ.
  5. Безпека - понад усе. Як будь-яка нова технологія, ШІ має підвищену вразливість до кібератак. Завжди варто двічі подумати, чи надавати системі ШІ доступ до інформації, витік якої може мати невиправні наслідки. Крім того, варто звертати увагу на країни походження розробників, адже не всі вони є дружніми до України або ж розділяють європейські етичні цінності.
  6. Перейматися впровадженням процедур відповідального використання ШІ треба вже. Адже компаніям доведеться розробляти та застосовувати абсолютно нові правила щодо використання інструментів штучного інтелекту, встановлювати відповідні процедури й відповідальних осіб для контролю над ризиками і, звісно ж, проводити відповідне навчання для співробітників. Звучить довго і ресурсозатратно, проте краще зайнятися цим зараз, аніж “наздоганяти” ринок, який розвивається небаченими темпами.

Врешті-решт, штучний інтелект - це складний, високотехнологічний інструмент, безпечному й етичному використанню якого нам як українському суспільству доведеться навчитися. У цьому контексті тішить проактивність Мінцифри й колег, що долучилися до розробки Рекомендацій - сподіваємося, таку ж проактивність продемонструє і решта ринку під час їх впровадження. Адже на кону найдорожче - репутація та перспективи розвитку бізнесу.

Відправити:
Якщо Ви помітили орфографічну помилку, виділіть її мишею і натисніть Ctrl+Enter.
Останні записи