Обновлено 09.05.2025 Studentportal
Deepfakes – одна з найнебезпечніших технологій останніх років. Все більше Поляків стикаються з фальшивими записами, створеними штучним інтелектом. Масштаб загрози зростає, часто жертвами цифрового шахройства стають і студенти, що навчаються у Польщі.
Фальшиві аудіо- та відеозаписи, які виглядають як справжні – це реальність, з якою нам доводиться стикатися. Технологія Deepfake стрімко розвивається, стаючи інструментом в руках шахраїв, шантажистів і маніпуляторів.
Проблема зростає, а соціальні медіа-платформи не завжди швидко реагують на неї. Що ми можемо зробити, щоб захистити себе?
Що таке депфейки і чим вони небезпечні?
Діпфейки, тобто зображення, звуки чи відеоконтент, які генеруються або маніпулюються штучним інтелектом, є однією з найбільш суперечливих технологій нашого часу.
Для її створення використовуються передові алгоритми штучного інтелекту, тому користувачам стає дедалі складніше відрізнити справжній контент від підробленого. Штучний інтелект використовується дедалі частіше, в тому числі в навчанні та освітньому процесі.
Діпфейки іноді використовують для маніпуляцій, шантажу, нанесення шкоди репутації, шахрайства та фінансових махінацій.
Ризики, пов’язані з deepfakes, зростають із розширенням доступу до інструментів штучного інтелекту. Сьогодні майже будь-хто, хто має доступ до інтернету, може створювати відео або зображення, що зображують ситуації, які насправді ніколи не відбувалися.
Ризик, пов’язаний із створенням дезінформаційних фейків та вразливістю до них, насправді зростає з кожним днем. Цікаво, що ці фейки також стають кращими з кожним днем, адже після створення технології навіть штучний інтелект вдосконалюється.
На жаль, сьогодні не потрібно мати суперкомп’ютер, не потрібно мати дорогий суперсервіс, щоб генерувати такі матеріали, а достатньо моделі підписки і 5 доларів на місяць, і злочинці генерують такі глибокі фейки.
Як захиститися від депфейків?
Соціальні мережі переповнені згенерованими штучним інтелектом відео та фотографіями політиків, громадських діячів чи знаменитостей, які роблять суперечливі заяви або рекламують фальшиві товари чи фінансові послуги.
Deepfakes також використовують для створення компрометуючого контенту, який може завдати репутаційної або фінансової шкоди. Однак до того часу, як платформи реагують і позначають їх належним чином, «глибокі фейки» стають вірусними, охоплюючи мільйони глядачів.
На жаль, у світі кібербезпеки завжди було так, що злочинці випереджають будь-які захисні механізми. Пильність споживачів контенту повинна відігравати ключову роль, адже коли вони дивляться відео або читають новину, часто вже не в змозі зрозуміти, чи вона є реальною чи створена штучним інтелектом.
На щастя, інструменти на основі штучного інтелекту також можуть допомогти у виявленні неправдивого контенту. Там, де людське сприйняття вже не може впоратися, комп’ютер зі штучним інтелектом вловить, що це зображення занадто ідеальне або чогось не вистачає. І тоді він визначає, що це підробка.
Від редакції
Вихід в тому, щоб медіаресурси та соціальні мережі мали алгоритм по виявленню неправдивого контенту та одразу могли його маркувати. Звісно це вимагає посилення контролю над відомими месенджерами, соціальними мережами, інтернет-платформами. В даному випадку не є зайвим контроль з боку держави, оскільки це може загрожувати як національній безпеці, так і інтересам суспільства.
Звісно подібний контроль вимагає не тільки нормативного врегулювання, але й величезного фінансового ресурсу, які не всі медіа, в тому числі держава готові витратити.
Тому на думку StudentPortal вихід боротьби проти депфейків один – критичне мислення та вміння відсіювати брехню та те, що взагалі не потрібно споживачу інформації.
Катерина Таран