Обновлено 09.05.2025 Studentportal
Deepfakes — одна из самых опасных технологий последних лет. Все больше Поляков сталкиваются с фальшивыми записями, созданными искусственным интеллектом. Масштаб угрозы растет, часто жертвами цифрового шахройства становятся и студенты, обучающиеся в Польше.
Фальшивые аудио- и видеозаписи, которые выглядят как настоящие — это реальность, с которой нам приходится сталкиваться. Технология Deepfake стремительно развивается, становясь инструментом в руках мошенников, шантажистов и манипуляторов.
Проблема растет, а социальные медиа-платформы не всегда быстро реагируют на нее. Что мы можем сделать, чтобы защитить себя?
Что такое депфейки и чем они опасны?
Дипфейки, то есть изображения, звуки или видеоконтент, которые генерируются или манипулируются искусственным интеллектом, являются одной из самых противоречивых технологий нашего времени.
Для ее создания используются передовые алгоритмы искусственного интеллекта, поэтому пользователям становится все сложнее отличить настоящий контент от поддельного. Искусственный интеллект используется все чаще, в том числе в обучении и образовательном процессе.
Дипфейки иногда используют для манипуляций, шантажа, нанесения ущерба репутации, мошенничества и финансовых махинаций.
Риски, связанные с deepfakes, растут с расширением доступа к инструментам искусственного интеллекта. Сегодня почти любой, кто имеет доступ к интернету, может создавать видео или изображения, изображающие ситуации, которые на самом деле никогда не происходили.
Риск, связанный с созданием дезинформационных фейков и уязвимостью к ним, на самом деле растет с каждым днем. Интересно, что эти фейки также становятся лучше с каждым днем, ведь после создания технологии даже искусственный интеллект совершенствуется.
К сожалению, сегодня не нужно иметь суперкомпьютер, не нужно иметь дорогой суперсервис, чтобы генерировать такие материалы, а достаточно модели подписки и 5 долларов в месяц, и преступники генерируют такие глубокие фейки.
Как защититься от депфейков?
Социальные сети переполнены сгенерированными искусственным интеллектом видео и фотографиями политиков, общественных деятелей или знаменитостей, которые делают противоречивые заявления или рекламируют фальшивые товары или финансовые услуги.
Deepfakes также используют для создания компрометирующего контента, который может нанести репутационный или финансовый ущерб. Однако до того, как платформы реагируют и обозначают их должным образом, «глубокие фейки» становятся вирусными, охватывая миллионы зрителей.
К сожалению, в мире кибербезопасности всегда было так, что преступники опережают любые защитные механизмы. Бдительность потребителей контента должна играть ключевую роль, ведь когда они смотрят видео или читают новость, часто уже не в состоянии понять, является ли она реальной или создана искусственным интеллектом.
К счастью, инструменты на основе искусственного интеллекта также могут помочь в выявлении ложного контента. Там, где человеческое восприятие уже не может справиться, компьютер с искусственным интеллектом уловит, что это изображение слишком идеальное или чего-то не хватает. И тогда он определяет, что это подделка.
От редакции
Выход в том, чтобы медиаресурсы и социальные сети имели алгоритм по выявлению ложного контента и сразу могли его маркировать. Конечно это требует усиления контроля над известными мессенджерами, социальными сетями, интернет-платформами. В данном случае не является лишним контроль со стороны государства, поскольку это может угрожать как национальной безопасности, так и интересам общества.
Конечно подобный контроль требует не только нормативного урегулирования, но и огромного финансового ресурса, которые не все медиа, в том числе государство готовы потратить.
Поэтому по мнению StudentPortal выход борьбы против депфейков один — критическое мышление и умение отсеивать ложь и то, что вообще не нужно потребителю информации.