Живеем ли вече в генерирана от ИИ deepfake диктатура?

Живеем ли вече в генерирана от ИИ deepfake диктатура?

Живеем ли вече в генерирана от изкуствен интелект deepfake диктатура? Кога забавните продукти се превръщат в оръжия за масово поразяване?  Тези синтетични медии вече не са само тема за научна фантастика или интернет шеги, а сериозна заплаха. Тя може да компрометира животи, да дестабилизира обществата и да провокира международни кризи.

Последният такъв пример изглежда невинно, но само на пръв поглед. В социалните мрежи и медийното пространство се разпространиха снимки и видеа, на която изглежда, че водачът на Възраждане Костадин Костадинов е в интимен момент с жуналистката Цвета Стратиева, с артистичен псевдоним Флора.

По-късно стана ясно, че изображението е изкуствено създадено с помощта на AI технологии и има за цел да компрометира и дестабилизира двамата, както и да предизвика скандал на политическата сцена.  Подобни атаки стават част от политическите инструменти за дискредитиране и омаскаряване, а може би подготовка за нещо по-голямо?

Един от най-забележителните случаи в световен мащаб бе измамата с британската инженерна компания Arup. През 2024 г. тя загуби 25,5 милиона долара, след като служители одобриха трансфер, базиран на видео конференция с клонирани гласове и лица на ръководството.

Опасностите

 

Но финансовите загуби не са най-притеснителното. Представете си, че фалшиво видео с компрометиращо поведение бъде разпространено срещу политик, лекар, учител или каквато се сетите друга професия. Социалната мрежа и общественото мнение могат да бъдат безпощадни. В много случаи подобни компромати довеждат до загуба на работа, обществено отхвърляне, психически сривове, а понякога и до физическа заплаха за живота.

Ако обществото не може да различава истинското от фалшивото, политическите процеси се превръщат в цирк на сенки, където истинските идеи и програми са заглушени от фалшиви обвинения и инсценирани скандали.

Deepfake може да се използва като средство за създаване на „фалшиви факти“ в международната политика – инсценирани нападения, фалшиви изказвания на лидери, които да провокират ответни действия. В свят, където натиска за бърза реакция е голям, подобни манипулации могат да доведат до реални военни конфликти с жертви.

В модерната правова държава, всяка истина минава през система от доказателства – аудио, видео, текстови документи. Но когато тези доказателства могат да бъдат неразличимо фалшифицирани, ние навлизаме в реалност, в която не просто истината е под съмнение, а самият процес на откриването ѝ става почти невъзможен. Това създава вакуум, който се запълва не с разум, а с догадки, манипулации, и ирационална емоция.

Ако едно видео може да накара пазара да се срине, война да избухне или правителство да падне, то това е оръжие. И не просто оръжие на масова дезинформация, а информационно ядрено оръжие, което може да бъде активирано дистанционно и без следа.

Държави, корпорации или криминални мрежи могат да започнат да използват deepfake не като инструмент, а като част от стратегически арсенал – наравно с кибер атаките, шпионажа и икономическото саботиране. И то в най-важната война – за господство над съзнанията.

Една особено ужасяваща способност на deepfake е възможността за ретроспективно фалшифициране на историята. Не просто да се „изопачат“ факти, а да се създадат нови „доказателства“, които в очите на следващите поколения ще бъдат възприемани като реални. Историята винаги е била поле за интерпретация, но сега тя става материал за директно фабрикуване.

Същото важи и за бъдещето – един deepfake може да бъде използван като „доказателство“ за предполагаема заплаха: изказване на диктатор, симулация на атака, уж автентичен разузнавателен доклад. А това узаконява превантивни действия, включително военни, санкционни или дори ядрени.

Възможна дистопия – свят след края на доверието

 

Представете си свят, в който всичко, което виждате, чувате или четете, подлежи на съмнение. Не защото сте скептични по природа, а защото самата тъкан на реалността е проядена от възможността за пълна симулация. Това не е научна фантастика. Това е предверието на информационната дистопия, в която вече живеем – свят, в който доверие не означава истина, а вярване по избор.

В този свят вече няма значение какво е „станало“. Има значение какво изглежда, че е станало. Истината – онова, което е проверимо, доказуемо и общо прието, отстъпва място на персонализирана реалност. В която deepfake съдържанието е не просто злоупотреба с образ и глас, а фундаментална атака срещу самата възможност за споделена истина.

Демократичните общества се крепят не просто на избори, а на информирано участие. Когато информацията е компрометирана, волята на народа се превръща в реакция на симулации, не на факти. Избирателите гласуват на база фалшиви скандали, изкуствени образи, симулирани реплики на кандидати, които никога не са били произнесени. Една deepfake атака, пусната в нощта преди изборите, може да промени съдбата на нация.

В свят на социални мрежи, където цифровата самоличност често е по-видима от физическата, deepfake е равнозначно на дигитално убийство. Не е нужно да нараниш човек физически, достатъчно е да го изобразиш в сексуален, компрометиращ или престъпен контекст, който изглежда неоспоримо реален. До момента, в който се докаже фалшификацията, ако изобщо се докаже, общественото съзнание вече е произнесло присъдата.

Жертвата губи работата си, партньора си, децата си, правото си на публичен живот. Дори когато е невинна. Защото в епохата на симулацията, вината не е в действието, а в изглеждането. Личността става заложник на технологии, които не може да контролира, а често – дори да разбере.

Историята помни достатъчно примери за войни, започнати с лъжи: от инцидента в Тонкин (Виетнам) до неоткритите оръжия за масово поразяване в Ирак. Но тогава поне имаше свидетели, документи, време за съмнение. Днес е нужно едно видео, една симулирана реч, един deepfake на световен лидер, който „заповядва“ ядрена атака, и в рамките на минути може да бъде активиран отговор. Реалността ще реагира на измислица, но последствията ще бъдат напълно реални: смърт, разруха, бежански вълни.

В условията на масова симулация, хората престават да споделят обща картина на света. Всеки живее в ехо камера, където алгоритми му подават само онези „реалности“, които потвърждават убежденията му. Deepfake съдържанието допълнително изостря тази изолация – защото вече не само информацията е селективна, а и визуалните „доказателства“ са фалшиви и идеологически заредени.

Резултатът е общество без център. Без основа за диалог. Когато всяка група вярва на различен набор от „факти“, то тя не просто е опонент на другите – тя живее в различна вселена. Диалогът умира,  а на негово място идват насилие, радикализация и отчаяние.„

Единственият начин да се противопоставим на тази реалност не е просто чрез технологии за разпознаване на deepfake. Това е важно, но недостатъчно. Нуждаем се от нова култура на съмнение и отговорност. От дигитална грамотност, която се преподава още в училище. От платформи, които поемат етична отговорност за разпространяваното съдържание. От закони, които не се колебаят да санкционират и създателя, и разпространителя на злонамерени симулации.

Но най-вече: нуждаем се от общество, което не абдикира от реалността. Което не позволява на илюзията да замести истината, на сензацията – съвестта, на страха – свободата.

Автор: Тодор Беленски

Ако искате да продължим с работата си, подкрепете ни!

➡️ Revolut: https://revolut.me/tbelenski

➡️ Банкова сметка: BG82STSA93000014941658d

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *

"Използваме "бисквитки", за да управляваме този уебсайт и да подобрим неговата използваемост. Моля, имайте предвид, че като разглеждате този сайт, вие давате съгласието си за използването на "бисквитки". View more
Cookies settings
Приемам
Отказвам
Политика за бисквитки
Privacy & Cookies policy
Cookie name Active

Who we are

Suggested text: Our website address is: https://mnenia.info.

Comments

Suggested text: When visitors leave comments on the site we collect the data shown in the comments form, and also the visitor’s IP address and browser user agent string to help spam detection. An anonymized string created from your email address (also called a hash) may be provided to the Gravatar service to see if you are using it. The Gravatar service privacy policy is available here: https://automattic.com/privacy/. After approval of your comment, your profile picture is visible to the public in the context of your comment.

Media

Suggested text: If you upload images to the website, you should avoid uploading images with embedded location data (EXIF GPS) included. Visitors to the website can download and extract any location data from images on the website.

Cookies

Suggested text: If you leave a comment on our site you may opt-in to saving your name, email address and website in cookies. These are for your convenience so that you do not have to fill in your details again when you leave another comment. These cookies will last for one year. If you visit our login page, we will set a temporary cookie to determine if your browser accepts cookies. This cookie contains no personal data and is discarded when you close your browser. When you log in, we will also set up several cookies to save your login information and your screen display choices. Login cookies last for two days, and screen options cookies last for a year. If you select "Remember Me", your login will persist for two weeks. If you log out of your account, the login cookies will be removed. If you edit or publish an article, an additional cookie will be saved in your browser. This cookie includes no personal data and simply indicates the post ID of the article you just edited. It expires after 1 day.

Embedded content from other websites

Suggested text: Articles on this site may include embedded content (e.g. videos, images, articles, etc.). Embedded content from other websites behaves in the exact same way as if the visitor has visited the other website. These websites may collect data about you, use cookies, embed additional third-party tracking, and monitor your interaction with that embedded content, including tracking your interaction with the embedded content if you have an account and are logged in to that website.

Who we share your data with

Suggested text: If you request a password reset, your IP address will be included in the reset email.

How long we retain your data

Suggested text: If you leave a comment, the comment and its metadata are retained indefinitely. This is so we can recognize and approve any follow-up comments automatically instead of holding them in a moderation queue. For users that register on our website (if any), we also store the personal information they provide in their user profile. All users can see, edit, or delete their personal information at any time (except they cannot change their username). Website administrators can also see and edit that information.

What rights you have over your data

Suggested text: If you have an account on this site, or have left comments, you can request to receive an exported file of the personal data we hold about you, including any data you have provided to us. You can also request that we erase any personal data we hold about you. This does not include any data we are obliged to keep for administrative, legal, or security purposes.

Where your data is sent

Suggested text: Visitor comments may be checked through an automated spam detection service.
Save settings
Cookies settings