Rozwój technologii nie tylko przyczynił się do coraz bardziej innowacyjnych ataków., ale również do stworzenia narzędzi, które chociaż miały służyć użytkownikom na co dzień, jednak stały się narzędziami w rękach przestępców. Każdy z nas słyszał już o ChatGPT, niektórzy może nawet poznali jego możliwości, ale mało kto wie, że istnieją jego odmiany do tworzenia klipów video. Narzędzie jakim jest sztuczna inteligencja daje praktycznie nieograniczone możliwości przy tworzeniu filmów.

Największym zagrożeniem tej technologii jest możliwość stworzenia dowolnego klipu i nie ma znaczenia kto wystąpi w tym video i co będzie mówił – wystarczy zlecić zadanie programowi, a on zrobi to za nas.

W ten sposób zrodziły się Deepfake’i czyli filmiki stworzone przez sztuczna inteligencję. Chociaż każdy z nas widział, na portalach takich jak Instagram czy Facebook, śmieszne filmiki ze sławnymi osobami, to niestety również mógł natrafić na filmiki, w których osoba zaufana lub ciesząca się popularnością namawia na inwestycje w np. papiery wartościowe, nieruchomości czy też inne rzeczy. Niestety jest to forma oszustwa mająca na celu kradzież pieniędzy osoby, która dokona przelewu na tak zwaną „INWESTYCJE”. Chociaż przeróbki te mogą wydawać się niewystarczająco autentyczne dla wprawnego oka, dla niektórych może stanowić wystarczające uzasadnienie do kliknięcia.

Do najważniejszych zagrożeń jakie płyną z Deepfake’ów możemy zaliczyć:

  • Rozpowszechnianie dezinformacji – Deepfake można wykorzystać do stworzenia filmiki z fałszywą wypowiedzią publiczną.
  • Szantaż wyłudzanie pieniędzy – przykładem może być szantażowanie osoby nagraniem stworzonym przez SI na którym ofiara znajduje się w kompromitującej sytuacji.
  • Zniszczenie reputacji – Deepfake może być wykorzystany do zniszczenia reputacji osoby lub firmy np. filmik gdzie członek kierownictwa wypowiada rasistowskie poglądy.
  • Dostęp do wrażliwych informacji – może być skutecznym nośnikiem kampanii phishingowych czy ransomeware’owych. Wykorzystanie fałszywych filmów ułatwia podszycie się pod zaufane osoby czy firmy, co sprzyja wyłudzaniu danych wrażliwych.

 

Jak rozpoznać Deepfake ?

Perspektywa dotycząca potencjalnego wykorzystania klonowania głosu w oszustwach bankowych, dezinformacji, inżynierii społecznej oraz naruszeniach praw autorskich są niepokojące. Edukacja użytkowników na temat zagrożeń takich jak inżynieria społeczna, phishing, vishing czy dezinformacja może w krótkoterminowej perspektywie okazać się bardziej skuteczna niż samo reagowanie na nadużycia.

Istnieją pewne szczegóły, które mogą ułatwić rozpoznanie Deepfake, takie jak:

  • Zwrócenie uwagi na nieprawidłowości, które można zauważyć na pierwszy rzut oka, na przykład, sztuczna mimika twarzy, niewyraźne krawędzie, czy nienaturalne ruchy.
  • Sprawdzenie źródła nagrania, jeśli nagranie jest zamieszczane na stronach „sponsorowanych” bądź pochodzi z podejrzanych lub niepewnych źródeł, należy unikać klikania w linki do niego dołączone.

To czy uda nam ochronić siebie przed tym bądź co bądź bardzo innowacyjnym atakiem, zależy w największej mierze od nas, użytkowników. Świadomość czyhających zagrożeń i zwracanie uwagi na szczegóły, może uchronić nas przed poważnymi konsekwencjami jakie niosą z sobą zagrożenia cyberświata.

Autor: Paweł Gniewosz