Epidemia deepfake
Videoclipurile deepfake au crescut de la 500.000 în 2023 la peste 8 milioane în acest an, iar tentativele de escrocherie asociate au crescut cu 3.000% în doar doi ani, conform unei analize a firmei de securitate cibernetică DeepStrike. Această explozie a tehnologiei deepfake a marcat intrarea într-o nouă eră a conținutului video online, care prezintă riscuri semnificative pentru utilizatori.
Utilizarea tehnologiei deepfake în escrocherii
Experții avertizează că instrumentele video ultra-realiste bazate pe inteligență artificială, disponibile pe platforme precum Sora 2, sunt exploatate de escroci pentru a desfășura un val de escrocherii online. Dificultatea de a distinge între realitate și falsitate a crescut, având în vedere că oamenii pot identifica deepfake-uri de înaltă calitate doar o dată din patru, ceea ce înseamnă că milioane de utilizatori ar putea fi înșelați fără să-și dea seama.
Dezvoltarea industriei criminale
Inițial, deepfake-urile erau considerate o distracție pe internet, dar au evoluat rapid într-o industrie criminală de miliarde de dolari. Escrocii folosesc inteligența artificială pentru a clona voci, fețe și emoții, furând bani și răspândind informații false. Apelurile video deepfake în timp real sunt de așteptat să devină din ce în ce mai frecvente, permițând escrocilor să se prezinte drept persoane de încredere, cum ar fi rudele sau șefii.
Semnele pentru identificarea deepfake-urilor
Experții de la compania de software Outplayed au identificat câteva semne cheie care pot ajuta la identificarea videoclipurilor generate de inteligență artificială:
- Clipit și ochi: Subiecții clipesc mai puțin sau își mișcă ochii în modele robotice.
- Mâini și degete: Degetele pot apărea deformate sau îmbinate.
- Erori de iluminare: Umbrele pot cădea în direcții ciudate.
- Apă și reflexii: Lichidul poate părea „prea perfect”.
- Probleme de sincronizare a buzelor: Buzele nu se potrivesc perfect cu cuvintele.
- Piele netedă: Fețele artificiale create pot părea plastice, fără textură.
- Fundaluri cu erori: Obiectele deformate sau marginile pâlpâitoare pot trăda falsitatea.
- Mișcarea țesăturilor: Hainele se mișcă rigid.
- Tranziții de scenă: Săriturile sau „sclipirile” stângace pot indica editarea.
- Context ciudat: Persoanele pot apărea în locuri neobișnuite.
- Presimțire: Dacă ceva pare ciudat, este probabil să fie fals.
Impactul deepfake-urilor asupra societății
Deepfake-urile pot induce în eroare și pot afecta încrederea publicului în dovezile video. Escrocheriile economice și romantice devin din ce în ce mai frecvente, iar specialiștii subliniază că acestea ocolesc logica și ajung direct la emoții. Tehnologia Sora a depășit un milion de descărcări, utilizatorii generând clipuri scurte care generează frecvent controverse. Escrocii au folosit chiar și imaginea unor celebrități pentru a-și desfășura activitățile frauduloase.
Concluzie
Creșterea rapidă a tehnologiei deepfake ridică semne de întrebare asupra securității informațiilor video și a încrederii în conținutul online, având implicații serioase pentru utilizatori și societate în ansamblu.


E greu de crezut cât de rapid a crescut numărul acestor deepfake-uri. Oare câte dintre ele sunt deja folosite în scopuri rele?
Mă întreb ce soluții concrete pot oferi experții pentru a ne proteja. Cu atât de multe escrocherii, e clar că trebuie să fim mai vigilenți.
Până unde poate merge tehnologia asta? E fascinant și terifiant în același timp să vedem cum pot fi manipulate imagini video.
Sunt tot mai sceptic față de informațiile pe care le consumăm. Dacă nu putem avea încredere nici în clipurile video, atunci ce ne mai rămâne?