Potrivit Haaretz, mass-media sintetice – fie că sunt text, audio și mai ales videoclipuri false – formează ceea ce Omer Benjakob etichetează corect un „nou front” în lupta împotriva știrilor false: forțe online inteligente și slabe create special pentru a răspândi dezinformarea, pentru a produce imagini pornografice opresive sau pentru a perturba sistemele politice, sunt acum printre noi. Recunoașterea lor este din ce în ce mai dificilă, dacă nu imposibilă pentru ochiul uman neantrenat.
- Q MAGAZINE FAȚĂ ÎN FAȚĂ CU ALEXANDRU BALAN. PION. SPION. TRĂDĂTOR
- CCR dă câștig de cauză AUR: numirea membrilor CA din SRTv și SRR este neconstituțională
- Criza facturilor neplătite lovește economia
- Moțiunea de cenzură, citită în Parlament
- Programul SAFE. 12 vulnerabilități critice — procedurale, juridice, financiare și strategice — care expun statul român. Avertismentul ignorat
Prin synthetic media se înțelege producția artificială, manipularea și modificarea datelor și a mijloacelor media prin mijloace automatizate, în special prin utilizarea algoritmilor de inteligență artificială, cum ar fi în scopul de a induce în eroare oamenii sau a schimba un sens original.
În general, după cum ne spune cea mai mare acoperire jurnalistică a subiectului, deepfakes, alături de alte tehnologii AI (inteligență artificială), învățarea automată și rețelele neurale online, sunt aici și vor servi pentru a arunca o umbră de teroare tehnologică asupra societății.
Deepfakes sunt videoclipuri sau înregistrări audio false care arată și sună la fel ca cele reale. Astăzi, oricine poate descărca software-ul deepfake și crea videoclipuri false convingătoare în timpul liber.

TEHNOLOGIA DEEPFAKE, NU ATÂT DE ÎNFRICOȘĂTOARE PE CÂT CREDEM
Ca parte a mediatizării pe această temă a inteligenței artificiale, viitorul nostru este considerat dezastruos – omenirea a pierdut bătăliile în fața mașinilor iar episoadele din seria TV „Black Mirror” vor păli în comparație cu ravagiile semănate de tehnologie.
În primul rând, așa-numita tehnologie falsă (deep fake technology) ridică într-adevăr noi întrebări și probleme cu privire la modul în care percepem autenticitatea: de la documentarea realității, până la înregistrarea faptelor și chiar semnificația adevărului sunt acum puse sub semnul întrebării.
Adesea este greu să stabilim dacă un anumit videoclip pe care tocmai l-am vizionat sau o înregistrare audio pe care tocmai am auzit-o este reală sau de fapt falsă – adică suporturi sintetice produse de inteligența artificială.
Simțurile umane, sursa pentru o mare parte din cunoștințele noastre, sunt învechite într-un anumit sens și chiar și cunoștințele existente nu ne permit pe deplin să identificăm mediile sintetice cu încredere. Tot mai multe persoane în online folosesc tehnologia AI în scopuri rău intenționate, manipulând texte și imagini sintetice, fie pentru a crea o tulburare politică, fie pentru conținut pornografic.
Dar, alături de aceste evoluții, fără îndoială, periculoase, există și o altă parte a poveștii media sintetice, una pe care se pare că jurnaliștii din toată lumea tind să o ignore, alegând în schimb să sublinieze aspectele senzaționale și înspăimântătoare ale mass-mediei sintetice.
ASPECTELE POZITIVE ALE TEHNOLOGIEI DEEPFAKE
Deepfake-urile se bazează pe tehnologii care au de fapt multe aspecte pozitive și productive. În domeniul asistenței medicale, de exemplu, cercetătorii au produs imagini RMN sintetice ale creierului pentru a instrui algoritmi pentru a detecta bolile.
Cercetătorii din domeniul oncologiei și a bolii Alzheimer au folosit-o pentru a dezvolta modalități de a produce sisteme de diagnosticare bazate pe date false despre pacienți care facilitează teste mai puțin invazive, protejând totodată confidențialitatea dosarelor medicale ale pacienților.
În mod similar, manipulările deepfake legate de voce permit crearea și răspândirea unor mesaje sociale importante. Luați, de exemplu, videoclipul lui David Beckham, în care s-a oferit voluntar pentru a contribui la promovarea conștientizării malariei, o boală care afectează încă zeci, dacă nu sute de milioane pe tot globul. În acest videoclip fals, vedeta fotbalului transmite un mesaj convingător în nu mai puțin de nouă limbi, deși „el” vorbește cu adevărat doar una dintre ele.
Limbile au fost falsificate în videoclipul original. Porțiunile false ale acestui videoclip, produse de un grup numit „Malaria trebuie să moară”, cu ajutorul firmei Synthesia, au fost, în acest caz, necesare, importante și departe de a fi periculoase.
RETICENȚA FAȚĂ DE INTELIGENȚA ARTIFICIALĂ SAU FRICA FAȚĂ DE NOU
Deci, de ce majoritatea mediatizării se concentrează încă aproape exclusiv pe aspectele negative și periculoase ale tehnologiei deepfake? Se pare că această tendință nu este nouă.
Din punct de vedere istoric, numeroase tehnologii noi au fost inițial percepute cu multă îngrijorare și în termeni distructivi: tipografia a inspirat temerile bisericii că își va pierde adepții și a fost declarată o tehnologie periculoasă, televiziunea a dat glas unei frici similare de pierderea solidarității sociale și a structurii familiale tradiționale. Și deepfake-urile? Ele au adus profeții despre sfârșitul adevărului, pierderea documentației sociale și distrugerea umanismului.
Este adevărat că deepfake-urile ne cer să regândim în mod substanțial sentimentul nostru comun al adevărului și facticității sociale? Da. Înseamnă că suntem cu toții condamnați? Nu. Și, deși există ceva bun în utilizarea acestei tehnologii, știm deja că pe web se vinde conținut senzațional. Știrile, la fel ca multe alte companii care concurează pentru atenția noastră online, trebuie să obțină profit.
Într-adevăr, deepfake-urile sunt înfricoșătoare, întrucât subminează percepția noastră asupra realității și pun în discuție o mare parte din ceea ce știam despre documentare. Încă nu avem tehnologii de inteligență artificială bine concepute, de exemplu, care pot detecta videoclipuri false.
Cu toate acestea, este important să ne amintim că noi suntem cei care produc deepfake-uri, cei care le distribuie, cei care primesc informații false pe aplicațiile de mesagerie instantanee și le transmit mai departe, cei care nu se opresc să se gândească critic la imaginea pe care au văzut-o sau la înregistrarea pe care au auzit-o pe Facebook sau Twitter.
Cu toate că noi, oamenii obișnuiți, nu am creat algoritmul din spatele deepfake, continuăm totuși să participăm la distribuția și prevalența acestuia. Acest aspect uman și responsabilitatea civilă nu sunt redate suficient de puternic de presă – avem responsabilitate, un rol cultural și politic de jucat în acest moment de cotitură actuală din istoria relației dintre oameni și mașinile pe care le creează.
















































