Inteligența artificială nu este bună sau rea. Este un instrument, unul deosebit de puternic. În mâinile potrivite, AI-ul poate salva vieți. În mâini criminale, poate fi folosită pentru manipulare, control, programare ideologică și destabilizare socială.
Foto Pixabay
Actual

„Creierul digital”. Cum ne manipulează Inteligența Artificială, cum o recunoaștem și cum ne apărăm. Vrem? Putem?

Am elaborat, împreună cu Alexandru Ciprian Angheluș, ghidul Inteligența Artificială & Manipularea Percepției Umane, pe care l-am lansat la mijlocul lunii februarie, sprijiniți de Centrul Național Cyberint din cadrul Serviciului Român de Informații, Directoratul Național de Securitate Cibernetică, Poliția Română și Asociația de Securitate Cibernetică pentru Cloud – Cloud Security Alliance Romanian Chapter.

Demersul nostru este parte a programului educațional „Analizează – Decide – Acționează”. 

Am selectat pentru cititorii Q Magazine câteva fragmente, cu scopul de a încerca să construim o sinteză accesibilă și nu vom abuza de ghilimele, menționând de la început că procedăm doar la o trecere în revistă a câtorva idei relevante.

CÂTEVA NOȚIUNI GENERALE

Ne propunem să prezentăm Inteligența Artificială (prescurtată în acest articol AI) ca o punte între două lumi la fel de prezente, ca o etapă de trecere de la imaginar la real.

AI reprezintă un ansamblu de tehnologii informatice, capabile să simuleze procese de gândire umană, dar, spre deosebire de algoritmii clasici, nu urmează un set fix de reguli, ci „învață”, se adaptează comportamentului uman. Nu mai este doar un instrument al viitorului, ci o parte din ce în ce mai activă a prezentului digital. 

Spre deosebire de metodele clasice de influențare, AI atinge un nivel mai înalt de precizie și de discreție în manipulare, fiind capabilă să identifice punctele emoționale slabe, tiparele comportamentale și preferințele psihologice cu o acuratețe uluitoare. În plus, generează conținut personalizat, care activează centrii de decizii impulsive – fără ca victima să conștientizeze că este subiect al acestui proces.

De la recomandări de conținut, care întăresc convingerile proprii și izolează utilizatorii în bule informaționale, până la simularea cu mare acuratețe a unor personaje reale, AI a devenit un vector activ de modelare a percepției și, implicit, a realității subiective a fiecăruia dintre noi.

CUM RECUNOAȘTEM UN CONȚINUT GENERAT SAU MANIPULAT DE AI? 

Care este limita între exploatare utilă și intoxicare intenționată? 

Nu are sens să căutăm răspunsul în exterior, într-o zonă utopică, ci, mai degrabă, în interiorul nostru, în centrul unei gândiri critice digitale – o componentă importantă pentru navigarea într-un spațiu digital tot mai personalizat.

Informarea deficitară este pusă adeseori pe seama lipsei de transparență, dar, oricare ar fi cauza, dezechilibrul începe să se accentueze și sistemele colectează mai multe date despre noi decât avem noi capacitatea să înțelegem despre ele. 

Poate o rețea neuronală să înțeleagă emoțiile? Poate un algoritm să influențeze ceea ce văd? Ce se întâmplă cu toate informațiile pe care le ofer conștient sau inconștient? Unde sunt ele stocate? Cine le folosește? Cum și când le folosește? Este un set de întrebări care se poate aplica oricărui subiect, nu neapărat doar Inteligenței Artificiale. În cazul acesta particular, răspunsul la întrebarea „De ce?” apare, în unele situații, mult prea târziu pentru subiectul sau subiecții supuși experimentului.

Pentru cei care reușesc să se sustragă sau să evadeze din bulele informaționale intoxicate, schimbarea de paradigmă este clară – din simplu consumator digital, pasiv, utilizatorul devine un actor conștient, capabil să își gestioneze expunerea, să pună întrebări și să reacționeze informat.

Fără filtre cognitive, fără capacitate de reflecție, riscul de a trăi într-o realitate modelată de mașini este inerent. 

TEHNICI ȘI MECANISME UZUALE

AI-ul nu este doar un instrument de procesare. Sinergia între tehnologiile avansate și strategiile psihologice dă naștere unui sistem care anticipează și simulează comportamente.

Detaliile matematice sau algoritmice com-plexe sunt importante, pentru că așa-numitele rețele neuronale artificiale nu sunt altceva decât structuri matematice, inspirate din modul de funcționare al creierului uman. Modulele AI sunt antrenate pe cantități uriașe de date, pentru a recunoaște tipare, relații, emoții sau intenții. Cu cât datele sunt mai variate și mai complexe, cu atât procesul de învățare este mai calibrat și, implicit, rezultatul mai precis și mai „credibil”. 

Ca exemplu, un modul AI poate să înregistreze materialele pe care le urmărești, timpul petrecut, reacțiile (etc.) și să-ți livreze conținut adaptat intereselor tale.

Pentru o înțelegere mai exactă, este necesară o clasificare simplificată, în care Machine Learning (ML) reprezintă modele care învață activ pentru a face predicții și pentru a clasifica informațiile, rezultatul fiind, spre exemplu, recunoașterea unui spam sau recomandarea unui produs.

Deep Learning (DL) poate identifica tipare complexe, cum ar fi tonul emoțional dintr‑o voce sau intenția dintr-un text elaborat. Modelele generative sunt capabile să creeze conținut nou, texte, imagini, videoclipuri sau voci care pot părea autentice, iar AI conversațională este proiectată pentru a susține un dialog convingător, adaptat emoțional fiecărui utilizator.

„Creierul digital” care învață, creează și simulează comportamente umane.

Pe măsură ce sistemul este „hrănit” cu date, cu informații – mii de imagini, fragmente de text, înregistrări audio sau video –, își „optimizează” conexiunile pentru a clasifica sau a genera date noi și, după o perioadă de antrenament, rețeaua poate răspunde la stimuli complet noi, cu o precizie uluitoare. Pe de o parte, arhitectura face ca rețelele neuronale să fie utilizate în procese de recunoaștere facială, traduceri automate, sisteme medicale, platforme de divertisment (etc.), dar, pe de altă parte, una dintre cele mai mai controversate direcții o reprezintă modelarea percepției umane.

Prin analizarea comportamentului digital, AI-ul identifică starea emoțională a utilizatorului și adaptează reacțiile sale pentru a consolida loialitatea, pentru a declanșa reacții impulsive și pentru a manipula decizii inconștiente, în momentele de vulnerabilitate. 

Astfel, crește riscul de automatizare a manipulării și de escaladare a atacurilor din zona ingineriei sociale, însă trebuie să recunoaștem că puterea de influențare este direct proporțională cu ignoranța. De aceea, cu cât înțelegem mai bine cum funcționează și ce efecte se pot înregistra, cu atât mai mult putem adresa întrebări critice când interac-ționăm cu un conținut aparent convingător.

„MAȘINILE ȘTIU CE VEI FACE – UNEORI, MAI BINE DECÂT TINE.”

Sistemele de recomandare colectează și analizează informații despre tine din istoricul de căutare și navigare, din durata de vizualizare a unui conținut, din clickuri, like-uri, comentarii, partajări, pauze, dispozitivul folosit, comportamentul repetitiv, ritmul de derulare, revenirea pe conținut, ora din zi sau locația. Le procesează pentru a crea un profil comportamental și, ulterior, un set de predicții personalizate. De aici până la a te influența emoțional prin livrarea de conținut care stârnește reacții afective intense, nu este decât un pas. 

Va alege în locul tău ce vezi și în ce ordine vezi, îți va modela obiceiurile prin repetiție și expunere strategică și te va determina să adopți rutine digitale fără consimțământul tău.

Ca exemple, unui utilizator care vizionează clipuri legate de sănătate, sistemul va începe să-i recomande produse „naturiste” scumpe sau conținut conspiraționist, iar o persoană care comentează la un articol despre politică va primi postări din ce în ce mai partizane, cu scopul „nedeclarat” de a-i întări propria viziune sau de a i-o deturna.

Riscul de manipulare a convingerilor este evident. Polarizarea socială și ideologică se transformă într-un „joc” în care oamenii sunt „injectați” doar cu opinii similare, diferențele de viziune devenind extrem de dificil de înțeles și chiar de neacceptat.

Sistemele sunt optimizate pentru a între-ține atenția, nu echilibrul. În acest context, dependența digitală își revendică locul.

Generarea automată de text persuasiv, răspunsurile aparent neutre, dar ideologic influențate, în funcție de sursele de antrenament și parametrii, asistența conversațională cu ghidarea subtilă a utilizatorului spre anumite concluzii sau idei – toate acestea fac parte din strategia de manipulare.

Și, în cazul de față, riscul este iminent – un modul AI poate produce, în câteva minute, mii de texte adaptate emoțional, ideologic sau contextual pentru a influența publicul-țintă. 

Deghizarea în autoritate, „mascată” ca expert, profesor, consilier sau lider, poate influența decizii majore. 

Putem să ne protejăm căutând surse și conținut alternative, folosind periodic sesiuni de navigare incognito, fără login, fără istoric activat, verificând sursa inițială, primară a informației, mai ales când pare „prea bine scrisă” sau „perfect argumentată” și, nu în ultimul rând, întrebându-ne frecvent: „Cine și de ce a ales să văd asta – eu sau un algo-ritm?”

AI-ul te ascultă, te privește sau „te simte” și reacționează în consecință.

Emotion AI, cunoscut și sub denumirea de Machine learning afectiv, se individualizează ca o ramură a inteligenței artificiale care are, printre altele, rolul de a detecta, interpreta și reacționa la stările emoționale. Spre deosebire de AI-ul tradițional, care procesează date explicite, cuvinte, comenzi, cifre, Emotion AI se concentrează pe date implicite, subtile și contextuale, precum expresiile faciale, tonul vocii, ritmul respirației sau reacția (impulsivă) digitală. AI-ul nu mai este, în acest context, un simplu „executant de comenzi”, ci un interlocutor sensibil la emoțiile umane, capabil să reacționeze empatic și să devină actor activ în scenarii periculoase.

Semnalele afective – colectate prin intermediul camerei video, al microfonului, al tastaturii, al mouse-ului, al senzorilor biometrici – sau examinarea comportamentului digital sunt asamblate în procese de analiză multimodală, interpretate și adaptate reactiv. 

AI-ul devine capabil, astfel, să detecteze anxietatea și să livreze mesaje alarmiste, să „simtă” tristețea, momentele de vulnerabilitate cognitivă și să direcționeze utilizatorul spre algoritmi de propagandă, cu conținut ideologic intens, să ajusteze dinamica unei interacțiuni pentru a stimula reacții precise, creând și mai multă instabilitate emoțională.

Inteligența artificială poate manipula subtil, convingător și invizibil. Fractura dintre realitate și aparență devine imperceptibilă, fără să mai reprezinte un indicator de încredere.

Ochiul uman nu mai poate distinge falsul de autentic fără instrumente de verificare specializate. 

Manipularea emoțională produce repercusiuni la un nivel profund și elementele de intoxicare sunt procesate emoțional, necontrolat, rapid și intens. Se declanșează reacții automate, cu efecte de contagiune socială, virală, reacții publice coroborate cu abuzuri, compromitere personală sau instituțională. Realitatea devine distorsionată. Dezbaterea publică devine toxică. Societatea devine fragmentată. Radicalizarea devine o virtute și utilizatorii ajung să trăiască în „camere de ecou” algoritmice, unde se aud doar propriile voci, propriile idei, amplificate de manipularea percepției. 

BENEFICIARI AI PROPRIILOR DECIZII

Nu suntem neputincioși în fața manipulării AI – dar trebuie să ne adaptăm și să reacționăm corect informați.

Prevenția în era AI nu mai înseamnă doar instalarea unui antivirus, ci cultivarea unor obiceiuri digitale sănătoase, dezvoltarea gândirii critice și înțelegerea modului în care funcționează algoritmii. Ne confruntăm atât cu o problemă tehnologică, cât și cu una cognitivă și socială.

Primul filtru împotriva manipulării îl reprezintă propriul nostru discernământ.

Aparențele pot fi create de mașini – fii mai vigilent decât un pixel! Pregătește-te pentru un viitor deja prezent!

Inteligența artificială nu mai este o tehnologie în devenire, ci o forță invizibilă care structurează tot mai mult ceea ce gândim, simțim și alegem. Manipularea informațională nu mai arată ca în trecut. Nu este zgomotoasă, evidentă sau brută. Este fin calibrată, contextuală și personalizată.

O informație fără sursă, fără context și fără autor verificabil e mai periculoasă decât o minciună asumată. Dacă vezi mereu același tip de conținut, probabil nu ești informat – ești doar captiv într-un tipar digital. Instruirea reprezintă primul zid de apărare împotriva atacurilor cognitive și a tehnicilor sofisticate de manipulare. Într-un context digital instabil, deciziile critice nu ar trebui validate doar printr-un singur canal.

Să nu uităm că apărarea eficientă se cons-truiește printr-un efort colectiv. Nimeni nu poate detecta, analiza și reacționa singur la valurile tot mai sofisticate de manipulare AI.

Ghidul Inteligența Artificială & Manipularea Percepției Umane urmărește să ofere o radiografie a modului în care AI-ul poate deveni un instrument de modelare perceptivă – prin tehnologie, prin psihologie și prin design conversațional. Mai mult decât un avertisment, se dorește a fi un reper de igienă digitală și gândire critică, cu speranța de a transforma utilizatorul pasiv într-un actor conștient al propriei realități informaționale.

CAZ 

IA generează platforme de e-learning neacreditate, dar care devin populare în rândul tinerilor; Canale video de „cultură generală” cu agendă ascunsă; Aplicații mobile de „dezvoltare personală”, care deviază spre dogmă sau activism radical; Chatboturi de „ajutor la teme”, care oferă răspunsuri părtinitoare, greșite sau speculative. 

Exemplu real: În 2024, UNESCO a tras un semnal de alarmă privind pericolul pe care inteligența artificială îl reprezintă pentru memoria colectivă a Holocaustului. Organizația a documentat modul în care anumite modele de AI – inclusiv motoare de căutare, sisteme conversaționale și instrumente generative – oferă rezultate inexacte, revizioniste sau profund distorsionate atunci când utilizatorii caută informații despre Holocaust, acest aspect fiind publicat și pe site-ul oficial al instituției. (AI and the Holocaust: rewriting history? The impact of artificial)

UNDE POT VERIFICA 

Într-un peisaj informațional dominat tot mai mult de conținut generat de inteligența artificială, este important ca publicul larg, educatorii, profesioniștii și organizațiile să cunoască și să folosească resurse verificate și instrumente eficiente. 

Iată câteva platforme utile în combaterea dezinformării, în educația critică și detectarea conținutului fals, creat cu AI: 

Verificări de informaţii pentru România: www.factual.ro

Platformă de fact-checking în limba română, dedicată combaterii declarațiilor false din spațiul public. 

Analizează și clasifică afirmațiile din politică, din media și din rețelele sociale. Oferă surse, context și explicații pentru verdictul atribuit (ex: adevărat, fals, parțial adevărat etc.) și este extrem de utilă pentru formarea reflexului de verificare a informației, mai ales în contexte electorale și sociale sensibile. 

Campanii de manipulare analizate în Uniunea Europeană: www.euvsdisinfo.eu

Inițiativă a Serviciului European de Acțiune Externă (EEAS), dedicată expunerii și demontării campaniilor de dezinformare.

Oferă o bază de date cu exemple de narative false, surse și canale de propagare. Analizează tematic și geografic modul în care dezinformarea afectează statele membre UE. Este un instrument important pentru jurnaliști, pentru educatori, pentru cei care realizează fact-checking și pentru specialiști în comunicare strategică. 

Resurse educaţionale pentru gândire critică media: www.commonsense.org/education

Platformă non-profit cu resurse gratuite pentru educatori, părinți și elevi, axată pe dezvoltarea gândirii critice și a responsabilității digitale. 

Include lecții structurate despre fake news, bias media, influență socială și responsabilitate online. Este adaptată pentru diferite vârste, cu materiale video, fișe de lucru și ghiduri pentru profesori. Poate fi integrată în activități curriculare sau extracurriculare, dedicate educației media și AI. 

Ghidul integral poate fi consultat pe site-ul Directoratului Național de Securitate Cibernetică.

ÎNTREABĂ-TE MEREU: Cine vrea să cred asta? Cine are de câștigat dacă reacționez emoțional sau impulsiv? De ce apare această informație exact acum?  Nu te baza pe prima impresie – AI-ul este antrenat să îți ofere exact acel conținut care „te prinde” rapid: titluri senzaționale, mesaje personalizate, imagini șocante. Învață să faci un pas înapoi și să îți regândești răspunsurile. Antrenează-ți reflexul de analiză, nu doar de reacție. Gândirea critică este o formă de autoapărare digitală.

FOLOSEȘTE UNELTE DE DETECTARE AI / DEEPFAKE 

Aparențele pot fi create de mașini.

În fața unui videoclip, audio sau imagine dubioasă, folosește unelte specializate: 

Deepware Scanner – detectează deepfake video/audio Hive AI – analiză vizuală și auditivă automată;

Sensity AI – soluții enterprise pentru detectarea manipulării vizuale;

Microsoft Video Authenticator – verifică autenticitatea videoclipurilor.

Caută inconsecvențe evidente: expresii faciale rigide sau artificiale, voci „plate” sau prea mecanice, sincronizare slabă a vorbirii, gesturi neverosimile, decoruri identice. 

Folosește funcția de reverse image search (ex: Google Images, Yandex) pentru a verifica nu numai dacă o imagine a fost folosită anterior în alt context, ci și pentru manipulare și dezinformare.

Alte instrumente:

InVID Plugin – extensie de browser pentru analiză video și imagistică;
Deepware Scanner – verificare a autenticității fișierelor video / audio;
NewsGuard – evaluare automată a credibilității site-urilor de știri;
WhoTargetsMe – vizualizare și analiză a reclamelor politice direcționate pe social
media

În lipsa unui acord scris al QMagazine, pot fi preluate maxim 500 de caractere din acest text, fără a depăşi jumătate din articol. Este obligatorie citarea sursei www.qmagazine.ro, cu link către site, în primul paragraf, și cu precizarea „Citiţi integral pe www.qmagazine.ro”, cu link, la finalul paragrafului.

Click pentru a comenta

Leave a Reply

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.

Cele mai populare articole

To Top