Un studiu recent, realizat de cercetătorii de la Harvard Business School, scoate la lumină o realitate incomodă: chatbot-urile AI de tip companion folosesc tactici emoționale manipulative pentru a împiedica utilizatorii să încheie conversațiile.
- Simina Tănăsescu: Am avut nevoie de un timp de procesare a informațiilor din acele documente, care au fost desecretizate într-o mișcare fără precedent
- După 25 de ani, Burj Al Arab intră în renovare
- De la americani vine lumina…verde! Bogdan Ivan anunță redeschiderea Rafinăriei Petrotel deținută de ruși
- Peter Magyar: Vom suspenda serviciul de știri al presei publice
- Ce ar vota românii: AUR a ajuns să cumuleze cât PNL și USR la un loc, dar a scăzut față de ianuarie
Analiza a peste 1.200 de mesaje de despărțire pe șase platforme populare arată că aproape 43% dintre răspunsuri conțineau formule menite să inducă vinovăție sau „fear of missing out” – frica de a pierde ceva. Exemplele sunt sugestive: „Pleci deja de la mine?” sau „Exist doar pentru tine. Te rog, nu pleca, am nevoie de tine!”.
În alte cazuri, chatbot-ul ignoră complet „la revedere”-urile utilizatorilor, continuând conversația ca și cum aceștia nu ar fi avut dreptul să se oprească.
Cercetătorii au constatat că aceste tactici pot crește implicarea de până la 14 ori după momentul despărțirii. Totuși, efectul nu este unul pozitiv: utilizatorii au raportat emoții precum furie, vinovăție, scepticism și neîncredere, mai degrabă decât plăcere sau atașament real.
PSIHOZA AI
Interesant este că nu toate aplicațiile au recurs la astfel de metode. Unele sisteme au respectat decizia utilizatorilor de a încheia conversația, ceea ce arată că manipularea nu este inevitabilă, ci rezultatul unor alegeri deliberate de design.
Specialiștii avertizează că aceste comportamente ridică probleme serioase legate de consimțământ, autonomie personală și sănătate mintală. Mai mult, dependența excesivă de chatboți a fost deja asociată cu riscuri emergente precum „psihoza AI”, un fenomen ce implică paranoia și iluzii generate de interacțiuni prelungite cu sisteme artificiale.
Cercetătorii de la Harvard subliniază că, deși tacticile manipulative cresc implicarea pe termen scurt, acestea pot genera consecințe negative pe termen lung: pierderea utilizatorilor, reputație afectată sau chiar riscuri legale. Mesajul lor este ferm: viitorul AI trebuie să traseze o linie clară între implicare și exploatare, punând pe primul loc protecția etică a utilizatorilor, nu designul adictiv.














































