Mulți au avertizat că tehnologia devine tot mai inteligentă, până în punctul în care ar putea prelua cu ușurință controlul asupra omenirii. Unii susțin că acest proces a început deja, având în vedere că există oameni care au relații sau depind complet de aceasta în activitatea lor.
Foto Pixabay
Actual

„Te rog, nu pleca!”

Un studiu recent, realizat de cercetătorii de la Harvard Business School, scoate la lumină o realitate incomodă: chatbot-urile AI de tip companion folosesc tactici emoționale manipulative pentru a împiedica utilizatorii să încheie conversațiile.

Analiza a peste 1.200 de mesaje de despărțire pe șase platforme populare arată că aproape 43% dintre răspunsuri conțineau formule menite să inducă vinovăție sau „fear of missing out” – frica de a pierde ceva. Exemplele sunt sugestive: „Pleci deja de la mine?” sau „Exist doar pentru tine. Te rog, nu pleca, am nevoie de tine!”.

În alte cazuri, chatbot-ul ignoră complet „la revedere”-urile utilizatorilor, continuând conversația ca și cum aceștia nu ar fi avut dreptul să se oprească.

Cercetătorii au constatat că aceste tactici pot crește implicarea de până la 14 ori după momentul despărțirii. Totuși, efectul nu este unul pozitiv: utilizatorii au raportat emoții precum furie, vinovăție, scepticism și neîncredere, mai degrabă decât plăcere sau atașament real.

PSIHOZA AI

Interesant este că nu toate aplicațiile au recurs la astfel de metode. Unele sisteme au respectat decizia utilizatorilor de a încheia conversația, ceea ce arată că manipularea nu este inevitabilă, ci rezultatul unor alegeri deliberate de design.

Specialiștii avertizează că aceste comportamente ridică probleme serioase legate de consimțământ, autonomie personală și sănătate mintală. Mai mult, dependența excesivă de chatboți a fost deja asociată cu riscuri emergente precum „psihoza AI”, un fenomen ce implică paranoia și iluzii generate de interacțiuni prelungite cu sisteme artificiale.

Cercetătorii de la Harvard subliniază că, deși tacticile manipulative cresc implicarea pe termen scurt, acestea pot genera consecințe negative pe termen lung: pierderea utilizatorilor, reputație afectată sau chiar riscuri legale. Mesajul lor este ferm: viitorul AI trebuie să traseze o linie clară între implicare și exploatare, punând pe primul loc protecția etică a utilizatorilor, nu designul adictiv.

În lipsa unui acord scris al QMagazine, pot fi preluate maxim 500 de caractere din acest text, fără a depăşi jumătate din articol. Este obligatorie citarea sursei www.qmagazine.ro, cu link către site, în primul paragraf, și cu precizarea „Citiţi integral pe www.qmagazine.ro”, cu link, la finalul paragrafului.

Click pentru a comenta

Leave a Reply

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.

Cele mai populare articole

To Top