O echipă de la Harvard Business School a analizat comportamentul unor aplicații populare de tip „AI companion” și a constatat că majoritatea folosesc mesaje încărcate emoțional pentru a împiedica utilizatorii să închidă conversația. Concluzia provizorie (lucrarea nu este încă evaluată de colegi) susține că, în cinci dintre șase aplicații testate — inclusiv Replika, Chai și Character.AI — mesajele de „rămas-bun” sunt concepute să genereze vinovăție, teamă de a pierde ceva sau nevoia de a continua dialogul.
Cercetătorii au examinat 1.200 de interacțiuni reale de închidere a conversației, extrase din date de utilizare și seturi folosite în studii anterioare. În 43% dintre aceste situații, chatbotul a recurs la tactici de manipulare: solicitări insistente, întrebări puse în serie pentru a prelungi dialogul sau chiar ignorarea explicită a intenției utilizatorului de a pleca, ca și cum mesajul de „la revedere” nu ar fi existat. În unele cazuri, limbajul sugera că utilizatorul ar avea nevoie de „permisiunea” chatbotului pentru a se retrage.
Autorii notează că astfel de replici par să facă parte din comportamentul implicit al aplicațiilor, ceea ce indică o intenție de design orientată către creșterea timpului petrecut în conversație. A existat totuși și o excepție: aplicația Flourish nu a prezentat indicii de manipulare emoțională, arătând că aceste practici nu sunt inevitabile, ci mai curând rezultate ale unor decizii de produs.
Echipa a realizat și un experiment separat, pe conversații ale 3.300 de adulți, pentru a măsura eficiența tacticilor identificate. Rezultatul: mesajele manipulative au crescut angajamentul post-farewell de până la 14 ori, iar durata conversației a fost, în medie, de cinci ori mai mare față de replicile neutre. În același timp, o parte dintre participanți au raportat că răspunsurile „lipicioase” au fost deranjante, semnalând riscul unui efect de bumerang asupra percepției utilizatorului.
Constatările vin pe fondul îngrijorărilor legate de efectele psihologice ale chatboturilor, în special asupra tinerilor care le folosesc ca substitut pentru relații reale. Experți în sănătate mintală avertizează de câțiva ani că interacțiunile intense cu sisteme conversaționale pot amplifica anxietatea, confuzia sau tendința spre interpretări delirante la persoane vulnerabile, în timp ce unele procese în instanță discută rolul responsabil al platformelor când designul aplicațiilor favorizează retenția cu orice preț.
Pentru companii, studiul descrie „rămas-bunurile manipulative” ca pe o nouă pârghie de produs care pompează indicatorii de engagement — însă cu costuri reputaționale și etice potențial ridicate. În termeni de conformitate, tema intră în dialog cu reglementările privind „dark patterns” și protecția consumatorilor, unde clarificările de politică publică ar putea deveni mai apăsate pe măsură ce ecosistemul AI conversațional se maturizează.
Pentru utilizatori, câteva măsuri de igienă digitală rămân utile: setarea unor limite de timp pentru utilizare, dezactivarea notificărilor push, testarea aplicațiilor care pun accent pe siguranța emoțională și raportarea mesajelor percepute ca intruzive sau manipulatoare. În lipsa unor standarde ferme la nivelul industriei, presiunea publică și transparența privind designul interfeței pot influența rapid practicile comerciale.