Microsoft își definește public limitele etice în AI. În cadrul Paley International Council Summit, la Menlo Park, Mustafa Suleyman, CEO-ul Microsoft AI, a declarat răspicat că gigantul nu va dezvolta servicii de inteligență artificială care furnizează „erotică simulată”: „Nu e un serviciu pe care îl vom oferi. Alte companii o vor face.” Declarația vine la o săptămână după ce Sam Altman, CEO OpenAI, a spus că firma sa va permite conținut erotic pentru adulți verificați, sub principiul „nu suntem poliția morală aleasă a lumii”.
Pe fondul unui parteneriat strategic de ani buni — investiții, infrastructură cloud și co-dezvoltare — diferențele de filozofie ies tot mai mult la suprafață. OpenAI cochetează cu parteneriate și cu rivalii Microsoft (de pildă Google sau Oracle), în timp ce Microsoft își accelerează propriul portofoliu de produse AI, de la Copilot până la noi capabilități conversaționale.
Unde trage Microsoft linia și de ce
Suleyman își nuanțează poziția într-o direcție consecventă cu eseul său din august — „We must build AI for people; not to be a person.” Ideea centrală: industria nu ar trebui să construiască servicii „aparent conștiente”, care pot induce oamenilor impresia că un agent AI suferă sau are intenționalitate. Potrivit lui, direcții precum „sexbot”/erotica cu avataruri alimentează exact acest tip de confuzie ontologică și pot crea un nou „ax de divizare” socială.
În intervenția de la Menlo Park, Suleyman a legat apariția serviciilor erotice AI de pericolul antropomorfizării. A invocat atât declarațiile lui Altman, cât și exemple comerciale precum Grok (xAI), care a introdus în vară companion(i) avatarizați (inclusiv personaje de tip anime). Concluzia sa: „Este foarte periculos și ar trebui să luăm decizii conștiente să evităm astfel de lucruri.”
Contextul: OpenAI relaxează, Microsoft restrânge
- OpenAI: a semnalat că, odată cu age-gating (verificarea vârstei) din decembrie, va permite erotica pentru adulți verificați în ChatGPT. Motivația: tratarea utilizatorilor adulți „ca pe adulți”, cu controale și protecții implicite pentru sănătate mintală.
- Microsoft: comunică explicit interdicția de a livra „erotică simulată” în serviciile sale, ca parte a unei doctrine de design responsabil (evitarea impresiei de conștiință, protejarea utilizatorilor vulnerabili, reducerea riscurilor de dependență și exploatare).
Acest divergent normativ nu rupe parteneriatul, dar îl recalibrează: Microsoft preferă cadre stricte în produsul propriu, în timp ce OpenAI testează limitele pe propria platformă, sub control și cu filtre de vârstă.
Copilot: ritm susținut, dar fără erotica AI
În aceeași zi, Microsoft a anunțat noi funcții pentru Copilot, inclusiv companionul Mico, capabil să răspundă prin apel și să-și schimbe culoarea pentru a-și exprima „starea”. Dincolo de efectul de vitrină, mesajul este că experiențele agentice (asistenți care fac lucruri pentru tine) vor crește în Windows și în cloud, însă fără a traversa teritoriul „eroticii simulate”.
De ce contează: etică, reglementare, piață
- Etică & siguranță: Avatarurile erotice inteligent personalizate pot mima atașament, pot stimula dependența și pot exploata persoane vulnerabile. Microsoft mizează pe prudență de produs și evită „zona gri”.
- Reglementare: În UE, AI Act și DSA vor favoriza furnizorii cu trasabilitate, protecții de vârstă, moderare, audit și interdicții pe practici manipulative. O poziție conservatoare poate reduce riscurile legale.
- Poziționare pe piață: Microsoft se diferențiază pe AI-ul pentru productivitate (enterprise/educație/consum) cu gard-rails clari, lăsând zona „adult” altor actori.
- Relația cu OpenAI: colaborați, dar diverși: Microsoft își protejează brandul și clienții enterprise, în timp ce OpenAI explorează cererea consumatorilor adulți sub age-gating.
Ce urmează în Windows & cloud
- „Hey, Copilot” și Copilot Actions vor continua, cu accent pe task-uri practice (organizare, editare, automatizare), fără conținut erotic.
- Politici de conținut mai vizibile în Copilot Studio și în plug-inuri, pentru a preveni derapajele terților.
- Transparență și control granular în enterprise: log-uri, permisiuni, filtre de vârstă acolo unde e relevant.
Concluzie
Declarația lui Mustafa Suleyman nu este doar o poziție morală, ci și o strategie de risc și brand: Microsoft vrea AI util, sigur și lipsit de ambiguități privind „conștiința” sau eroticizarea agenților. În timp ce OpenAI deschide ușa pentru adulți verificați, Microsoft alege să închidă acea ușă în propriul ecosistem — și să dubleze investiția într-un AI pragmatic, agentic, dar ne-antropomorfizat. Pentru industrie, asta fixează un cap de pod: poți crește rapid fără să monetizezi „erotica simulată”. Pentru utilizatori și companii, înseamnă predictibilitate în standardele Microsoft — și o hartă clară a limitelor în care Copilot va opera.






