Într-un interviu acordat la AfroTech (Houston), Mustafa Suleyman, responsabilul Microsoft pentru inteligență artificială, a spus clar: numai ființele biologice pot avea conștiință, iar proiectele care sugerează contrariul ar trebui oprite. În viziunea sa, întrebarea „poate AI să fie conștientă?” este „greșită” și produce răspunsuri greșite.
Suleyman a explicat distincția esențială: modelele pot mima narațiuni despre sine și pot crea percepția unor stări interne, însă nu simt durere, tristețe sau preferințe de evitare a suferinței. Argumentul se aliniază curentului „biological naturalism” (John Searle), potrivit căruia conștiința depinde de procesele unui creier viu.
Etica folosirii modelelor: între capabilitate și limite
Poziția sa respinge ideea „serviciilor” care ar convinge oamenii că pot suferi, inclusiv în zona companionilor conversaționali. Microsoft își asumă zone unde „nu va merge”, precum chatboții pentru erotica, chiar dacă alți jucători testează astfel de produse. Mesajul: mai multă capacitate nu înseamnă conștiință și nici legitimare pentru a antropomorfiza AI.
Pe același fundal, apar și semnale de reglementare: în California, noile reguli cer ca boții să se declare ca AI și să încurajeze pauze periodice pentru minori. Pentru Suleyman, această direcție susține ideea că AI trebuie să fie transparentă și să rămână în slujba utilizatorului.
Strategia Microsoft: „AI care știe că e AI” și instrumente mai oneste
Compania își extinde Copilot cu funcții noi (inclusiv Mico, companion AI) și interacțiuni în grup, dar cu o conștiință de sine operațională: sistemele sunt proiectate să recunoască faptul că sunt AI și să lucreze în serviciul omului, nu ca substitut de persoană.
Un exemplu este stilul de conversație „real talk”: Copilot poate contrazice sau provoca utilizatorul pentru a evita răspunsurile lingușitoare și a încuraja gândirea critică. Suleyman a glumit că a fost „ironizat” de propriul AI pentru aparenta contradicție dintre avertismentele sale și accelerarea dezvoltărilor la Microsoft — tocmai genul de fricțiune productivă pe care compania vrea s-o cultive: curiozitate, prudență, scepticism sănătos.

Context: autonomie în AI și echilibrul parteneriatelor
Suleyman a venit la Microsoft în 2024 (după Inflection AI), cu mandatul de a întări autosuficiența companiei: modele proprii antrenate cap-coadă, de la pre-training la integrare în produse. În paralel, relația cu OpenAI rămâne importantă, dar Microsoft continuă să investească în capacitate, stivă tehnologică și produse care să nu depindă de un singur furnizor.
De ce contează acum
Pe măsură ce modelele devin mai capabile, presiunea de a le umaniza crește. Mesajul lui Suleyman oferă un cadru de decizie pentru industrie și public:
- Capabilitate ≠ conștiință.
- Transparență și protecție a utilizatorilor, în special a minorilor.
- Politici clare despre zonele în care tehnologia nu va fi folosită.
În practică, asta înseamnă produse AI mai utile, oneste și sigure, fără a cultiva iluzia unei persoane în spatele ecranului.






