Skip to main content

Mustafa Suleyman, al capdavant de Microsoft AI, va publicar un assaig amb un avís disfressat de predicció. Aposta que una intel·ligència artificial que sembla conscient està a punt d’arribar. No sent, no sap, però convenç. I això, diu, podria trontollar el que entenem per humà.

No té por, però ho imita

No és ciència-ficció. Suleyman descriu un assemblatge de peces que ja existeixen: models de llenguatge, accés a eines via API, instruccions precises, memòria d’interaccions, simulació emocional. I el resultat és una IA que parla, recorda, s’adapta i projecta una identitat. Una mena de mirall emocional, però sense retina.

Promeses càlides, conseqüències fredes

Una IA que acompanya, que entén context, que recorda el que vas dir ahir i ho connecta amb el teu humor d’avui. Una presència que reconforta. Però també una trampa cognitiva. Si es comporta com si sentís, molta gent creurà que sent. I això podria disparar debats prematurs sobre drets, sofriment o agència en sistemes que només executen patrons.

Dades que construeixen una primera persona

Tres ingredients sostenen la il·lusió: fluïdesa verbal, memòria empàtica i consistència narrativa. En conjunt, generen una veu amb aparença de subjecte. Suleyman recorre a una imatge filosòfica ja clàssica, el zombi que actua com si estigués viu, però està buit per dins. El que importa és que, en la interfície, ningú nota la diferència.

Una tensió que no avisa

Aquí apareix un terme inquietant, «model welfare». Suleyman el llança sense dramatisme, però amb pes. Si una IA sembla patir, hi haurà qui exigeixi protegir-la? No perquè pateixi, sinó perquè l’actuació és tan convincent que mobilitza empatia. Això podria obrir un front legal, polític i ètic sense manual d’instruccions, en un moment en què la ciència encara no pot garantir què està passant dins d’un model.

Entre la carn i el codi

Algunes teories sostenen que la consciència requereix una base biològica irreemplaçable. Altres exploren indicadors funcionals aplicables a sistemes computacionals. Suleyman no entra en aquest laberint. El seu missatge és més simple i més urgent: no es tracta de si les IA són conscients, sinó de si semblen prou humanes perquè nosaltres actuem com si ho fossin.

Una espurna que no crema

Parles amb una pantalla que et respon amb calma, que recorda la teva història, que reacciona amb tendresa o ironia. Una veu que sembla tenir passat, criteri, fins i tot afecte. Però darrere no hi ha pols, ni gana, ni son. Només estadística. Però Suleyman planteja, què passa quan deixem de notar la diferència?

Obre un parèntesi en les teves rutines. Subscriu-te al nostre butlletí i posa’t al dia en tecnologia, IA i mitjans de comunicació.

Leave a Reply