Apple treballa en la transformació més profunda de Siri des del seu llançament fa 15 anys: una interfície integrada a la Dynamic Island, una experiència de chatbot, una app pròpia i noves funcions de cerca i acció capaces de competir amb ChatGPT, Gemini i Claude.
Apple prepara una reconstrucció profunda de Siri que pot marcar un abans i un després en la seva estratègia d’intel·ligència artificial. Segons Bloomberg, la companyia planeja convertir el seu assistent en una peça molt més visible, conversacional i activa dins d’iOS 27, amb integració a la Dynamic Island, una nova interfície tipus chatbot, una aplicació independent de Siri i una funció de cerca o consulta a tot el sistema. La promesa és ambiciosa: transformar un assistent de veu que durant anys ha estat percebut com limitat en un agent capaç d’entendre context, mantenir converses i executar accions dins de l’iPhone.
La filtració, signada per Mark Gurman, arriba en un moment crític per a Apple. La companyia ha estat criticada per arribar tard a la nova onada d’IA generativa, per retardar funcions promeses d’Apple Intelligence i per mantenir Siri lluny de la fluïdesa de ChatGPT, Gemini o Claude. La pressió competitiva és enorme: OpenAI ha convertit ChatGPT en un assistent multimodal cada vegada més integrat; Google impulsa Gemini dins Android; Microsoft ha situat Copilot a Windows i Office; i Anthropic ha fet de Claude una eina de treball sofisticada. Apple necessita demostrar que Siri pot deixar de ser un comandament de veu rígid per convertir-se en una interfície intel·ligent real.
La novetat més visible serà la integració amb la Dynamic Island. Siri passaria a viure de manera més natural en aquesta zona superior de l’iPhone, que Apple va introduir per convertir el retall de càmera i sensors en un espai interactiu. La idea té sentit: en lloc d’aparèixer com una esfera flotant o una animació aïllada, Siri podria convertir-se en una presència persistent i contextual, capaç de mostrar respostes, escoltar, suggerir accions o mantenir-se activa sense envair tota la pantalla. MacRumors recull que Siri “viurà en gran mesura” a la Dynamic Island en iOS 27, tot i que també comptarà per primera vegada amb una app dedicada.
Aquest canvi d’ubicació no és només estètic. La Dynamic Island pot convertir-se en el lloc natural per a un assistent que acompanya l’activitat de l’usuari sense interrompre-la. Una trucada, una ruta, una cançó o un temporitzador ja poden ocupar aquest espai. Si Siri s’hi integra, Apple pot transformar l’assistent en una capa més ambiental: menys “obrir Siri” i més “Siri està disponible mentre faig una altra cosa”. És una manera d’apropar-se a la IA contextual sense copiar exactament la interfície de xat dominant.
El segon gran canvi serà l’experiència de chatbot. Bloomberg assenyala que Apple està redissenyant Siri per mantenir converses d’anada i tornada amb una interfície més semblant a ChatGPT, Gemini o Claude. Això és crucial perquè Siri va néixer el 2011 com a assistent de veu, no com a interlocutor conversacional. Durant anys va funcionar raonablement bé per a tasques breus —posar alarmes, consultar el temps, trucar a algú, activar ajustos—, però va quedar molt enrere quan els usuaris van començar a esperar diàleg, memòria, raonament i respostes llargues. Bloomberg Línea resumeix el canvi així: Siri deixaria de ser només un assistent de veu per convertir-se en un agent sempre actiu capaç d’accedir a dades personals i realitzar accions a totes les aplicacions.
La interfície de chatbot resoldria una mancança històrica. La veu és útil per a tasques ràpides, però no sempre és adequada per a converses llargues, revisió d’informació, comparació de resultats o treball amb text. Un Siri amb mode xat permetria mantenir fils, revisar respostes anteriors, corregir instruccions i combinar text amb veu. Això aproparia l’assistent d’Apple als hàbits que els usuaris ja han adquirit amb ChatGPT: preguntar, repreguntar, matisar, demanar versions alternatives i continuar una conversa.
El tercer element és una app independent de Siri. Segons Bloomberg i les cobertures posteriors, Apple prova una aplicació pròpia que permetria accedir a l’assistent com si fos un chatbot complet, consultar converses anteriors i utilitzar-lo fora del gest tradicional d’invocació. Aquesta idea ja havia aparegut en filtracions prèvies del març, quan Bloomberg va informar que Apple estava provant una app independent de Siri i una funció “Ask Siri” integrada al programari de la companyia.
L’existència d’una app dedicada seria un gir simbòlic. Durant anys, Siri va ser invisible com a producte: estava al botó lateral, a l’ordre “Escolta Siri” o en petites respostes del sistema. ChatGPT, en canvi, va guanyar força com a destinació: una aplicació on l’usuari acudeix per pensar, escriure, preguntar o resoldre. Apple sembla disposada a acceptar que l’assistent també necessita un espai propi. No n’hi ha prou amb estar integrat a tot arreu; també ha de ser accessible com a eina central.
El quart canvi és la cerca a tot el sistema. 9to5Mac informa que iOS 27 inclouria un nou gest per invocar una funció “Search or Ask”, amb una barra de cerca des de la qual l’usuari podria alternar entre Siri i serveis de tercers com ChatGPT o Gemini. El disseny permetria buscar arxius, continguts, respostes o accions des d’una única entrada, amb opció d’activar la veu mitjançant una icona de micròfon.
Aquest punt pot ser un dels més importants. La cerca del sistema operatiu ha estat durant anys una funció relativament mecànica: trobar apps, contactes, correus, ajustos o documents. La IA pot convertir-la en alguna cosa més semblant a una capa d’intenció. L’usuari no només cerca “calendari”; pot demanar “troba el correu on em van confirmar la reunió i afegeix l’adreça a l’esdeveniment”. No només cerca una foto; pot preguntar “mostra’m les imatges del viatge on apareix el cartell del restaurant”. No només cerca una app; pot demanar una acció combinada entre diverses.
Si Apple aconsegueix que Siri entengui context personal i actuï entre aplicacions, la diferència amb la Siri actual seria enorme. La promesa original d’Apple Intelligence ja apuntava cap aquí: un assistent capaç de conèixer dades personals, entendre el que apareix a la pantalla i executar tasques dins d’apps. El problema és que moltes d’aquestes funcions es van retardar, generant frustració i dubtes sobre la capacitat d’Apple per competir en IA generativa. Reuters va informar al gener que Apple treballava en una Siri renovada com a chatbot integrat, sota el nom intern “Campos”, recolzada en una versió personalitzada de tecnologia de Google comparable a Gemini, tot i que Apple no va confirmar públicament aquests detalls.
El retard de Siri no ha estat un assumpte menor. Apple va arribar a acceptar un acord de 250 milions de dòlars en una demanda col·lectiva als Estats Units per funcions d’IA promeses que no van arribar en els terminis esperats, segons va informar TechRadar. La controvèrsia va afectar especialment compradors d’iPhone compatibles amb Apple Intelligence que consideraven que la companyia havia publicitat capacitats no disponibles en el llançament.
Aquest context explica per què el redisseny de Siri és més que una actualització estètica. Apple necessita reconstruir confiança. Durant anys, la companyia es va beneficiar d’una reputació d’integració impecable: potser no arribava primera, però quan ho feia, oferia una experiència polida. En IA, aquesta narrativa s’ha debilitat. Siri va ser pionera en assistents mòbils, però va quedar endarrerida davant els models conversacionals. Ara Apple intenta recuperar terreny no només amb més intel·ligència, sinó amb una interfície que faci visible aquest canvi.
La integració amb models de tercers afegeix una altra capa. Apple ja va obrir la porta a ChatGPT dins Apple Intelligence i les filtracions apunten a una Siri capaç d’alternar o connectar-se amb serveis com ChatGPT o Gemini. Això suposa un gir pragmàtic: Apple reconeix que no pot dependre únicament dels seus models interns si vol oferir respostes competitives en totes les àrees. Però també planteja una tensió estratègica: fins a quin punt Siri serà realment d’Apple si una part de la seva intel·ligència depèn de proveïdors externs?
La resposta probablement serà híbrida. Apple intentarà mantenir en el seu terreny allò que millor sap fer: privadesa, dades personals, accions dins del dispositiu, integració entre apps i experiència d’usuari. Per a coneixement general, raonament ampli o respostes complexes, pot recolzar-se en models externs. Aquesta arquitectura permetria a Apple preservar la seva narrativa de privadesa mentre evita quedar-se enrere en capacitats. Però exigirà transparència: l’usuari ha de saber quan respon Siri, quan entra ChatGPT, quan es consulta Gemini i quines dades es comparteixen.
El disseny també serà decisiu. TechRadar resumeix les filtracions com una Siri 2.0 amb integració a la Dynamic Island, nova interfície de xat, cerca al sistema i funcions d’imatge millorades. L’objectiu no és només que Siri respongui millor, sinó que es percebi més moderna. La interfície actual de Siri arrossega una càrrega simbòlica: representa l’etapa anterior dels assistents, basada en ordres breus i respostes limitades. Una experiència de xat pot canviar aquesta percepció.
La transformació de Siri també pot afectar l’ecosistema d’aplicacions. Si l’assistent pot executar accions dins d’apps, els desenvolupadors hauran d’adaptar funcions, permisos i fluxos. Això pot obrir una nova etapa per a App Intents, els mecanismes d’Apple que permeten exposar accions d’apps al sistema. En lloc d’obrir manualment una aplicació, l’usuari podria demanar a Siri que modifiqui una reserva, compari un document, enviï un arxiu, organitzi fotos o completi una tasca. L’app continuaria sent important, però l’assistent es convertiria en una capa d’accés transversal.
Aquest model pot canviar l’economia de l’atenció a iOS. Fins ara, les aplicacions competeixen per icones, notificacions i temps de pantalla. Si Siri es converteix en intermediari, algunes interaccions podrien produir-se sense obrir l’app. Això beneficia l’usuari si redueix fricció, però pot preocupar desenvolupadors que depenen de la interfície pròpia per mostrar valor, marca o monetització. Apple haurà d’equilibrar automatització i ecosistema.
La càmera també apareix a l’informe de Bloomberg com a part d’iOS 27, amb una app completament personalitzable i un nou mode Siri vinculat a intel·ligència visual. The Verge va recollir que l’app Càmera podria permetre reorganitzar controls mitjançant widgets i afegir una experiència “Siri” recolzada en funcions visuals. Això connecta amb l’evolució de Siri cap a una IA multimodal: no només escoltar i llegir, sinó també entendre imatges, objectes i context visual.
La intel·ligència visual pot ser una de les claus del futur de Siri. Un assistent modern no es pot limitar al text i la veu. Ha de poder interpretar el que apareix a la pantalla, el que capta la càmera, el que hi ha en una foto o el que conté un document. Apple ja ha introduït funcions de Visual Intelligence, però una Siri reconstruïda podria integrar-les millor: preguntar per un objecte, traduir un cartell, identificar una planta, extreure informació d’una imatge o actuar sobre una captura de pantalla.
L’arribada d’AirPods amb càmeres, també filtrada per Bloomberg, encaixa en aquesta estratègia més àmplia. Si Apple treballa en wearables capaços de captar context visual, Siri haurà de ser el cervell que interpreti aquest context. La reconstrucció de l’assistent no és només una qüestió d’iPhone; pot ser la base d’una nova generació de dispositius d’IA ambiental. Una Siri realment competent seria clau per a AirPods intel·ligents, Apple Watch, Vision Pro, futures ulleres i dispositius domèstics.
Però el desafiament tècnic és enorme. Perquè Siri actuï com a agent necessita diverses capacitats simultànies: comprensió del llenguatge natural, accés segur a dades personals, memòria contextual, execució d’accions, raonament sobre passos múltiples, integració amb apps, control de permisos i recuperació davant errors. Un chatbot pot equivocar-se en una resposta; un agent que actua dins del sistema pot esborrar alguna cosa, enviar un missatge equivocat o modificar una reserva. L’exigència de fiabilitat és molt més gran.
Per això Apple probablement avançarà amb cautela. La companyia no es pot permetre una Siri que actuï de manera imprevisible. La seva base d’usuaris és massiva, heterogènia i poc tolerant a errors greus en funcions del sistema. Una cosa és que una app externa doni una mala resposta; una altra molt diferent és que l’assistent integrat de l’iPhone executi malament una acció personal. Apple haurà de dissenyar confirmacions, permisos granulars, historial d’accions i mecanismes per desfer.
La privadesa serà un altre eix central. Una Siri més intel·ligent necessita context: correus, missatges, calendari, fotos, arxius, ubicació, pantalla, hàbits. Apple intentarà processar tant com sigui possible al dispositiu o en la seva infraestructura privada de computació, però la integració amb models externs pot complicar el relat. L’usuari haurà de confiar que la comoditat no implica vigilància. En IA personal, la confiança serà tan important com la potència.
El redisseny de Siri també arriba en un moment de transició generacional en l’ús d’interfícies. Els usuaris més joves s’han acostumat a conversar amb chatbots, generar contingut amb IA i demanar respostes complexes de manera natural. Per a ells, Siri pot semblar una relíquia si no canvia. Els usuaris menys tècnics, en canvi, poden valorar la simplicitat de la veu i les accions directes. Apple ha de construir una Siri capaç de servir tots dos grups: chatbot avançat per a qui el vulgui, assistent discret per a qui només necessiti tasques ràpides.
La Dynamic Island pot ajudar a resoldre aquesta dualitat. Permet una presència lleugera per a accions breus i, al mateix temps, pot obrir una interfície més completa quan l’usuari necessita conversa. L’app de Siri serviria per a sessions llargues. La cerca del sistema per a consultes contextuals. El botó lateral o la veu per a ordres ràpides. En lloc d’una sola entrada, Apple podria convertir Siri en una xarxa d’interfícies adaptades a cada situació.
El risc més gran és que el redisseny prometi més del que entrega. Apple ja va patir el cost d’anunciar capacitats de Siri que van trigar a arribar. Si iOS 27 torna a presentar una gran reconstrucció sense funcions sòlides des del primer dia, el cop reputacional pot ser fort. Per això serà important distingir entre el que es mostri a la WWDC, el que arribi a la primera versió d’iOS 27 i el que quedi escalonat per a actualitzacions posteriors.
La data serà rellevant. Google I/O i WWDC de 2026 arriben en un context on la IA ha passat de novetat a infraestructura. Els usuaris ja no s’impressionen només en veure un chatbot. Volen utilitat real: escriure millor, trobar coses, fer tràmits, organitzar la seva vida, comprendre informació i estalviar temps. Siri haurà de demostrar que no és un embolcall bonic per a respostes mediocres, sinó un agent que funciona dins l’ecosistema Apple amb precisió.
L’oportunitat, però, és enorme. Apple té un avantatge que OpenAI, Anthropic o fins i tot Google no tenen de la mateixa manera: controla el dispositiu, el sistema operatiu, moltes apps, xips, seguretat biomètrica, sensors i ecosistema. Si Siri es reconstrueix bé, pot fer coses que un chatbot extern no pot fer fàcilment: entendre dades personals protegides, actuar entre apps, respectar permisos del sistema, integrar-se amb maquinari i oferir una experiència contínua entre iPhone, Mac, iPad, Watch, AirPods i Vision Pro.
La pregunta és si Apple aconseguirà convertir aquest avantatge estructural en producte. Fins ara, la companyia ha tingut les peces, però no l’execució. Siri va ser pionera, però no va liderar la segona onada. Apple Intelligence va prometre molt, però va avançar lentament. iOS 27 pot ser l’intent de corregir aquest desfasament. La reconstrucció de l’assistent no serà només un redisseny; serà una prova de credibilitat.
En el fons, el futur de Siri decidirà si Apple pot continuar definint la interfície personal de la tecnologia. Durant anys, l’iPhone va ser el centre de la vida digital perquè concentrava pantalla tàctil, apps, càmera, sensors i serveis. La IA amenaça de canviar aquest centre: la interacció es pot desplaçar cap a agents que entenen intenció i executen tasques. Si Apple no controla aquesta capa, corre el risc que l’iPhone continuï sent maquinari excel·lent, però amb una intel·ligència prestada per altres.
El nou Siri és la resposta a aquest risc. Integrat a la Dynamic Island, amb app pròpia, interfície de chatbot, cerca sistèmica i possible connexió amb models externs, representa la gran aposta d’Apple per recuperar protagonisme en IA conversacional. Encara falta veure si les filtracions es confirmen, com s’implementen i quines funcions arriben realment als usuaris. Però la direcció és clara: Siri ja no pot ser només una veu. Ha de convertir-se en el sistema nerviós intel·ligent de l’iPhone.