Nano Banana 2 combina velocitat “Flash” amb funcions de gamma alta —text llegible, consistència de subjectes i sortida fins a 4K— i arriba a Gemini, Search/Lens, Flow, Ads i l’API, amb un missatge clar: produir assets ja no hauria de fer-se esperar.
Durant el 2024 i el 2025, la generació d’imatges amb intel·ligència artificial es va convertir en un mercat de dues velocitats: d’una banda, models molt ràpids que servien per iterar idees; de l’altra, models més “fins” —més cars o més lents— per obtenir resultats amb qualitat gairebé publicitària. Google intenta esborrar aquesta frontera amb Nano Banana 2, el seu nou model d’imatge basat en Gemini 3.1 Flash Image, presentat com una combinació explícita de capacitats “Pro” i latència de producte de consum: allò que abans era un luxe d’estudi, ara es mou al ritme de l’scroll.
L’estratègia no és només tècnica. També és de distribució: si el model apareix per defecte allà on la gent ja treballa (Gemini, Search, Lens, Flow, Ads i APIs), la IA deixa de ser un “connector creatiu” i passa a ser una capa de producció quotidiana. Google ho formula sense embuts: Nano Banana Pro queda per a tasques de “màxima precisió factual”, mentre Nano Banana 2 s’hi col·loca com a opció generalista per a generació ràpida, seguiment estricte d’instruccions i grounding amb cerca integrada.
Què canvia de debò: de l’“esbós bonic” al material utilitzable
A la pràctica, el salt important no és que el model “pinti millor”, sinó que redueix friccions típiques de l’ús real:
1) Coneixement del món i suport amb cerca
Google afirma que Nano Banana 2 s’alimenta de la base de coneixement de Gemini i, a més, pot fer servir informació i imatges en temps real provinents de la cerca web per representar subjectes amb més precisió. El subtext és competitiu: menys “semblances raonables” i més especificitat quan l’usuari demana llocs, objectes o contextos concrets. Això obre una via clara a infografies, diagrames i visualitzacions, on l’error factual fa descarrilar el resultat.
2) Text dins la imatge que no sigui un acudit
La promesa de renderitzat de text precís i llegible, a més de traducció i localització del text dins de la imatge, apunta a un cas d’ús molt concret: maquetes de màrqueting, cartelleria, mockups i peces “quasi finals” que abans obligaven a passar per Photoshop/Figma sí o sí. Si això funciona de manera consistent, canvia el cost d’iteració creativa en equips petits.
3) Consistència de subjectes i control de producció
La consistència és el taló d’Aquil·les de molts generadors: et fan una imatge excel·lent i després “trenquen” el personatge a la següent. Google destaca que Nano Banana 2 pot mantenir el semblant de fins a cinc personatges i la fidelitat de fins a 14 objectes dins d’un mateix flux de treball. Això no és un detall estètic: és el requisit mínim per a storyboards, narrativa visual, campanyes coherents i sistemes de marca.
A això s’hi afegeix el que qualsevol equip de continguts necessita per operar: control de la relació d’aspecte i resolucions de 512 px fins a 4K, pensat per passar d’una creativa vertical a un fons panoràmic sense refer-ho tot. Google ho ven com a “production-ready specs”: un concepte que, en el fons, significa “no m’obliguis a refer-ho fora del model”.
La jugada de producte: substitució silenciosa i arribada a tots els canals
Hi ha un moviment especialment rellevant: Nano Banana 2 substitueix Nano Banana Pro a l’app de Gemini “a través dels models Fast, Thinking i Pro”, i els subscriptors de Google AI Pro i Ultra mantenen accés a Nano Banana Pro per a tasques especialitzades mitjançant regeneració des del menú (tres punts).
No és un canvi menor. A la pràctica, significa que Google vol que l’experiència estàndard sigui “ràpida i prou bona” per a la majoria, i que el salt a Pro sigui puntual, no permanent. És el mateix patró que ja hem vist en altres productes d’IA: el default defineix el mercat, i la capa premium es reserva per a precisió, auditoria o exigències d’alt risc.
La distribució anunciada és àmplia:
- Gemini app (per defecte)
- Search (AI Mode) i Lens a l’app i navegadors; es menciona disponibilitat en 141 països/territoris i més idiomes
- AI Studio + Gemini API (preview), i també a Google Antigravity
- Vertex AI a Google Cloud (preview)
- Flow com a model per defecte “sense cost en crèdits”
- Google Ads, per a suggeriments durant la creació de campanyes
Aquí es veu l’ambició: no només creadors; també màrqueting, producte, vendes i automatització. Si una IA d’imatge entra a Ads i a Search/Lens, ja no competeix només amb altres models: competeix amb el workflow sencer.
Una capa que Google insisteix a no perdre: procedència i verificació
L’altra meitat de l’anunci no va d’estètica, sinó de confiança. Google reforça el seu enfocament de “provenance” combinant SynthID amb C2PA Content Credentials perquè l’usuari no només vegi “si hi ha hagut IA”, sinó com s’ha generat o editat el contingut.
A més, afegeix una xifra que funciona com a senyal d’adopció: des del llançament al novembre, la funció de verificació de SynthID a l’app de Gemini s’hauria utilitzat més de 20 milions de vegades, i la companyia afirma que portarà també la verificació C2PA a Gemini “aviat”.
Això importa perquè el gran punt feble de la imatge sintètica no és la qualitat, sinó l’atribució: qui ho ha fet, amb què, amb quines transformacions, i sota quina responsabilitat. Si la generació esdevé ubicua (Search, Ads, Flow), la traçabilitat deixa de ser una virtut opcional i passa a ser un requisit operatiu.
El que suggereix el llançament: la velocitat com a condició, no com a avantatge
Nano Banana 2 apareix en un moment en què el coll d’ampolla ja no és “si la IA pot generar una imatge”, sinó quant triga el cicle complet: demanar → ajustar → corregir → adaptar formats → traduir → exportar. En aquest cicle, la latència no és un detall: defineix si l’eina s’utilitza com a joguina o com a producció.
Per això el missatge de Google és tan explícit: tanca la distància entre velocitat i fidelitat visual i democratitza funcions que abans estaven al paquet “Pro”. I per això el desplegament es fa allà on fa mal: pipelines de continguts i màrqueting, no només galeries de demos.