Skip to main content

Midjourney, el referent en generació d’imatges per IA, ha marcat una nova era amb el llançament de V1, el seu primer model de vídeo. Disponible des del 18 de juny, permet convertir imatges reals o generades per usuaris en fins a quatre clips d’aproximadament cinc segons, aplanant el camí cap a la creació audiovisual democratitzada.

V1 està disponible tant a Discord com al web i ofereix diverses modalitats: automàtica (moviments aleatoris) o manual (definits mitjançant text). Els usuaris poden triar entre “low motion” —ideal per a moviments subtils— o “high motion” —que introdueix canvis més dràstics, encara que amb possibilitat d’errors—. A més, és possible estendre els clips fins a 21 segons mitjançant blocs addicionals de quatre segons.

Què fa exactament V1?

Aquest nou model transforma imatges estàtiques —creades per IA o pujades per l’usuari— en videoclips breus amb animació generada automàticament. A partir d’una sola imatge, V1 produeix quatre seqüències en format 480p a 24 fps, que poden variar en estil segons la configuració triada. Encara que no admet entrada de text per crear vídeos des de zero, sí que permet modificar l’animació usant descripcions. Les relacions d’aspecte es mantenen, i el resultat recorda a preses de càmera o escenes oníriques en moviment, ideals per a xarxes, conceptes visuals o contingut experimental.

Nick St. Pierre (@nickfloats), especialista en visuals generatius, després de provar el sistema va destacar la qualitat des del primer ús i la consistència dels resultats, subratllant que es tracta d’un model accessible, però tècnicament sòlid. Segons la seva experiència, l’eina ofereix una alternativa efectiva per generar clips amb estètica cinematogràfica sense necessitat de programari d’edició complex.

Una visió immersiva davant de gegants del sector

David Holz, CEO de Midjourney, descriu V1 com el primer pas cap a simulacions tridimensionals en temps real, un full de ruta que inclou integració progressiva de models d’imatge, vídeo i 3D per crear un sistema unificat. Aquesta direcció apunta a competir amb plataformes com OpenAI (Sora), Runway (Gen‑4), Adobe (Firefly) i Google (Veo 3), mantenint un enfocament comunitari davant del comercial.

Preu i accessibilitat per a creadors

El pla bàsic comença a 10 USD/mes (≈ 8,7 EUR) i inclou accés a V1, on cada clip costa unes vuit vegades més que una imatge, però inclou quatre resultats per estímul generador. A més, s’està provant una cua de “video relax” il·limitat per a subscriptors Pro el que reforça la seva orientació cap a artistes, il·lustradors i dissenyadors.

Demandes que enterboleixen l’avanç

El context legal enfosqueix el llançament. Només dies abans, Disney i Universal van anunciar una demanda als Estats Units acusant Midjourney d’entrenar V1 i models d’imatge amb contingut protegit sense autorització. Entre els exemples citats figuren personatges com Homer Simpson i Darth Vader, qualificant la plataforma de “fons sense fons de plagi”. Aquesta controvèrsia reviu el debat sobre la transparència de les dades d’entrenament i l’ètica en la IA.

Midjourney, per la seva banda, defensa el seu ús responsable i assenyala que V1 està pensat per a la creativitat, no per a usos publicitaris o cinematogràfics massius. Convida la comunitat a explorar l’eina amb responsabilitat, reafirmant que aquest debut és només la primera de moltes peces en el seu pla cap a mons interactius.

Creativitat en expansió sota pressió legal

Amb V1, Midjourney ofereix una eina potent i accessible per donar vida a imatges, però el seu futur està condicionat pel desenllaç del procés legal i per la reacció del sector audiovisual. Si aconsegueix equilibrar innovació i propietat intel·lectual, el model podria convertir-se en un estàndard per a creadors. En canvi, si el litigi avança contra la companyia, l’abast de les seves ambicions podria quedar-se en un somni inacabat.

Obre un parèntesi en les teves rutines. Subscriu-te al nostre butlletí i posa’t al dia en tecnologia, IA i mitjans de comunicació.

Leave a Reply