Skip to main content

Aprendre a conviure amb l’algoritme

Primer van ser les alarmes. Després, el silenci. Avui, en moltes universitats xineses, l’ús d’intel·ligència artificial ja no és trampa ni amenaça, és eina. Una cosa així com passar d’amagar la calculadora a ensenyar-la a classe. Segons l’institut Mycos, menys de l’u per cent de l’alumnat i professorat evita aquestes tecnologies. La resta les utilitza amb una naturalitat que comença a semblar rutina. La revista MIT Technology Review resumia aquest gir institucional com un canvi d’enfocament: d’evitar a ensenyar, de témer a integrar.

Com s’entrena una nova intuïció

La dinàmica s’ha tornat quotidiana per generar esquemes, buscar bibliografia, reordenar idees. I no és només ChatGPT. Models locals com DeepSeek s’escolen entre apunts i treballs finals. Algunes universitats fins i tot ofereixen tallers per utilitzar aquestes eines amb criteri. Perquè no es tracta només de saber fer les servir, sinó de saber quan utilitzar-les. I això, pel que sembla, també s’entrena.

Models propis, filtres propis

No tot està permès. I no tot està disponible. L’accés a plataformes globals continua limitat pels tallafocs nacional. Molts estudiants es connecten a través de VPN. Altres opten per eines dissenyades a casa, entrenades en xinès i adaptades a la sensibilitat de l’entorn. Les universitats actuen com a mediadores donant accés, posant normes, i confiant que l’equilibri aguanti.

Límits que també s’ensenyen

Algunes institucions han dibuixat les seves pròpies línies vermelles. Fudan, una de les universitats més prestigioses de la Xina amb seu a Shanghai, s’ha convertit en un referent a l’hora de delimitar quins usos de la IA són admissibles en l’entorn acadèmic. Es prohibeix utilitzar IA en el disseny d’investigacions, anàlisi de dades o redacció de tesis sense supervisió. Sí que es permet en tasques preparatòries, amb autorització docent. Les conseqüències van del suspens a l’anul·lació del títol. És una manera de deixar clar que aquí no tot val. Ni tot s’improvisa.

El detector que també s’equivoca

La vigilància té forma de programari. Molts centres utilitzen detectors de contingut generat per IA. Però el sistema no sempre encerta. Alguns treballs han estat marcats com a «sospitosos» per l’estil, no pel fons. Estudiants que només van fer servir IA per revisar una frase van veure la seva tesi sota lupa. Com a resposta, han sorgit eines per esquivar el detector. Un joc de miralls on la picaresca ja no busca copiar, sinó semblar més humana que la màquina.

Una estratègia amb pols estatal

Durant el gaokao, l’examen nacional, les principals tecnològiques xineses van apagar temporalment els seus assistents d’IA. Va ser un gest coordinat, decidit des de dalt. El senyal era clar: hi ha moments on el sistema es reserva el control. A diferència d’altres països on el debat continua encallat en dilemes abstractes, a la Xina ja s’assaja un model concret. Amb regles, amb excepcions, amb vigilància.

Saber utilitzar-la també entra a l’examen

L’aula ha canviat. No per una revolució, sinó per acumulació. Petits gestos, decisions administratives, tallers opcionals. I de sobte, fer servir IA ja no és un tabú, sinó part del currículum. Però cada avanç deixa una pregunta: quant d’aquesta convivència és aprenentatge, i quan és adaptació? L’experiment continua en marxa. I la classe, en curs.

Obre un parèntesi en les teves rutines. Subscriu-te al nostre butlletí i posa’t al dia en tecnologia, IA i mitjans de comunicació.

Leave a Reply