Skip to main content

La plataforma busca combinar IA amb revisió humana per ampliar el seu sistema de verificació

X (abans Twitter) ha iniciat aquest 1 de juliol un programa pilot que permet a desenvolupadors externs utilitzar intel·ligència artificial per redactar propostes de Community Notes, les notes que ofereixen context a publicacions potencialment enganyoses. La novetat: aquestes notes poden ser escrites per models com GPT d’OpenAI o Grok, el sistema natiu de la pròpia plataforma.

Per ara, aquestes notes generades per IA no apareixeran directament al feed dels usuaris. Primer passaran per una etapa d’avaluació limitada, durant la qual es mesurarà la seva utilitat, precisió i recepció per part de la comunitat.

“La decisió segueix en mans dels humans”

Segons va explicar Keith Coleman, vicepresident de producte a X i responsable del sistema de Community Notes, la incorporació d’IA busca ajudar a cobrir més publicacions sense reemplaçar el judici humà. En declaracions a Bloomberg, Coleman va afirmar: “Poden ajudar a lliurar moltes més notes més ràpidament i amb menys treball, però en última instància la decisió sobre què és prou útil per mostrar-se segueix en mans dels humans.”

El sistema actual, en funcionament des de 2021, es basa en col·laboradors voluntaris que redacten i avaluen notes per donar context a tuits virals. Perquè una nota es publiqui, ha de ser votada com a útil per persones amb opinions diferents. Aquesta condició es manté fins i tot si la nota és redactada per una IA.

Col·laboració entre humans i màquines

X també ha publicat un estudi conjunt amb investigadors del MIT, Stanford, Harvard i altres universitats. El document proposa un model híbrid: humans per a tasques complexes, IA per ajudar amb el volum. La meta és escalar el sistema sense perdre precisió ni imparcialitat.

Un dels motius d’aquest canvi és la caiguda recent en la participació humana. Des de gener, l’activitat en Community Notes s’ha reduït a la meitat. Encara que una sola nota pot tenir efectes significatius —com disminuir un 60 % les vegades que es comparteix un tuit o fer que l’autor l’elimini en un 80 % dels casos—, moltes publicacions queden sense revisió.

Una API oberta… i dubtes sobre el sistema

Ara, qualsevol desenvolupador que compleixi certs requisits pot connectar el seu model d’IA al sistema mitjançant una nova API. La revisió seguirà sent comunitària, però la generació del contingut s’automatitza.

El pla ha estat rebut amb interès, però també amb inquietud. Especialistes adverteixen sobre el risc d’errors o “al·lucinacions” dels models de llenguatge, i sobre com podria afectar el sistema si augmenten excessivament les notes proposades. Tot i així, per a X, aquesta fase de prova representa un pas clau per mantenir el seu enfocament de moderació col·laborativa a gran escala, en un moment en què altres plataformes també experimenten amb eines automàtiques per combatre la desinformació.

Obre un parèntesi en les teves rutines. Subscriu-te a la nostra newsletter i posa’t al dia en tecnologia, IA i mitjans de comunicació.

Leave a Reply