Skip to main content

Meta planeja reemplaçar fins al 90% de les seves revisions internes de privacitat, seguretat i integritat a Facebook, Instagram i WhatsApp amb intel·ligència artificial, segons documents interns obtinguts per NPR.

Durant anys, Meta ha confiat en equips humans per revisar els riscos associats a noves funcions en les seves plataformes, avaluant possibles impactes en la privacitat, la seguretat de menors i la propagació de desinformació. No obstant això, la companyia planeja automatitzar fins al 90% d’aquestes avaluacions, delegant a sistemes d’intel·ligència artificial l’aprovació de canvis crítics en algoritmes, funcions de seguretat i polítiques de contingut.

Aquesta decisió busca agilitzar el llançament de noves característiques, i això permet als desenvolupadors implementar actualitzacions més ràpidament. Tanmateix, alguns empleats actuals i antics de Meta expressen preocupació pels possibles riscos de permetre que la IA prengui decisions complexes que podrien tenir repercussions en el món real.

Preocupacions internes i possibles conseqüències

L’automatització d’avaluacions de risc ha generat inquietud entre el personal de Meta. Un ex-executiu de la companyia, que va preferir mantenir l’anonimat, va assenyalar que aquesta mesura podria augmentar la probabilitat que canvis en els productes generin conseqüències negatives no previstes.

«En la mesura que aquest procés significa que es llancen més coses més ràpides, amb menys escrutini i oposició rigorosos, vol dir que estàs creant majors riscos», va afirmar l’ex-executiu.

Encara que Meta assegura que l’automatització s’aplicarà només a decisions de baix risc i que els assumptes complexos continuaran sent avaluats per experts humans, els documents indiquen que la companyia considera automatitzar revisions en àrees sensibles com la seguretat de la IA, riscos per a menors i contingut violent o fals.

Context regulador i antecedents

Des de 2012, Meta està sota supervisió de la Comissió Federal de Comerç (FTC) dels EUA a causa de preocupacions sobre la gestió de la informació personal dels usuaris. Com a part d’aquest acord, la companyia està obligada a realitzar revisions de privacitat per als seus productes. L’automatització d’aquestes avaluacions podria generar tensions amb els reguladors, especialment si es percep que es redueix l’escrutini humà en decisions que afecten la seguretat i privacitat dels usuaris.

Implicacions per als usuaris i la indústria

La creixent dependència de la IA en la presa de decisions crítiques planteja interrogants sobre la capacitat d’aquestes tecnologies per gestionar situacions complexes i èticament sensibles. A més, podria establir un precedent en la indústria tecnològica, on altres empreses podrien seguir l’exemple de Meta, prioritzant l’eficiència sobre la supervisió humana en àrees clau.

La decisió de Meta d’automatitzar la majoria de les seves avaluacions de risc amb intel·ligència artificial marca un canvi significatiu en el seu enfocament cap a la gestió de la privacitat i la seguretat. Aquest moviment planteja importants preguntes sobre la responsabilitat, la transparència i l’eficàcia de la IA en la protecció dels usuaris en plataformes digitals. Serà crucial observar com responen els reguladors i com s’adapten altres empreses tecnològiques a aquesta tendència emergent.

Obre un parèntesi en les teves rutines. Subscriu-te al nostre newsletter i posa’t al dia en tecnologia, IA i mitjans de comunicació.

Leave a Reply