El conseller delegat d’OpenAI va declarar en una cort federal de Califòrnia que Elon Musk desmotivava investigadors clau i que la seva marxa el 2018 va alleujar una plantilla que no volia dirigir un laboratori científic sota la cultura de pressió extrema del fundador de Tesla.
Sam Altman ha portat al judici entre Elon Musk i OpenAI una de les frases més dures pronunciades fins ara contra el fundador de Tesla: la seva sortida d’OpenAI va ser “un impuls per a la moral” dels empleats i investigadors. La declaració, realitzada davant una cort federal d’Oakland, Califòrnia, en el desè dia del procés, introdueix una dimensió especialment reveladora en la disputa: el xoc no era només jurídic, financer o estratègic, sinó també cultural. Segons Altman, Musk no entenia com dirigir un laboratori de recerca en intel·ligència artificial i el seu estil de gestió resultava desmotivador per a part de l’equip.
La frase arriba en un judici d’enorme transcendència per al futur d’OpenAI i per a la indústria global de la intel·ligència artificial. Musk acusa OpenAI, Sam Altman, Greg Brockman i Microsoft d’haver traït la missió fundacional de l’organització, creada el 2015 com una entitat sense ànim de lucre per desenvolupar intel·ligència artificial avançada en benefici de la humanitat. OpenAI rebutja aquesta versió i sosté que Musk actua mogut pel ressentiment i la rivalitat empresarial, especialment des que va llançar xAI com a competidor directe.
El testimoni d’Altman era un dels més esperats perquè el judici no només examina contractes, estructures societàries o inversions. També intenta reconstruir la història íntima d’OpenAI: qui va voler controlar l’organització, quan es va trencar la relació entre els seus fundadors i si el gir cap a una estructura comercial va ser una traïció o una adaptació inevitable al cost creixent de desenvolupar models de frontera.
Altman va declarar que Musk “no entenia com dirigir un bon laboratori de recerca”, segons la informació citada per CNBC i recollida per EFE. Aquesta frase resumeix el nucli de la seva defensa: OpenAI no podia funcionar sota una cultura empresarial de pressió extrema, rànquings de rendiment i control personalista com la que Musk ha imposat en altres companyies. La recerca en IA, especialment en les primeres etapes, exigia un altre tipus d’ambient: confiança, autonomia, seguretat psicològica i capacitat d’explorar hipòtesis sense por permanent al càstig.
The Verge, que va cobrir el testimoni, va explicar que Altman va acusar Musk de causar “dany cultural” dins d’OpenAI. Segons aquesta cobertura, Musk hauria demanat als executius que classifiquessin els empleats per rendiment i eliminessin els de baix rendiment, una pràctica que xocava amb la necessitat de construir un laboratori científic orientat a la recerca a llarg termini.
El contrast entre ambdós models de gestió és clau per entendre el judici. Musk representa una cultura d’execució agressiva, objectius impossibles, pressió constant i control directe. Aquest estil ha estat celebrat per alguns com el motor de Tesla i SpaceX, però també criticat per exempleats i observadors com a dur, volàtil i poc compatible amb entorns on la creativitat científica requereix estabilitat. OpenAI, en canvi, necessitava atraure investigadors d’elit, molts provinents d’universitats i laboratoris capdavanters, més sensibles a l’autonomia intel·lectual que a una disciplina empresarial jeràrquica.
La declaració d’Altman s’ha de llegir en aquest marc. No es limita a dir que Musk era difícil. Suggereix que la seva permanència podia haver compromès la capacitat d’OpenAI per retenir talent i construir una cultura investigadora. En una empresa d’intel·ligència artificial, aquest punt és crucial. L’avantatge competitiu no depèn només de capital o computació; depèn també dels equips humans capaços de dissenyar models, investigar noves arquitectures, avaluar riscos i sostenir anys de treball incert abans que apareguin resultats comercials.
Altman va sostenir que, després de la sortida de Musk del consell el 2018, alguns investigadors van sentir alleujament. Segons Yahoo Finance, abans de dimitir, Musk hauria “desmotivat” investigadors clau en classificar els seus assoliments, i Altman va testificar que la marxa de l’empresari va elevar la moral dels qui s’havien sentit afectats per aquestes tàctiques.
La versió d’Altman xoca frontalment amb la narrativa de Musk. El fundador de Tesla ha presentat la seva sortida com a conseqüència de discrepàncies sobre el rumb d’OpenAI i, sobretot, com l’inici d’una deriva que hauria convertit una organització benèfica en una empresa multimilionària controlada per interessos comercials. En el seu testimoni previ, Musk va afirmar que va ser “un ximple” per lliurar 38 milions de dòlars de finançament “essencialment gratuït” per crear el que acabaria sent una companyia valorada en centenars de milers de milions.
El judici gira, per tant, al voltant de dos relats incompatibles. Per a Musk, OpenAI va trair la seva missió original i Altman i Brockman el van enganyar per finançar una organització que després es va transformar en un gegant amb ànim de lucre. Per a OpenAI, Musk va voler fer-se amb el control, va proposar integrar-la a Tesla o dominar-la personalment, i va abandonar l’organització quan no va obtenir el poder que volia. El testimoni d’Altman sobre la moral interna reforça aquesta segona lectura: la marxa de Musk no hauria estat una pèrdua traumàtica, sinó un alliberament organitzatiu.
Business Insider va informar que Altman també va declarar que Musk volia “control total” d’OpenAI i que fins i tot va suggerir que aquest control pogués passar als seus fills després de la seva mort. Altman es va oposar a aquesta idea perquè, segons la seva versió, OpenAI va néixer precisament per evitar que una sola persona monopolitzés el desenvolupament de la intel·ligència artificial general.
Aquest punt connecta directament amb la missió fundacional. OpenAI va ser creada el 2015 amb la promesa de desenvolupar intel·ligència artificial avançada en benefici de tota la humanitat. Aquest ideal pressuposa evitar la concentració extrema de poder. Si la versió d’Altman és acceptada pel jurat, Musk no apareixeria com a defensor pur de la missió original, sinó com algú que va intentar concentrar OpenAI sota el seu propi control abans d’acusar altres d’haver-se desviat.
El País va recollir un altre element del testimoni: Altman va afirmar que Musk “només treballarà en empreses que controli totalment”. Aquesta frase apunta al rerefons psicològic i empresarial del conflicte. Musk ha construït la seva carrera al voltant de companyies on exerceix un poder enorme: Tesla, SpaceX, X i xAI. OpenAI, en canvi, va néixer amb una estructura híbrida, primer sense ànim de lucre i després amb una entitat de benefici limitat subordinada a una fundació.
La tensió entre control i missió és un dels eixos més profunds del procés. Musk acusa OpenAI d’haver-se lliurat a Microsoft i a la lògica del benefici. OpenAI respon que Musk no defensava una governança oberta, sinó el seu propi domini. La frase sobre la moral interna afegeix una capa humana: no només es discutia qui havia de controlar OpenAI, sinó quin tipus d’organització podia sostenir el treball científic necessari per desenvolupar IA avançada.
El judici ha exposat també les contradiccions d’Altman. La defensa d’OpenAI intenta presentar el CEO com a garant d’una missió adaptada a la realitat econòmica. Però els advocats de Musk han atacat la seva credibilitat. The New York Post va informar que l’advocat Steven Molo va interrogar durament Altman sobre si era “completament fiable”, recolzant-se en testimonis d’exdirectius i exmembres del consell que el van acusar de comportaments contradictoris o enganyosos.
Le Monde també va assenyalar que Altman va afrontar una bateria intensa de preguntes sobre honestedat, conflictes d’interès i cultura corporativa. Segons aquesta cobertura, Altman va admetre no haver dit sempre la veritat, encara que va defensar el seu lideratge i va sostenir que la marxa de Musk havia estat un alleujament per a una companyia afectada pel seu estil desmoralitzador.
Aquest aspecte és important perquè el judici no està produint herois nets i vilans simples. La batalla entre Musk i Altman enfronta dos lideratges qüestionats. Musk apareix retratat per OpenAI com un empresari obsessionat amb el control i poc apte per dirigir un laboratori de recerca. Altman, per la seva banda, ha estat acusat per antics membres del consell de manca de transparència i d’una gestió que va conduir a la seva breu destitució el 2023. La disputa legal es converteix així en un judici sobre la governança de la intel·ligència artificial, però també sobre les personalitats que han acumulat poder al voltant d’aquesta tecnologia.
L’antecedent de 2023 pesa sobre tot el procés. Altman va ser acomiadat pel consell d’OpenAI el novembre d’aquell any i reinstaurat pocs dies després arran d’una rebel·lió interna d’empleats i de la pressió d’inversors i socis. Encara que el judici actual se centra en la demanda de Musk, la credibilitat d’Altman com a líder continua sota examen. Els advocats de Musk han intentat mostrar un patró d’opacitat i ambició personal. OpenAI intenta respondre que, malgrat errors i tensions, la seva estructura actual preserva la missió sense ànim de lucre i permet finançar el desenvolupament d’IA de frontera.
La qüestió econòmica és impossible de separar del debat moral. Musk sosté que OpenAI es va enriquir injustament a partir d’un finançament inicial concedit per a finalitats altruistes. OpenAI respon que el cost d’entrenar i desplegar models avançats va fer inviable una estructura purament filantròpica. L’aliança amb Microsoft, la captació de capital i la creació d’una entitat amb benefici limitat haurien estat, segons la companyia, mecanismes necessaris per competir amb Google, Anthropic, Meta, xAI i altres actors.
Altman ha defensat que OpenAI manté components sense ànim de lucre i una missió pública, encara que operi amb instruments empresarials. El País va informar que el CEO va destacar aportacions filantròpiques recents i va defensar que l’organització no va abandonar el seu propòsit original, sinó que va buscar una forma viable de sostenir-lo en una indústria on els costos de computació i talent són gegantins.
La frase sobre “l’impuls per a la moral” té força perquè humanitza una guerra que sovint es narra en xifres descomunals. OpenAI està valorada en centenars de milers de milions, Microsoft hi ha invertit quantitats enormes, Musk reclama compensacions multimilionàries i la indústria de la IA es disputa infraestructures crítiques. Però al centre del judici apareixen científics, enginyers i investigadors que havien de decidir si podien treballar sota una cultura de por, pressió o control personal.
Als laboratoris d’IA, la moral no és un assumpte secundari. La recerca de frontera exigeix assumir incertesa, publicar i revisar resultats, debatre riscos, reconèixer errors i sostenir col·laboració entre perfils extremadament especialitzats. Una cultura de pressió pot accelerar certes decisions, però també pot destruir confiança, espantar talent i empobrir la deliberació sobre seguretat. Altman intenta presentar Musk com una amenaça precisament per a aquest teixit intern.
Musk, en canvi, podria argumentar que el seu estil dur era necessari per competir contra gegants tecnològics i evitar que OpenAI es quedés enrere. Aquesta és una discussió clàssica a Silicon Valley: fins a quin punt la pressió extrema produeix innovació o simplement desgast. Tesla i SpaceX s’han construït sota una cultura d’execució implacable. OpenAI, segons Altman, necessitava alguna cosa diferent perquè el seu actiu central no era una fàbrica ni una cadena de producció, sinó un laboratori de recerca amb implicacions ètiques globals.
La tensió revela una pregunta més gran: quin tipus de cultura ha de governar el desenvolupament de la intel·ligència artificial general? Si es tracta d’una tecnologia amb potencial per transformar economia, política, guerra, educació i ciència, la cultura interna dels seus laboratoris importa. No és indiferent si aquests espais funcionen sota una lògica de control absolut, benefici financer, seguretat científica, deliberació oberta o competència geopolítica. El judici obliga a mirar dins d’una de les organitzacions més influents del món.
El procés també mostra com la història d’OpenAI s’ha convertit en un camp de batalla narratiu. Els mateixos fets —la fundació el 2015, la sortida de Musk el 2018, l’aliança amb Microsoft, el llançament de ChatGPT, la crisi del consell el 2023— són reinterpretats per cada part per construir legitimitat. Musk es presenta com el fundador traït. Altman es presenta com el dirigent que va protegir la missió davant un intent de control personal. El jurat ha d’escoltar no només contractes, sinó memòries enfrontades.
Segons NBC Bay Area, Musk va presentar una demanda de 134.000 milions de dòlars contra Altman, Brockman, OpenAI i Microsoft, al·legant que la companyia va violar la seva missió original sense ànim de lucre. OpenAI ha respost que la demanda busca debilitar un competidor i reforçar els interessos de xAI, fundada per Musk el 2023.
El resultat del judici pot tenir implicacions enormes. Si Musk aconsegueix convèncer el tribunal que OpenAI va incomplir obligacions fundacionals, podrien obrir-se escenaris que afectin la seva estructura corporativa, la seva relació amb Microsoft i la seva governança interna. Si OpenAI surt reforçada, consolidarà el seu argument que la transformació cap a un model híbrid va ser necessària i legítima. En tots dos casos, la indústria observarà amb atenció perquè el precedent pot afectar altres organitzacions d’IA que combinen missió pública, capital privat i models de negoci d’escala global.
La declaració d’Altman sobre Musk no resoldrà per si sola el cas, però sí que hi afegeix una peça important. Situa el conflicte en el terreny de la cultura organitzativa i planteja que la sortida de Musk no va ser simplement una discrepància estratègica, sinó una condició perquè OpenAI pogués funcionar com a laboratori. Aquesta és una acusació molt seriosa contra algú que es presenta com a defensor de la missió original.
La paradoxa és que tant Musk com Altman apel·len al bé comú. Musk diu defensar una OpenAI fidel al seu propòsit benèfic inicial. Altman diu defensar una OpenAI capaç de finançar i governar la IA avançada de manera responsable. Tots dos acusen l’altre d’haver traït la missió. I tots dos representen formes diferents de concentració de poder tecnològic.
Per això el judici és molt més que una baralla entre multimilionaris. És una finestra a la pregunta que defineix la nova era de la IA: qui ha de controlar les tecnologies més poderoses del segle XXI, sota quines regles, amb quina cultura interna i amb quina responsabilitat pública. La frase d’Altman —la marxa de Musk com a “impuls per a la moral”— no parla només del passat d’OpenAI. Parla de la dificultat de construir institucions tecnològiques capaces de resistir tant l’ambició personal com la pressió del mercat.
En última instància, el jurat i el jutge hauran de decidir qüestions legals. Però l’opinió pública ja està veient alguna cosa més: el relat de com una organització nascuda amb ideals d’obertura ha acabat convertida en el centre d’una guerra per poder, diners, legitimitat i control de la intel·ligència artificial. La sortida de Musk, segons Altman, va alleujar els investigadors. La pregunta pendent és si aquesta marxa també va obrir el camí cap a una OpenAI més fidel a la seva missió o cap a la corporació que Musk denuncia avui.