OpenAI Files

The OpenAI Files : quand la course au profit menace la sécurité de l’IA

7 minutes de lecture
OpenAI Files

Un rapport explosif intitulé « The OpenAI Files« , publié le 19 juin 2025, met en lumière des accusations graves portées par d’anciens employés d’OpenAI. Ces derniers affirment que l’entreprise, autrefois pionnière dans le développement d’une intelligence artificielle éthique et sécurisée, sacrifie désormais ses principes fondateurs au profit de la course aux bénéfices. Alors qu’OpenAI, connu pour ChatGPT, s’apprête à devenir une entité à but lucratif, ces révélations soulèvent des questions cruciales sur la sécurité de l’IA et la gouvernance des géants technologiques.


Une mission initiale trahie ?

Fondée en 2015 par des figures comme Sam Altman et Elon Musk, OpenAI s’était engagée à développer une intelligence artificielle générale (AGI) au service de l’humanité. Sa structure initiale, une organisation à but non lucratif, limitait les profits des investisseurs pour prioriser la sécurité et l’éthique. Cependant, selon le rapport, cette promesse a été progressivement abandonnée. Les anciens employés, dont Carroll Wainwright, dénoncent une « trahison profonde » : « La mission non lucrative était une garantie de faire ce qui est juste lorsque les enjeux deviendraient élevés. »

Le pivot vers un modèle à but lucratif, amorcé dès 2018 et renforcé par des levées de fonds massives (40 milliards de dollars en mars 2025), marque un tournant. Les critiques pointent une suppression des plafonds de profit, initialement conçus pour éviter que les bénéfices ne priment sur la sécurité. Ce changement, combiné à des pratiques opaques, alimente les craintes que l’entreprise ne privilégie les intérêts des actionnaires au détriment du bien public.


Des accusations accablantes

Le rapport révèle plusieurs pratiques troublantes :

  • Réduction des efforts en sécurité : Les équipes dédiées à la recherche sur la sécurité de l’IA ont été démantelées, et OpenAI aurait abandonné son engagement à consacrer 20 % de ses ressources informatiques à ces travaux. Jason Green-Lowe, du Center for AI Policy, avertit : « Si OpenAI agit ainsi sous une supervision notionnelle à but non lucratif, imaginez son comportement une fois libérée pour maximiser les profits. »
  • Suppression des lanceurs d’alerte : Les employés qui expriment des préoccupations sont réduits au silence, craignant pour leur emploi ou leurs économies.
  • Conflits d’intérêts : Sam Altman et des membres du conseil d’administration détiendraient des parts dans des startups liées à OpenAI, créant des risques de décisions biaisées.
  • Titres trompeurs dans les dépôts SEC : Altman aurait faussement revendiqué le titre de président de Y Combinator dans des documents officiels, sans l’approbation de l’organisation.

Les implications pour la sécurité de l’IA

La transition d’OpenAI vers un modèle à but lucratif soulève des inquiétudes quant à la sécurité des systèmes d’IA avancés. Les anciens employés, soutenus par des experts comme Geoffrey Hinton (lauréat du prix Nobel pour ses travaux en IA), craignent que la course à la commercialisation n’entraîne une réduction des tests de sécurité. Anish Tondwalkar, ex-ingénieur, met en garde : « Si OpenAI devient une entreprise à but lucratif, des garanties essentielles, comme la clause d’assistance aux rivaux en cas de percée vers l’AGI, pourraient disparaître du jour au lendemain. »

Le rapport souligne également l’absence de supervision indépendante. Les signataires demandent une gouvernance robuste, avec des mécanismes pour protéger les lanceurs d’alerte et maintenir les engagements initiaux d’OpenAI. Sans ces garde-fous, le développement d’une IA superintelligente pourrait poser des risques existentiels.


Une guerre des talents qui complique la situation

Parallèlement, OpenAI est au cœur d’une bataille acharnée pour attirer les meilleurs talents en IA. Sam Altman a récemment révélé que Meta offrait des bonus de 100 millions de dollars pour débaucher ses ingénieurs, une pratique qu’il juge contre-productive pour la culture d’entreprise. Pourtant, OpenAI elle-même n’est pas exempte de critiques : sa structure d’équité, basée sur des unités de participation aux profits (PPUs), limite la capacité des employés à faire don de leurs parts à des œuvres caritatives, ce qui suscite des tensions internes.

Cette guerre des talents, combinée à la pression des investisseurs et à la concurrence avec des acteurs comme Anthropic et xAI, pousse OpenAI à accélérer ses développements, parfois au détriment de la prudence.


Que faire pour rétablir la confiance ?

Face à ces défis, plusieurs mesures sont proposées :

  1. Renforcer la gouvernance : Instaurer une supervision indépendante pour garantir que la sécurité reste une priorité, même dans un cadre à but lucratif.
  2. Protéger les lanceurs d’alerte : Créer un environnement où les employés peuvent signaler des préoccupations sans crainte de représailles.
  3. Maintenir les engagements initiaux : Restaurer les plafonds de profit et les clauses de sécurité, comme l’obligation d’assister les projets alignés sur la sécurité.
  4. Transparence accrue : Publier des rapports réguliers sur les efforts en matière de sécurité et les conflits d’intérêts potentiels.
  5. Régulation étatique : Les anciens employés ont exhorté les procureurs généraux de Californie et du Delaware à bloquer la restructuration d’OpenAI, une démarche soutenue par des figures comme Elon Musk.

Un tournant critique pour l’IA

L’affaire des OpenAI Files met en lumière les tensions inhérentes à la commercialisation de l’IA. Alors que Sam Altman proclame que « l’ère de la superintelligence a commencé », les voix dissidentes rappellent que sans garde-fous, cette révolution pourrait se faire au détriment de l’humanité. Le cas d’OpenAI illustre un défi plus large : comment concilier innovation, profit et responsabilité dans un secteur où les enjeux sont colossaux ?

Pour suivre les évolutions de cette controverse et découvrir les dernières avancées en IA, abonnez-vous à la newsletter d’AI-Explorer.io.


Sources :

Partager cet article
Un commentaire