OpenAI : Quand la peur de l’AGI pousse à imaginer un “bunker de l’apocalypse”

Publié le 26 mai 2025 à 14:53

Dans les coulisses de l’une des entreprises les plus influentes du monde de la tech, un scénario digne d’un thriller post-apocalyptique aurait bel et bien été évoqué. 

ÉCRIT PAR : RADIO SISKO FM

OpenAI : Quand la peur de l’AGI pousse à imaginer un “bunker de l’apocalypse”

Selon le livre Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI, écrit par la journaliste Karen Hao, Ilia Sutskever — cofondateur historique et ancien scientifique en chef d’OpenAI — aurait proposé de construire un véritable « bunker de fin du monde » pour protéger les chercheurs de l’éventuel chaos provoqué par l’avènement de l’intelligence artificielle générale, ou AGI.

L’idée a été formulée sérieusement à l’été 2023, lors d’une réunion interne. Sutskever aurait déclaré à ses collègues : « Nous allons absolument construire un refuge avant de lancer l’AGI ». Face à l’incrédulité de certains membres de l’équipe, il a confirmé vouloir un lieu isolé, sécurisé, où les scientifiques pourraient se replier en cas de bouleversement mondial.

Ce projet, aussi surréaliste qu’il paraisse, n’est pas une blague isolée. Il s’inscrit dans une atmosphère de méfiance croissante au sein d’OpenAI, où plusieurs figures clés exprimaient de profondes inquiétudes quant à la vitesse à laquelle l’entreprise — dirigée par Sam Altman — poussait vers la réalisation d’une AGI. Cette tension atteindra un point critique en novembre 2023, lors d’une tentative avortée d’évincer Altman, soupçonné de négliger les garde-fous éthiques au profit d’une expansion rapide.

Le livre de Karen Hao, fondé sur plus de 260 témoignages et des documents internes, dévoile un OpenAI tiraillé entre ambition technologique et peur existentielle. Un paradoxe incarné par Sutskever lui-même, qui quittera finalement l’entreprise en mai 2024 pour cofonder “Safe Superintelligence Inc.”, une start-up dédiée au développement sécurisé d’une superintelligence, loin des pressions commerciales.

À mesure que l’AGI devient un horizon technologique tangible, ces révélations posent une question urgente : jusqu’où sommes-nous prêts à aller pour nous protéger des conséquences de nos propres créations ?

Ajouter un commentaire

Commentaires

Il n'y a pas encore de commentaire.