Le PDG d’OpenAI, Sam Altman, a averti que les États-Unis peuvent sous-estimer la complexité et la gravité des progrès de la Chine dans l’intelligence artificielle, et que le contrôle des exportations n’est probablement pas une solution fiable.
“Je m’inquiète pour la Chine”, a-t-il déclaré.
Au-dessus des tapas méditerranéennes dans le Presidio-Kun de San Francisco à cinq milles au nord du bureau d’origine d’Openai dans l’Altman offerte par la mission un rare d’information sur le record à un petit groupe de journalistes, dont CNBC. Il a averti que la course aux États-Unis-Chine AI est profondément emmêlée et plus de conséquences que celle simple qui est le tableau de bord tourné.
“Il y a une capacité d’inférence où la Chine est susceptible de construire plus rapidement. Il y a des recherches qui sont un produit; beaucoup de couches pour tout cela”, a-t-il déclaré. “Je ne pense pas que ce sera aussi simple que: les États-Unis ou la Chine sont-ils à venir?”
Malgré l’escalade des contrôles d’exportation américains sur les semi-conducteurs, Altman n’est pas convaincu que la politique est accompagnée de la réalité technique.
Lorsqu’on lui a demandé si ce serait rassurant si moins de GPU avaient atteint la Chine, Altman était sceptique. “Mon instinct est que cela ne fonctionne pas”, a-t-il déclaré.
“Vous pouvez exporter le contrôle d’une chose, mais peut-être pas la bonne chose … peut-être que les gens construisent des Fabs ou trouvent d’autres solutions”, a-t-il ajouté, se référant aux installations de fabrication de semi-conducteurs, les usines spécialisées qui produisent des puces qui conduisent tout, des smartphones aux grands systèmes d’IA.
“J’aimerais une solution facile”, a ajouté Altman. “Mais mon instinct est: c’est difficile.”
Ses commentaires surviennent alors que Washington ajuste ses politiques conçues pour limiter les ambitions de l’IA chinois. L’administration Biden a initialement resserré les contrôles des exportations, mais en avril, le président Donald Trump a continué à arrêter complètement la fourniture de puces avancées, y compris des modèles précédemment conçus pour se conformer aux règles de l’ère des enchères.
La semaine dernière, cependant, les États-Unis ont réduit une exception à certaines puces “chinoises”, permettant à la vente de reprendre en vertu d’un accord controversé et non prouvé qui nécessite Nvidia et DMLA Pour donner au gouvernement fédéral 15% de leurs revenus de la Chine Chip.
Le résultat est un régime de patchwork qui peut être plus facile à naviguer que l’application. Et bien que les entreprises américaines expliquent leur dépendance à l’égard des chips de NVIDIA et AMD, les entreprises chinoises avancent avec des alternatives de Huawei et d’autres fournisseurs nationaux – soulevant si la réduction de l’approvisionnement a l’effet prévu.

Open source et Chine
Les progrès de l’IA de la Chine ont également affecté la façon dont Openai envisage de publier ses propres modèles.
Alors que la société a longtemps résisté aux appels pour rendre sa technologie entièrement open source, Altman a déclaré que la concurrence des modèles chinois-Isky Open Source tels que Deepseek était un facteur dans la récente décision d’Openai de publier ses propres modèles de poids ouvert.
“Il était clair que si nous ne le faisions pas, le monde allait être principalement construit sur des modèles open source chinois”, a déclaré Altman. “C’était un facteur dans notre décision, certainement. Ce n’était pas le seul, mais c’était grand.”
Plus tôt ce mois-ci, OpenAI a publié deux modèles de langue ouverte – It It First depuis que GPT-2 en 2019 a marqué un changement significatif dans la stratégie pour l’entreprise qui a longtemps gardé sa technologie déclenchée derrière des interfaces de programmation d’applications ou des API.
Les nouveaux modèles de texte, appelés GPT-OSS-12b et GPT-OSS-20B, sont conçus comme des options pour des coûts plus bas que les développeurs, les chercheurs et les entreprises peuvent télécharger, s’exécuter localement et personnaliser.
Un modèle d’IA est considéré comme un poids ouvert si ses paramètres – les valeurs enseignées pendant la formation qui déterminent comment le modèle génère des réponses – sont accessibles au public. Bien qu’il offre la transparence et le contrôle, ce n’est pas la même chose que l’open source. OpenAI ne publie toujours pas ses données de formation ou son code source complet.

Avec cette version, Openai rejoint la vague et est maintenant seule comme la seule grande entreprise de modèles de fondation américaine, qui se penche activement sur une approche plus ouverte.
Alors que Meta avait adopté l’ouverture avec ses modèles de lama, le PDG Mark Zuckerberg a suggéré que les bénéfices de l’entreprise au 2e trimestre peuvent se retirer à cette stratégie à l’avenir.
Openai, quant à lui, se déplace dans la direction opposée et vise une accessibilité plus large pour aider à développer son écosystème de développeur et à renforcer sa position contre les rivaux chinois. Altman avait précédemment reconnu qu’Openai avait été “du mauvais côté de l’histoire” en déverrouillant ses modèles.
En fin de compte, la relocalisation d’Openai montre qu’elle veut garder les développeurs engagés et dans son écosystème. Cette poussée survient lorsque Meta récupère son attitude open source et que les laboratoires chinois inondent le marché de modèles conçus pour être flexibles et largement adoptés.
Pourtant, les débuts ouverts ont attiré des critiques mitigées.
Certains développeurs ont appelé les modèles à côté et ont noté que de nombreuses capacités qui font des offres commerciales d’Openai afin que les puissants aient été supprimés.
Altman ne l’a pas contesté et a déclaré que l’équipe avait intentionnellement optimisé pour une utilisation de base: les agents de codage dirigées localement.
“Si ce genre de demande change dans le monde”, a-t-il dit, “vous pouvez le pousser à autre chose.”
Horloge: Les paris d’entreprise OpenAIS sont payants alors que les startups dans la Silicon Valley passent à GPT-5
