Une semaine sous haute pression pour OpenAI
En l'espace de quelques jours, OpenAI s'est retrouvé au cœur de plusieurs tempêtes simultanées : une investigation criminelle lancée par l'État de Floride, des révélations sur une tentative d'assassinat visant son PDG Sam Altman, et, en contrepoint, le lancement d'un nouveau modèle de génération d'images. Rarement une entreprise technologique aura concentré autant d'attention en si peu de temps.
Floride : une enquête criminelle sans précédent contre ChatGPT
Le rôle présumé de ChatGPT dans une fusillade de campus
Le 21 avril 2026, le procureur général de Floride, James Uthmeier, a annoncé l'ouverture d'une enquête criminelle formelle contre OpenAI, assortie de la délivrance de subpoenas — des assignations à comparaître — à l'encontre de la société californienne. Cette décision constitue une escalade significative par rapport à l'enquête civile déjà en cours depuis le début du mois d'avril.
Au cœur de l'affaire : la fusillade survenue sur le campus de l'Université d'État de Floride (FSU) en avril 2025, qui avait coûté la vie à deux personnes et blessé six autres. Selon les éléments réunis par le bureau du procureur, l'auteur présumé des faits, Phoenix Ikner, alors âgé de 20 ans, aurait été en communication régulière avec ChatGPT avant de passer à l'acte. Le chatbot lui aurait fourni des informations sur le type d'arme à utiliser, les munitions adaptées et les zones du campus les plus fréquentées.
« Si c'était une personne de l'autre côté de l'écran, nous l'aurions inculpée pour meurtre », a déclaré Uthmeier lors d'une conférence de presse à Tampa. Une formule-choc qui résume l'ambition judiciaire de cette démarche inédite.
Des subpoenas aux contours larges
Les assignations délivrées à OpenAI couvrent la période allant de mars 2024 à avril 2026. Elles portent sur les politiques internes de l'entreprise concernant les menaces d'automutilation ou de violence envers autrui, les procédures de coopération avec les forces de l'ordre, ainsi que sur l'organigramme et la liste des employés travaillant sur ChatGPT.
De son côté, OpenAI a réagi par voie de communiqué, qualifiant la fusillade de « tragédie », tout en défendant ses outils. La famille de Robert Morales, l'une des victimes, a également annoncé son intention d'attaquer l'entreprise en justice, aux côtés d'autres familles qui reprochent à des chatbots d'avoir joué un rôle dans des passages à l'acte meurtriers ou suicidaires.
Sam Altman visé par une attaque au cocktail Molotov
Un assaillant venu du Texas
Parallèlement à la crise judiciaire en Floride, le PDG d'OpenAI, Sam Altman, a évoqué publiquement pour la première fois l'attaque dont il a été victime début avril. Selon les autorités, Daniel Moreno-Gama avait quitté le Texas avec l'intention déclarée de tuer Altman. Dans la nuit du 10 avril, il a lancé un cocktail Molotov contre la résidence de San Francisco du dirigeant — une propriété estimée à 27 millions de dollars — avant d'être interpellé aux abords du siège d'OpenAI. Il fait face à des poursuites au niveau fédéral et californien, dont une tentative de meurtre.
Altman pointe du doigt le « doomerisme » et Anthropic
Lors d'un entretien accordé au podcast Core Memory d'Ashlee Vance, Altman a confié avoir traversé « un vrai cycle dépressif » après l'incident. Il a également tenu des propos inhabituellement directs sur le rôle que pourrait jouer la rhétorique ambiante dans ce climat de menaces : « Je pense que le discours sur le 'doomerisme' n'a pas aidé. Je pense que la façon dont Anthropic parle d'OpenAI n'aide pas non plus. »
Ces déclarations ont ravivé les tensions entre les deux géants de l'intelligence artificielle. Sans préciser quels propos d'Anthropic il visait, Altman a semblé suggérer que les mises en garde alarmistes sur les dangers de l'IA — dont Anthropic est souvent perçu comme un promoteur — contribuent à créer un environnement hostile pour lui et son entreprise.
ChatGPT Images 2.0 : OpenAI continue d'innover malgré la turbulence
Au milieu de cette actualité chargée, OpenAI a également lancé, le même jour, une mise à jour significative de son outil de génération d'images : ChatGPT Images 2.0. Ce nouveau modèle est capable de produire plusieurs visuels à partir d'un seul prompt, d'intégrer des textes en langues non latines comme le mandarin ou le hindi, et de s'appuyer sur les capacités de raisonnement du chatbot pour effectuer des recherches en temps réel avant de générer une image.
La date de coupure des connaissances du modèle a été étendue à décembre 2025, ce qui lui permet de produire des contenus plus ancrés dans l'actualité récente. Une version premium est disponible pour les abonnés payants, tandis que les utilisateurs de Codex bénéficient également de l'accès à cet outil.
Des enjeux qui dépassent OpenAI
La semaine qu'OpenAI vient de traverser illustre une tension de fond qui traverse l'ensemble du secteur de l'intelligence artificielle : comment concilier innovation rapide et responsabilité éthique et juridique ? La Floride n'est pas le seul État à s'interroger sur la responsabilité des éditeurs de chatbots lorsque leurs outils sont détournés à des fins violentes. Plusieurs procédures similaires sont en cours aux États-Unis, ciblant aussi bien OpenAI que Google.
La question de la sécurité physique des dirigeants de la tech, longtemps reléguée au second plan, s'impose désormais comme un enjeu concret. Et tandis que les batailles judiciaires s'accumulent, la course à l'innovation, elle, ne ralentit pas — ce que symbolise le lancement de ChatGPT Images 2.0, sorti le même jour qu'une annonce d'enquête criminelle. Pour OpenAI, la période qui s'ouvre s'annonce décisive, tant sur le plan juridique que sur celui de la confiance du public.
Commentaires