Le lundi 6 avril 2026 à 16:44
Un homme de 37 ans a été interpellé vendredi 3 avril à Strasbourg (Bas-Rhin) après avoir confié à une intelligence artificielle son intention d'acheter un pistolet Glock pour tuer un agent du renseignement. Alertés par le FBI américain via la plateforme de signalement Pharos, les policiers ont mobilisé l'antenne du RAID pour procéder à son interpellation. Aucune arme n'a été retrouvée à son domicile.
C'est un signalement inhabituel qui a mobilisé les forces de l'ordre strasbourgeoises vendredi. Le FBI (bureau fédéral d'enquête américain) a alerté les policiers, via la plateforme PHAROS dédiée au signalement de contenus illégaux sur Internet, qu'un internaute avait exprimé sa volonté d'acheter une arme de poing de marque Glock pour "sacrifier" et "tuer un agent du renseignement de la CIA, du Mossad ou de la DGSI", rapporte le quotidien Les Dernières Nouvelles d'Alsace. Les propos inquiétants ont été échangés avec une intelligence artificielle, ce qui a immédiatement déclenché l'alerte.
«Tester la fiabilité de l'intelligence artificielle»
Les investigations ont rapidement permis d'identifier le suspect, un Strasbourgeois domicilié rue Saint-Maurice. Les policiers de l'antenne du RAID sont intervenus vendredi dans l'après-midi pour procéder à son interpellation. Le suspect a coopéré et a été interpellé sans difficulté. La perquisition menée à son domicile n'a permis de retrouver aucune arme.
Placé en garde à vue, le trentenaire a expliqué aux enquêteurs être un "schizophrène affectif" en rupture de traitement depuis deux ans. Il a affirmé avoir agi dans le but de "tester la fiabilité et la surveillance de l'intelligence artificielle". Sa garde à vue a été levée samedi, précisent nos confrères. Le parquet de Strasbourg a classé l'affaire sans suite et l'homme a été hospitalisé d'office.
L'IA au cœur d'un bras de fer entre Anthropic et Washington
L'intelligence artificielle est au cœur d'un bras de fer aux États-Unis. Fin février, Anthropic, l'entreprise qui développe le modèle d'IA Claude, a refusé de lever les restrictions imposées à l'armée américaine sur l'utilisation de sa technologie, s'opposant à deux usages précis : la surveillance de masse des citoyens américains et le déploiement d'armes létales autonomes sans supervision humaine. En réponse, Donald Trump a ordonné à toutes les agences fédérales de cesser immédiatement toute utilisation de la technologie d'Anthropic, et le Pentagone a classé l'entreprise comme "risque pour la sécurité nationale".
Le département de la Défense s'est alors tourné vers OpenAI, qui a conclu un accord pour déployer ses modèles dans des environnements militaires classifiés. Anthropic a assigné l'administration Trump en justice, et un juge fédéral a suspendu les mesures d'exclusion, les jugeant "probablement illégales". La procédure est toujours en cours.