back to top
mardi, avril 7, 2026
AccueilVie PrivéeUn Strasbourgeois menace de tuer un agent du renseignement dans une conversation...

Un Strasbourgeois menace de tuer un agent du renseignement dans une conversation avec une IA — le FBI alerte, le RAID intervient

À Strasbourg, un homme de 37 ans a été interpellé vendredi 3 avril 2026 après avoir tenu des propos menaçants lors d’un échange avec une intelligence artificielle — évoquant l’achat d’une arme pour s’en prendre à un agent du renseignement américain, israélien ou français. Le FBI a intercepté ces déclarations et transmis un signalement aux autorités françaises en temps réel.

🔍 Les faits en bref

L’intervention du RAID (Recherche, Assistance, Intervention, Dissuasion) — l’unité d’élite de la Police nationale française, basée à Bièvres en région parisienne et présente en antennes régionales — s’est déroulée sans incident ni découverte d’arme. L’affaire, classée sans suite, révèle pourtant un phénomène inédit : les conversations avec des intelligences artificielles peuvent désormais déclencher des alertes transatlantiques en temps réel.

L’homme, suivi pour des troubles psychiatriques et en rupture de traitement, affirmait simplement vouloir « tester » la surveillance exercée par ces outils. Il a néanmoins reçu une réponse très concrète : une unité d’élite à sa porte.


💬 Des menaces précises captées par l’IA

Selon les informations des Dernières Nouvelles d’Alsace, confirmées par L’Est Républicain et La Dépêche, l’homme a déclaré dans sa conversation avec l’intelligence artificielle son projet d’acquérir un pistolet Glock afin de « sacrifier » et de « tuer un agent du renseignement de la CIA, du Mossad ou de la DGSI ».

Les propos, qualifiés de confus mais suffisamment précis pour déclencher une alerte, ont été immédiatement repérés par les systèmes de surveillance du FBI. Le Mossad étant le service de renseignement extérieur israélien, la CIA l’agence américaine, et la DGSI son pendant français, la menace visait des cibles issues de trois pays alliés — ce qui explique la rapidité de la coopération internationale.


🚨 Le signalement Pharos et l’intervention express du RAID

Le FBI a transmis le signalement via la plateforme française Pharos, gérée par l’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication (OCLCTIC). Cet outil permet aux internautes et aux partenaires étrangers de signaler des contenus ou comportements illicites en ligne — une passerelle numérique entre les deux rives de l’Atlantique.

Les enquêteurs strasbourgeois ont rapidement identifié le suspect, domicilié rue Saint-Maurice, dans le centre-ville de Strasbourg (Bas-Rhin, Alsace). L’antenne locale du RAID est intervenue dans l’après-midi. L’homme a coopéré sans difficulté. La perquisition n’a révélé aucune arme.

🗣️ Ce que l’homme a déclaré en garde à vue

Il a expliqué être un « schizophrène affectif » en rupture de traitement depuis deux ans. Son objectif, a-t-il affirmé, était de « tester la fiabilité et la surveillance de l’intelligence artificielle ». La garde à vue a été levée le samedi 4 avril. Le parquet de Strasbourg a classé l’affaire sans suite. Le trentenaire a été hospitalisé d’office.


🤖 Une affaire qui interroge la surveillance par les IA

Cet épisode met en lumière le rôle croissant des intelligences artificielles dans la détection des menaces. Si l’homme pensait discuter confidentiellement avec une machine, il ignorait — ou voulait vérifier — que ces échanges peuvent être scrutés et signalés aux autorités.

En France, la plateforme Pharos permet une coopération internationale fluide. Ici, une simple conversation avec une IA a suffi à mobiliser le FBI à Washington, puis le RAID à Strasbourg, en l’espace de quelques heures. La chaîne de réaction illustre à la fois l’efficacité et la rapidité vertigineuse de ces mécanismes transfrontaliers.


⚖️ Anthropic, OpenAI : deux approches opposées face à la surveillance

Aux États-Unis, le débat fait rage sur l’utilisation des IA par les autorités. Deux géants de l’IA incarnent des philosophies radicalement différentes :

🛡️ Anthropic (Claude)

Refuse que ses modèles servent à la surveillance de masse. La confidentialité des conversations est un principe central de sa politique d’utilisation. L’entreprise se positionne comme un acteur engagé pour la sécurité de l’IA sans sacrifier les libertés individuelles.

⚠️ OpenAI (ChatGPT)

Indique transmettre, dans de rares cas précis, des propos jugés dangereux aux autorités compétentes. C’est très probablement ce mécanisme qui a été activé dans l’affaire de Strasbourg, selon La Dépêche qui précise que l’IA utilisée était ChatGPT.

Cette affaire pose une question fondamentale : l’utilisateur ordinaire sait-il que sa conversation avec un chatbot peut, dans certains cas, aboutir à une intervention de la police nationale française — ou du FBI ? La frontière entre assistant IA et outil de surveillance devient de plus en plus ténue.


📅 Chronologie des faits

1

Vendredi 3 avril 2026 — Matin/journée

Conversation menaçante avec l’IA. Signalement immédiat du FBI aux autorités françaises via la plateforme Pharos.

2

Vendredi 3 avril — Après-midi

Intervention du RAID rue Saint-Maurice à Strasbourg. Interpellation et perquisition sans résistance. Aucune arme découverte. Placement en garde à vue.

3

Samedi 4 avril 2026

Levée de la garde à vue. Classement sans suite par le parquet de Strasbourg. Hospitalisation d’office du suspect.

4

Dimanche 5 & lundi 6 avril 2026

Publication des premiers articles dans la presse régionale et nationale. Relais par La Dépêche, Les DNA et L’Est Républicain.


💡 Conclusion : jusqu’où va la responsabilité pénale face à une IA ?

Cette interpellation rapide et sans drame illustre à la fois l’efficacité des mécanismes de surveillance transfrontaliers et les limites humaines derrière les algorithmes. Un homme fragile a voulu « tester » une intelligence artificielle ; il a reçu la preuve concrète que ces systèmes fonctionnent — très bien, et très vite.

L’affaire est close, mais elle pose une question plus large et vertigineuse : jusqu’où les conversations privées avec une machine peuvent-elles engager la responsabilité pénale et déclencher la mobilisation de forces d’élite comme le RAID ?

À l’heure où des millions de Français utilisent quotidiennement ChatGPT, Claude ou Gemini pour rédiger des e-mails, chercher des informations ou simplement discuter, cet incident strasbourgeois rappelle une vérité inconfortable : la frontière entre parole et acte, entre test personnel et menace réelle, est désormais surveillée en temps réel par des yeux électroniques qui ne dorment jamais.

Dans la même catégorie

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

POPULAIRES

Commentaires récents