Une class action déposée devant le tribunal fédéral de San Francisco accuse Perplexity AI d’avoir secrètement partagé les conversations de ses utilisateurs avec Meta et Google. L’affaire, révélée le 2 avril 2026, met en lumière un problème majeur : quand vous posez une question à une IA, qui d’autre écoute ?
Les faits : des trackers cachés dans le moteur IA
Selon la plainte de 135 pages, Perplexity embarquait dans son moteur de recherche IA plusieurs trackers publicitaires sans en informer ses utilisateurs. Parmi eux : le Meta Pixel de Facebook, Google Ads, Google DoubleClick, et possiblement la technologie Conversions API de Meta.
Le fonctionnement est simple et inquiétant. Chaque fois qu’un utilisateur tapait une requête dans Perplexity, le contenu intégral de sa conversation était transmis à Meta et Google en arrière-plan. Et ce n’est pas tout : pour les utilisateurs non abonnés, un lien URL permettant d’accéder à l’ensemble de la conversation était également partagé avec ces deux géants.
« Cela s’est produit pour chaque utilisateur, qu’il ait ou non créé un compte Perplexity », affirme la plainte. Des « volumes énormes d’informations sensibles » ont ainsi été transmis sans consentement.
Le mode Incognito ? Une « imposture » selon la justice
L’élément le plus choquant de cette affaire concerne le mode Incognito de Perplexity. Les utilisateurs payants qui activaient cette fonction pensaient protéger leur vie privée. En réalité, selon la plainte, ce mode « ne fait rien » pour empêcher le partage de données.
« Même les utilisateurs payants qui avaient activé la fonction Incognito ont vu leurs conversations partagées avec Meta et Google, accompagnées de leurs adresses email et d’autres identifiants permettant de les identifier personnellement », détaille le document juridique.
Le plaignant, identifié sous le pseudonyme « John Doe », utilisait Perplexity pour gérer ses impôts, obtenir des conseils juridiques et prendre des décisions d’investissement. Des informations financières sensibles qui se sont retrouvées entre les mains de Meta et Google.
Données médicales, financières : le pire scénario
La plainte souligne un problème particulièrement grave : les utilisateurs confient souvent à ces outils IA des questions médicales embarrassantes ou sensibles. L’IA de Perplexity est d’ailleurs conçue pour encourager le partage de données, demandant régulièrement aux utilisateurs de « télécharger des dossiers sensibles » pendant les sessions de chat.
Par exemple, à la simple question « Quel est le meilleur traitement pour le cancer du foie ? », Perplexity répond en proposant d’analyser « un rapport de scan spécifique, un résultat de biopsie ou un plan de traitement ». Si ces informations sont ensuite partagées avec Google et Meta, l’utilisateur peut se retrouver ciblé par des publicités médicales intrusives.
La class action couvre les utilisateurs de Perplexity dont les conversations auraient été partagées entre décembre 2022 et février 2026, soit plus de trois ans de données potentiellement compromises. Les amendes potentielles dépassent les 5 000 $ par violation, ce qui, avec des millions de conversations concernées, pourrait représenter des milliards de dollars.
Ce que ça change pour vous
Si vous utilisez Perplexity — ou n’importe quel autre outil IA — cette affaire doit vous alerter. Voici les réflexes à adopter dès maintenant :
- Ne partagez jamais de données sensibles (médicales, financières, juridiques) dans un chatbot IA, même avec un mode « incognito » activé
- Utilisez un bloqueur de trackers comme uBlock Origin ou Privacy Badger quand vous naviguez sur des outils IA en ligne
- Préférez les solutions locales pour les requêtes sensibles : des modèles open source comme les alternatives à Perplexity tournant en local ne partagent rien
- Vérifiez les permissions de vos outils IA : quels cookies et trackers utilisent-ils ?
Cette affaire rappelle aussi que le modèle gratuit de ces outils a un coût caché : vos données sont le produit. Les trackers publicitaires de Meta et Google intégrés dans Perplexity servaient précisément à monétiser vos interactions « privées ».
Notre avis
Cette affaire est un signal d’alarme pour toute l’industrie de l’IA. Les utilisateurs font confiance à ces outils pour des questions intimes — santé, finances, vie personnelle. Découvrir que ces conversations alimentaient en sous-main les machines publicitaires de Meta et Google, c’est une trahison de confiance majeure.
Le plus inquiétant n’est pas que Perplexity l’ait fait. C’est que personne ne s’en soit aperçu pendant trois ans. Combien d’autres outils IA font la même chose sans qu’on le sache ? En attendant une régulation plus stricte — le EU AI Act pourrait aider — la prudence reste de mise.
À lire aussi
- Perplexity AI : Test et avis complet 2026
- Anthropic coupe Claude pour les outils tiers
- ChatGPT lance les pubs conversationnelles