Friend, le collier IA suspendu en France : la CNIL met un frein au bijou qui vous écoute

Paris, le 5 avril 2026 — Le collier connecté Friend, bijou d’intelligence artificielle qui promet une amitié virtuelle permanente, vient de suspendre ses ventes en France. Après une campagne publicitaire massive dans le métro parisien, la start-up américaine se heurte à la réglementation européenne sur la protection des données (RGPD) et à l’AI Act. L’autorité française (CNIL) a ouvert une enquête sur ce dispositif d’écoute continue qui capture l’intimité sans consentement.

Friend collier IA pendentif intelligence artificielle
Le collier Friend : un micro Bluetooth toujours actif qui analyse vos conversations et vos émotions.
Friend collier IA pendentif intelligence artificielle
Le collier Friend : un micro Bluetooth toujours actif qui analyse vos conversations et vos émotions.

Un ami virtuel qui écoute tout, tout le temps

Friend se présente comme un pendentif discret, porté autour du cou, équipé d’un micro Bluetooth relié à un smartphone. Il capte en continu l’environnement sonore — conversations, silences, intonations — et transmet ces données à des serveurs cloud hors d’Europe pour analyse via des modèles de langage comme Gemini de Google. L’objet, vendu 129 $, promet une présence constante pour rompre la solitude : « Je ne laisserai jamais la vaisselle dans l’évier », « Je regarderai tous les épisodes avec toi », clament les affiches du métro parisien.

Mais cette écoute permanente soulève des questions juridiques majeures. Si l’utilisateur consent via les conditions générales, les tiers — amis, collègues, inconnus — n’ont pas signé ce contrat. Friend devient un micro ouvert dans l’espace social, sans bouton de coupure physique ni indicateur lumineux signalant l’enregistrement.

La CNIL saisie, le RGPD en ligne de mire

Vidéo : essai du collier Friend par Terms of Service (YouTube)

La Commission nationale de l’informatique et des libertés (CNIL) a confirmé à Les Échos avoir ouvert une analyse du dispositif. « Le collier peut entraîner une collecte massive de données, possiblement sensibles : santé, opinion politique, orientation sexuelle, en fonction du contenu des conversations, tant de la personne utilisatrice que de ses interlocuteurs », indique l’autorité.

La CNIL s’interroge sur « le sort des données, leur lieu de stockage, leur sécurisation et leur possible réutilisation à des fins d’entraînement du système d’IA ». Elle va se rapprocher de la société Friend.com pour examiner sa conformité au RGPD. Face à ces investigations, Friend a suspendu ses ventes en France, selon l’article des Échos paru le 4 avril 2026.

Inférence émotionnelle et données sensibles

Le traitement va au-delà de la simple reconnaissance vocale. Friend analyse l’intonation, la fatigue, le stress pour en déduire des états émotionnels et des fragilités psychologiques — des données catégorisées comme « sensibles » par le RGPD. L’AI Act européen, en vigueur depuis février 2025, encadre précisément l’inférence des émotions dans les contextes professionnels et éducatifs. Un collier portable partout brouille ces frontières.

« Entre le micro qui enregistre et l’oreille qui ignore être captée, il n’y a qu’un contrat signé par l’un et jamais lu par l’autre. Faire peser ces obligations sur l’utilisateur ne tient pas juridiquement », analyse Aurore Bonavia, avocate en propriété intellectuelle au barreau du Val-d’Oise, citée par le Journal du Net.

Une stratégie de lancement « lance maintenant, ajuste plus tard »

Friend incarne une méthode courante dans la tech américaine : lancer un produit disruptif, observer les réactions, ajuster a posteriori. Le fondateur, Avi Schiffmann, 22 ans, déjà connu pour son tableau de bord mondial du Covid en 2020, assume cette approche. Aux États-Unis, Friend n’a vendu que 3 000 exemplaires en huit mois malgré une campagne publicitaire d’un million de dollars dans le métro new-yorkais.

En Europe, la régulation est moins flexible. L’AI Act impose une évaluation des risques avant la commercialisation des systèmes d’IA à haute risque. Friend, par son écoute permanente et son inférence émotionnelle, pourrait tomber dans cette catégorie.

L’IA quitte l’écran, s’approche du corps

Friend n’est qu’un précurseur. OpenAI travaille déjà avec Jony Ive, l’ex-designer d’Apple, sur un dispositif portable d’IA. L’intelligence artificielle quitte les écrans pour s’intégrer à notre environnement physique, nos vêtements, nos accessoires. La question réglementaire devient cruciale : faut-il autoriser la commercialisation avant la conformité, au nom de l’innovation ?

« Pourquoi les technologies numériques bénéficient-elles encore d’un régime d’exception ? Pourquoi le principe de précaution, appliqué sans hésitation dans le monde physique, s’efface-t-il dès qu’il s’agit de logiciels et d’algorithmes ? », interroge le Journal du Net.

Ce que cela signifie pour l’avenir des wearables IA

La suspension de Friend en France envoie un signal fort aux fabricants de wearables IA : l’Europe ne transigera pas sur la protection des données et la vie privée. Les produits devront intégrer dès la conception le respect du RGPD et de l’AI Act — notamment le consentement explicite des tiers, la limitation de la collecte, la transparence sur le traitement.

Pour les consommateurs, l’épisode rappelle que tout appareil connecté doté d’un micro ou d’une caméra peut devenir un outil de surveillance. La vigilance reste de mise face aux promesses d’amitié numérique.

Sources et références

Article rédigé le 2026-04-05 10:37 UTC pour Formation‑en‑IA.fr — Actualités IA.

Laisser un commentaire