UBA logo

Il existe un marché immense pour une tech qui ne nous entube pas

Roel Verrycken, De Tijd at Mediafin Journaliste
Meredith Whittaker.png

Le 19 mars 2026, Meredith Whittaker (président Signal) montera sur scène lors de l'UBA Trends Day.
Le thème de son discours ? AI, power & ethics: tech that serves people, not the other way around.

L’application de messagerie ultrasécurisée Signal veut offrir une alternative respectueuse de la vie privée face aux grandes plateformes des Big Tech. Meredith Whittaker, présidente de la fondation qui la soutient, en fait un combat personnel.

« Vous aussi, vous venez de recevoir cette alerte sur votre téléphone ? Cela m'a fait flipper.» Meredith Whittaker nous rejoint dans le coin salon du très charmant hôtel Rosalia’s Menagerie à Amsterdam. Il est peu après midi, le premier lundi du mois, quand les Pays-Bas testent leur système d’alerte en cas de catastrophe. Son porte-parole la rassure: elle n’a rien à faire. «OK. Rassurant, I guess? »

Une heure durant, la patronne américaine de Signal – l’app de messagerie la plus sécurisée et la plus respectueuse de la vie privée – partagera avec nous son regard acéré sur les Big Tech et le business model de ce qu’elle appelle le «capitalisme de surveillance»: engranger des profits délirants sur le dos des données personnelles les plus intimes des utilisateurs.

Meredith Whittaker, si attachée à la confidentialité que même son âge reste secret, aime se profiler en grain de sable dans la luxueuse mécanique de la Silicon Valley. Signal est gérée par une fondation dont elle est la présidente. L’app a été inventée par le cryptographe légendaire Moxie Marlinspike et cofinancée par Brian Acton, cofondateur de WhatsApp. Ancienne de Google, Whittaker a rejoint l’aventure en 2022. Elle en est depuis le visage et l’évangéliste.

Sa marque de fabrique? La garantie d’une confidentialité absolue. De quoi séduire un public au fond très bigarré: activistes, journalistes, personnes opprimées... mais aussi les plus puissants de la planète. La preuve en mars dernier, lorsqu’un journaliste américain a été ajouté par erreur à un groupe de discussion où des personnalités marquantes de l’administration Trump échangeaient, sur Signal, des plans de guerre.

De rebelle chez Google à présidente de Signal
Meredith Whitaker a grandi en Californie et a étudié la littérature et la rhétorique à Berkeley. Après ses études, elle a commencé à travailler chez Google, où elle a notamment fondé le Google Open Research Group, qui visait à promouvoir la collaboration entre le monde universitaire et celui de l'open source. En 2018, elle a été l'une des organisatrices d'une grande manifestation contre la collaboration de Google avec le Pentagone.

Après avoir quitté Google, elle a cofondé l'AI Now Research Institute à l'université de New York, qui se consacre à l'étude de l'impact social de l'intelligence artificielle. Elle y est toujours conseillère principale. Depuis 2022, elle est présidente de la Signal Foundation, la fondation qui chapeaute la populaire application de messagerie Signal. Celle-ci compte environ 100 millions d'utilisateurs et est connue pour être l'application de chat la plus sécurisée au monde. Whitaker ne divulgue aucune information sur son âge et sa vie privée.

Pas de chiffres pour la Belgique, mais environ 100 millions d’utilisateurs dans le monde. Un groupe important, mais encore très inférieur à celui des accros aux apps de Meta comme WhatsApp. Reste que, pour des échanges vraiment sûrs, seule Signal fait le job, assure Whittaker. «Oui, WhatsApp intègre un peu de chiffrement – soit dit en passant, avec notre protocole standard – pour protéger une petite portion de données. Mais Signal le fait à 100%, ou aussi près que possible. Nous encryptons les métadonnées – des infos comme ‘quand’ et ‘avec qui’ vous échangez –, à partir desquelles on peut déduire plein de choses. Nous ne voulons pas y avoir accès. Sinon, un jour, on pourrait être mis sous pression.»

Meta bénéficie d’un atout majeur: l’effet de réseau. Tout le monde utilise WhatsApp, parce que tout le monde utilise WhatsApp. Comment mener l’offensive quand la facilité d’utilisation l’emporte sur la protection de la vie privée?
L’effet de réseau joue un rôle gigantesque. Dans l’histoire des communications, il a toujours mené à des monopoles. On ne choisit pas une app pour elle-même: on la choisit pour parler aux autres. C’est pourquoi nous avons toujours opté pour un design aussi simple et humain que possible. Peu importe la pureté de vos principes en matière de vie privée, vous voulez que des gens utilisent votre app. Nous sommes prêts à soutenir tout un chacun dans son droit fondamental à la vie privée. Nous voyons des personnes basculer en masse vers Signal en période d’instabilité politique, quand les Big Tech se plantent à nouveau. Ou quand une instance comme l’Union européenne nous recommande.

Les grandes entreprises collectent vos données, les revendent et amassent des montagnes d’argent. Signal est une organisation à but non lucratif qui vit de dons. Est-ce durable?
Nous prouvons qu’il existe un désir massif – et un immense marché – pour une tech en qui on peut avoir confiance. Une tech que les gens veulent vraiment, cool et innovante. La monoculture de l’industrie de la surveillance, qui prétend que plus c’est toujours mieux, laisse beaucoup à désirer. Elle n’est pas très innovante. Il nous faut des technologies bien plus sûres, beaucoup plus de contrôle sur les infrastructures critiques, etc. Nous avons besoin de services qui fonctionnent mieux pour leurs utilisateurs.

Pourtant, en Europe, c’est la jalousie qui domine: notre continent n’est pas en mesure de faire émerger la moindre grande plateforme de communication.
Ce serait très bien que l’Europe jette cette peur par-dessus bord. Mieux vaut se concentrer sur ce que les hyperscalers ne font pas bien mais qu’il faut faire. Des éléments critiques pour nos infrastructures sociales, économiques et politiques, qui exigent une vraie innovation. Plutôt que d’espérer renverser des monopoles enracinés depuis des décennies.

Pouvez-vous, vous-même, mener une vie moderne sans les apps des géants que vous décriez?
Oh God, no. Je ne vois pas qui le pourrait. Ce n’est pas une question de choix. Ils sont l’infrastructure. Je n’essaie pas de mener la vie la plus pure, j’essaie d’être honnête sur ce que je vois et sur les endroits où je peux pousser les choses dans une meilleure direction. Je suis très consciente des monopoles et je règle autant que possible les paramètres à mon avantage. Mais si vous tentez d’éviter les Big Tech, vous ne pouvez pas fonctionner, vivre et entretenir des relations dans le monde d’aujourd’hui. On ne peut pas non plus présenter cela comme un choix individuel. C’est comme pour le climat. L’idée de l’«empreinte écologique personnelle» est une invention de l’industrie fossile: une manière de faire peser la responsabilité sur chaque consommateur. Cela détourne du simple fait qu’il y a très peu de choix. Tout le monde culpabilise, mais le problème est ailleurs.

Signal compte parmi les principaux opposants au plan de «Chat Control» de l’Union européenne: ce projet de loi controversé qui obligerait les plateformes à donner accès aux conversations pour lutter contre la pédocriminalité. Êtes-vous satisfaite du compromis récent qui a supprimé cette obligation?
Cette approche totalement erronée n’en finira donc jamais. C’est très bien que l’obligation ait disparu, c’est désormais facultatif. Un énorme problème en moins. Mais il reste une marge de manœuvre pour une réintroduction. Signal est classée «à haut risque». Nous ne sommes pas d’accord, car ce que nous faisons est très simple et très nécessaire. C’est de la pensée magique que d’imaginer une porte dérobée que seul le gouvernement pourrait utiliser. Tous les experts technologiques sont d’accord là-dessus: avec une porte dérobée, tout le réseau et toutes les informations qu’il contient deviennent vulnérables. Heureusement, on l’a suffisamment compris aujourd’hui. C’est bon signe. Je suis vraiment stupéfaite que cette idée revienne sans cesse avec des présupposés aussi arrogants. S’ils avaient poursuivi, ç’aurait été une catastrophe. Si des personnes au pouvoir peuvent avoir accès aux pensées les plus intimes et personnelles, c’est un degré de contrôle gigantesque.

Mais pour nous faire l’avocat du diable... Je vous en prie. Le diable peut utiliser un avocat... La loi doit combattre les abus envers les enfants. Et pourquoi ne pas mieux les endiguer, au prix d’une légère entorse au respect de la vie privée?
Mon Dieu, quel faux dilemme. La prochaine fois que vous entendez quelqu’un du gouvernement défendre ça, demandez combien de moyens sont alloués à la protection des femmes ou des enfants en situation de vulnérabi- lité? De quels moyens dispose la police pour suivre les cas d’abus? Je veux voir ces chiffres, et je sais qu’ils seront très faibles. Si c’est vraiment pour les enfants: «Follow the money. Follow the policy». Se soucie-t-on vraiment des enfants, ou les utilise-t-on comme prétexte politique pour que les services de renseignement obtiennent un point de leur liste de souhaits? À mon avis, le diable perd cet argument.

Parlons IA. WhatsApp, Messenger, Snapchat: toutes les grandes messageries proposent désormais un bot pour discuter. Pourquoi pas Signal?
Parce que tout le monde les déteste. Ces robots ne sont pas utiles, tout simplement. Nous avons de la chance: Signal n’a pas injecté des quantités délirantes de capital dans un pari sur l’IA qui nous obligerait à l’imposer là où les gens n’en veulent pas. Beaucoup de ce que vous voyez, ce sont des tentatives désespérées pour créer un marché à l’IA. Elle n’a pas sa place dans nos communications privées. Les gens normaux – 99% du monde, donc – n’ont pas grand-chose à faire d’un résumé par IA des messages de votre mère, non? Ce n’est pas une réponse à une demande des consommateurs, seulement à un besoin des entreprises elles-mêmes, qui doivent justifier leurs investissements.

2025 a, une fois encore, été marquée par une frénésie autour de l’IA. Quel est votre regard sur ce phénomène?
C’est une monoculture: une approche très limitée parmi bien d’autres. Elle dit: plus il y a de puissance de calcul et de données, meilleurs seront les réseaux neuronaux (des modèles d’IA inspirés du cerveau humain, NDLR). C’est la voie empruntée il y a une dizaine d’années, quand la technologie s’est révélée utile pour certaines entreprises. Fondamentalement, l’IA de cette période est née des monopoles de plateforme. Aucune innovation ne peut être envisagée en dehors de cela.

Comment faire autrement?
Il existe de nombreuses autres façons d’utiliser l’IA, qui ne reposent pas sur des super-modèles massifs et des investissements gigantesques, et qui peuvent être très pertinentes dans de nombreux domaines. Mais pour cela, il faut en quelque sorte reconquérir le terme IA. Ce n’est pas un terme technique, c’est un désir, une aspiration. Depuis sa première utilisation en 1957, la technologie a été appliquée de multiples manières, notamment via les réseaux neuronaux et le deep learning (des réseaux neuronaux capables d’apprendre de manière autonome des schémas complexes, NDLR). Aujourd’hui, on la réduit aux grands modèles de langage (le modèle sur lequel, par exemple, ChatGPT est construit, NDLR) basés sur des réseaux neuronaux. Il y a beaucoup de choses intéressantes à faire, mais il faut sortir du paradigme «bigger is better». Il ne profite qu’aux monopoles en place. Eux seuls disposent de tous les ingrédients pour créer et diffuser ce type d’IA.

Croyez-vous en une forme de superintelligence?
C’est du désir sur du désir. Dites-moi d’abord ce que cela signifie? Donc non, je n’y crois pas. Cette «IA divine» serait-elle une réalisation mythique d’une conscience supérieure qui surpasserait toutes les capacités humaines et devant laquelle nous devrions nous incliner? Non, mais c’est un récit très dangereux. On peut tenir de petits débats philosophiques. Cela peut même être intéressant. Mais le risque que je vois, c’est d’attribuer des pouvoirs quasi religieux et surnaturels à une technologie contrôlée par une poignée d’entreprises dont les objectifs ne coïncident pas nécessairement avec l’intérêt général. Et on nous dit implicitement non seulement de nous soumettre à cette technologie, mais aussi de supposer qu’elle est correcte et supérieure à nos propres jugements. C’est un état d’esprit catastrophique.

Vous vous montrez surtout critique à l’égard de l’IA agentique, ces programmes qui, tel un majordome, prennent de manière autonome des décisions à notre place, comme réserver une table au restaurant. Ils représentent un danger pour la vie privée. On vient d’établir qu’Apple alimente Siri avec des messages vocaux de WhatsApp.
Pour faire ce qui est promis, il faut des quantités gigantesques de données. Si un agent agit pour vous, il a besoin d’accéder à vos informations: votre carte de crédit, votre agenda, votre historique de navigation, etc. Afin d’agir comme une sorte de version factice de vous, contacter des restaurants, réserver. Dans ce paradigme, un agent a aussi besoin d’accéder à vos messages, par exemple ceux de Signal. Cette technologie n’est pas conçue pour la sécurité, mais pour l’autonomie et la facilité d’utilisation. L’architecture ressemble fortement à celle d’un malware. Elle crée des possibilités d’attaque très préoccupantes, contraires aux bonnes pratiques de cybersécurité en place depuis des années.

N’y a-t-il pas un risque qu’une IA toujours plus intelligente finisse par venir à bout de toutes les formes de chiffrement?
Nous sommes évidemment préoccupés par un avenir où les ordinateurs quantiques pourraient saper le chiffrement. Nous avons été la première app de messagerie à implémenter une technologie en ce sens. Nous avons protégé Signal contre le «harvest now, read later». Ce sont des attaques qui collectent des données dès maintenant pour les déchiffrer plus tard, lorsque la technologie quantique existera. Il y a aussi de l’IA douée pour détecter des vulnérabilités dans les technologies de chiffrement. Nous prenons cette menace très au sérieux.

Une question plus personnelle: vous avez étudié la littérature et la rhétorique, un parcours loin d’être évident pour mener une carrière dans la tech.
Oui, j’adore ça. C’est une formation extrêmement enrichissante. Si vous savez bien lire, vous pouvez tout apprendre. C’est une compétence essentielle. Mais je ne comprends pas l’obsession selon laquelle votre formation universitaire déterminerait le reste de votre vie. J’ai été diplômée, j’ai mis mon CV sur un site et j’ai été recrutée par Google. J’avais besoin d’argent – sinon, je serais probablement devenue poétesse. Chez Google, j’ai eu la chance d’être entourée de personnes très compétentes, très fortes en informatique. J’ai pu apprendre d’elles.

À l’ère numérique, tout n’est-il pas perdu pour celles et ceux qui ne se tournent pas vers des études centrées sur les mathématiques, les sciences et la technologie?
N’enterrez pas trop vite les sciences humaines. Nous en avons besoin. Les gens ont tellement faim d’authenticité.


Le(s) présent(s) contenu(s) de presse est (sont) reproduit(s) avec l'autorisation de l'Editeur, tous droits réservés. Toute utilisation ultérieure doit faire l'objet d'une autorisation spécifique de la société de gestion Copiepresse: info@copiepresse.be.

Aussi intéressant pour vous

FAQ ?
UBA logo

Cookies sur ce site web

Ce site web utilise les cookies pour bien fonctionner. Si vous désirez changer les cookies que nous pouvons utiliser, veuillez changer les paramètres des cookies. Vous pouvez consuler notre politique de confidentialité pour plus de détails sur notre utilisation de cookies.

Cookie settings

Cookies strictement nécessaires 22 cookies

Ces cookies sont nécessaires au bon fonctionnement de notre site web et sont donc placés sans votre consentement. Nous les utilisons, par exemple, pour sécuriser notre site web. Ces cookies vous permettent de naviguer entre les différentes parties du site web, de remplir des formulaires. Si vous bloquez ces cookies, certaines parties du site web peuvent ne pas fonctionner de manière optimale. Nous ne collectons pas de données à caractère personnel avec ces cookies et ne transmettons jamais les informations collectées à des tiers. Outre les cookies énumérés ci-dessous, des cookies sont également installés par notre partenaire Vimeo lorsque vous utilisez notre offre Training 24/7.
Name Vendor Description Expiry

Cookies de préférence 1 cookies

Ces cookies facilitent le fonctionnement de nos sites web, en les rendant plus agréables pour les visiteurs et en garantissant une expérience de navigation plus personnalisée. Il s’agit, par exemple, de cookies qui déterminent si vous avez déjà été invité à participer à une enquête afin que nous ne vous présentions pas toujours la même enquête, ou d’un cookie qui vous propose une mise en page personnalisée à la suite d’une visite précédente.
Name Vendor Description Expiry

Cookies analytiques 7 cookies

Nous utilisons des cookies analytiques pour collecter des informations sur l’utilisation que les visiteurs font de notre site web dans le but d’en améliorer le contenu, de l’adapter plus étroitement aux besoins des visiteurs et d’en accroître la facilité d’utilisation.
Name Vendor Description Expiry

Cookies marketing 6 cookies

Ces cookies sont mis en place à des fins de marketing et sont utilisés pour suivre votre comportement de navigation après votre visite sur notre site web et/ou pour vous montrer des publicités personnalisées. Ces cookies peuvent être placés par nos soins ou par des tiers sur notre site web. Vous êtes libre de décider si vous consentez à l’installation de ces cookies marketing.
Name Vendor Description Expiry

Cookies externes 8 cookies

Certains cookies sont installés par des tiers avec le consentement de l’UBA dans le but de porter certains produits et services à votre attention ou de vous permettre d’accéder directement aux médias sociaux. Pour connaître les cookies mis en place par ces parties externes, les informations qu’ils collectent à cette occasion et la finalité pour laquelle ces informations sont utilisées, veuillez consulter les déclarations de confidentialité de ces parties sur leurs propres sites web. Ces déclarations peuvent changer régulièrement et l’UBA n’exerce aucun contrôle à cet égard.
Name Vendor Description Expiry