
La « confidentialité différentielle » (Differential Privacy) fait référence à un ensemble de techniques mathématiques qui permettent de réaliser des analyses de big data sans divulguer d’informations individuelles.
Les développeurs et fournisseurs de services en ligne récoltent régulièrement les données des utilisateurs à des fins de recherche. Ces données sont alors généralement rendues anonymes, ce qui signifie que les données personnelles telles que le nom et l’adresse sont supprimées.
Cela ne suffit toutefois pas à protéger la vie privée des personnes : la recherche montre en effet que les données anonymes permettent souvent de remontrer jusqu’à une personne bien précise. Une étude américaine révèle ainsi que 87 % des Américains peuvent être identifiés de manière unique sur la base de leur date de naissance, de leur sexe et de leur code postal.
La « confidentialité différentielle » (Differential Privacy) fait référence à un ensemble de techniques mathématiques qui permettent de réaliser des analyses de big data sans divulguer d’informations individuelles. Cette pratique consiste à ajouter un « bruit » statistique (données aléatoires) aux données individuelles avant de les transmettre. Lorsque ces données relatives à un grand groupe sont analysées, ce bruit est alors compensé de manière statistique. Les résultats de la recherche sur ces données restent, quant à eux, pertinents.
L’avantage de cette technique vient du fait que les chercheurs peuvent analyser de grandes quantités de données d’utilisateurs, sans que celles-ci puissent être rattachées aux utilisateurs individuels en question.