Contactez-nous

Vous êtes intéressés par nos conseils, vous souhaitez nous envoyer votre candidature ou vous avez des commentaires ?

N'hésitez pas à nous contacter, nous vous répondrons rapidement.

Votre message a été envoyé. Nous vous répondrons dans les 24-48 heures.
Oops! Something went wrong while submitting the form.

FAQ

Est-ce qu'on peut conserver le lien entre donnée personnelle et avatar ?

Non, cela mettrait en échec l’anonymisation telle que défini par le RGPD. C’est un processus irréversible.

Quelle différence avec les concurrents ?

Nos métriques et notre rapport d'anonymisation qui vous permettent de prouver la conformité et l'utilité sont uniques. De plus, notre vitesse de calcul ainsi que la transparence et l'explicabilité de la méthode sont des points différenciants. Pour en savoir plus sur la méthode : https://www.nature.com/articles/s41746-023-00771-5

Est-ce qu'on peut anonymiser en flux ?

Nous avons déjà réalisé des projets d’anonymisation en flux avec succès. Le challenge consiste à anonymiser de petits volumes de données en gardant un maximum d’utilité. Pour relever ce challenge nous avons développé une approche par batch.

Quel besoin pour le déploiement chez nous en terme d’infrastructures ?

Le déploiement est complètement industrialisé grâce à Docker et Kubernetes. Nos équipes s’adaptent à toutes les architectures en quelques heures.

Pourquoi la méthode avatar est-elle conforme vis-a-vis de la CNIL ?

La CNIL a évaluée avec succès notre méthode d'anonymisation sur la base de nos métriques de sécurité et d’utilité respectant les 3 critères énoncés par le CEPD pour définir une anonymisation (avis du 05/2014).

Pourquoi ne pas anonymiser via des méthodes génératives ?

Le fait que les données synthétiques soient des données générées artificiellement pourrait indiquer que ces données sont anonymes par défaut. La possibilité de partager la méthode de génération plutôt que les données elles-mêmes semblent être une garantie supplémentaire de respect de la vie privée et un changement de paradigme dans l’utilisation des données. Cependant, les modèles génératifs peuvent également ne pas garantir la confidentialité des données d’apprentissage. En effet, les modèles génératifs peuvent mémoriser des détails spécifiques des données d’apprentissage, y compris la présence d’individus spécifiques ou d’informations personnelles, et incorporer ces informations dans les données synthétiques générées. Ce type d’atteinte à la vie privée est appelé Membership inference attack, lorsqu’un pirate tente de déterminer si les données d’une personne spécifique ont été utilisées pour former un modèle de Machine Learning. Cela peut entraîner de graves violations de la vie privée, en particulier avec des données sensibles.