Présenté par Capital One Logiciel
La tokenisation apparaît comme la pierre angulaire de la protection moderne des données, aidant les entreprises à séparer la valeur de leurs données de leurs risques. La conversation a lieu pendant ce VBRavi Raghu, président de Capital One Software, explique comment la tokenisation peut contribuer à réduire la valeur des données violées et à préserver le format et la convivialité des données sous-jacentes, y compris la propre expérience de Capital One en matière d’utilisation de la tokenisation à grande échelle.
La tokenisation, affirme Raghu, est une technologie supérieure. Il convertit les données sensibles en un remplacement numérique insensible, appelé jeton, qui est renvoyé à l’expéditeur et sécurisé dans un coffre-fort numérique. Les espaces réservés aux jetons préservent à la fois le format et l’utilité des données sensibles et peuvent être utilisés dans des applications, y compris des modèles d’IA. Parce que la tokenisation supprime le besoin de gérer les clés de chiffrement ou de consacrer des calculs au chiffrement et au déchiffrement constants, elle offre aux entreprises l’un des moyens les plus évolutifs de protéger leurs données les plus sensibles, a-t-il ajouté.
“Le problème, du point de vue de la sécurité, par rapport à d’autres approches, c’est que si un mauvais acteur s’empare des données, il s’empare du jeton”, a-t-il expliqué. “Les données réelles ne sont pas stockées avec le jeton, contrairement à d’autres méthodes comme le cryptage, où les données réelles restent là, attendant simplement que quelqu’un récupère une clé ou utilise la force brute pour accéder aux données réelles. C’est le moyen idéal pour protéger les données sensibles sous tous les angles.”
La tokenisation fait la différence
La plupart des organisations ne font qu’effleurer la protection des données, en ajoutant une protection à la toute fin, lorsque les données sont lues, pour empêcher tout utilisateur final d’y accéder. Au minimum, les organisations doivent se concentrer sur la protection des données lors des écritures, au fur et à mesure de leur stockage. Mais les meilleures entreprises vont plus loin, en protégeant les données dès leur naissance, dès leur création.
À une extrémité du spectre de sécurité se trouve un simple système de verrouillage et de clé qui restreint l’accès mais laisse intactes les données sous-jacentes. Des méthodes plus avancées, telles que le masquage ou la modification des données, modifient définitivement leur signification, ce qui peut compromettre leur utilité. Le chiffrement au niveau du fichier offre une meilleure protection pour de plus grandes quantités de données stockées, mais lorsque l’on en arrive au chiffrement au niveau du champ (par exemple, un numéro de sécurité sociale), cela devient un défi plus important. Chiffrer un seul champ puis le déchiffrer au moment de son utilisation nécessite beaucoup de calculs. Et pourtant, il présente un défaut fatal : les données d’origine sont toujours là, juste la clé nécessaire pour y accéder.
La tokenisation évite ces problèmes en remplaçant les données d’origine par un substitut qui n’a aucune valeur inhérente. Si le token est intercepté – par la mauvaise personne ou la mauvaise machine – les données elles-mêmes sont protégées.
Valeur commerciale de la tokenisation
“Essentiellement, vous protégez les données, et cela n’a pas de prix”, a déclaré Raghu. “Une autre chose qui est inestimable : pouvez-vous l’utiliser plus tard à des fins de modélisation ? D’une part, c’est une question de sécurité, et d’autre part, c’est une question d’habilitation commerciale.”
Étant donné que la tokenisation préserve la structure et la normalité des données d’origine, elle peut toujours être utilisée pour la modélisation et l’analyse, transformant ainsi la sécurité en un outil commercial. Prenons par exemple les données personnelles de santé réglementées par la HIPAA : la tokenisation signifie que les données peuvent être utilisées pour créer des modèles de tarification ou pour la recherche en thérapie génique, lorsqu’elles sont conformes.
« Si vos données sont déjà sécurisées, vous pouvez étendre leur utilisation à l’ensemble de l’entreprise et amener chacun à créer davantage de valeur à partir des données », a déclaré Raghu. “À l’inverse, si vous ne l’avez pas, de plus en plus d’entreprises disposent aujourd’hui d’intelligence afin que davantage de personnes puissent y accéder ou que davantage d’agents d’IA puissent accéder à leurs données. Ironiquement, elles limitent le rayon d’explosion de l’innovation. L’impact de la tokenisation est énorme, et vous pouvez utiliser de nombreux indicateurs pour le mesurer – sur le plan opérationnel, à partir de l’impact mental et de l’impact sur la sécurité, et de la tranquillité d’esprit grâce à l’impact sur les revenus.”
Faire tomber les barrières à l’adoption
Jusqu’à présent, le défi fondamental de la tokenisation traditionnelle était la performance. L’IA nécessite une échelle et une vitesse sans précédent. C’est l’un des principaux défis que Capital One relève avec Databolt, sa solution de tokenisation sans coffre-fort, capable de générer 4 millions de jetons par seconde.
“Capital One pratique la tokenisation depuis plus d’une décennie. Nous avons commencé à le faire parce que nous servons nos 100 millions de clients bancaires. Nous voulons protéger ces données sensibles”, a déclaré Raghu. “Nous avons mangé notre propre nourriture pour chiens avec nos capacités de tokenisation internes, 100 milliards de fois par mois. Nous avons pris ce savoir-faire, cette puissance, cette échelle et cette vitesse et avons innové pour que le monde puisse en profiter, afin qu’il s’agisse d’une offre commerciale.”
La tokenisation sans coffre-fort est une forme avancée de tokenisation qui ne nécessite pas de base de données centrale (coffre-fort) pour stocker les mappages de jetons. Au lieu de cela, il utilise des algorithmes mathématiques, des techniques cryptographiques et des mappages déterministes pour générer dynamiquement des jetons. Cette approche est plus rapide, plus évolutive et élimine les risques de sécurité associés à la gestion d’un coffre-fort.
“Nous avons réalisé que l’échelle et la vitesse dont nous avions besoin, nous devions construire cette capacité nous-mêmes”, a déclaré Raghu. « Nous effectuons constamment des itérations pour nous assurer que cela peut s’étendre à des centaines de milliards d’opérations par mois. Toute notre innovation tourne autour de notre capacité à développer la propriété intellectuelle et à servir nos clients, à une échelle éprouvée au sein de notre entreprise.
Alors que les méthodes traditionnelles de tokenisation peuvent impliquer une certaine complexité et ralentir les opérations, Databolt s’intègre de manière transparente aux entrepôts de données cryptés, permettant aux entreprises de maintenir une sécurité renforcée sans ralentir les performances ou les opérations. La tokenisation s’effectue dans l’environnement du client, éliminant ainsi le besoin de communiquer avec un réseau externe pour effectuer des opérations de tokenisation, ce qui peut également ralentir les performances.
“Nous pensons que fondamentalement, la tokenisation devrait être facile à adopter”, a déclaré Raghu. “Vous serez en mesure de sécuriser vos données très rapidement et d’opérer à la vitesse, à l’échelle et au coût dont les organisations ont besoin. Je pense que cela a constitué jusqu’à présent un obstacle important à l’adoption généralisée de la tokenisation. Dans un monde d’IA, cela va être un énorme catalyseur.”
ne manque pas Voici la conversation complète avec le président de Capital One Software, Ravi Raghu.
Les articles sponsorisés sont du contenu produit par une organisation qui paie pour publier ou qui entretient une relation commerciale avec VentureBeat et qui est toujours clairement identifié. Pour plus d’informations, contactez sales@venturebeat.com.






