ChatPaper.aiChatPaper

Les modèles d'apprentissage automatique de confiance permettent de déverrouiller l'inférence privée pour des problèmes actuellement irréalisables avec la cryptographie.

Trusted Machine Learning Models Unlock Private Inference for Problems Currently Infeasible with Cryptography

January 15, 2025
Auteurs: Ilia Shumailov, Daniel Ramage, Sarah Meiklejohn, Peter Kairouz, Florian Hartmann, Borja Balle, Eugene Bagdasarian
cs.AI

Résumé

Nous interagissons souvent avec des parties non dignes de confiance. La priorisation de la confidentialité peut limiter l'efficacité de ces interactions, car la réalisation de certains objectifs nécessite le partage de données privées. Traditionnellement, pour relever ce défi, on a soit cherché des intermédiaires de confiance, soit construit des protocoles cryptographiques qui restreignent la quantité de données divulguées, tels que les calculs multipartites ou les preuves de connaissance nulle. Bien que des progrès significatifs aient été réalisés dans le dimensionnement des approches cryptographiques, elles restent limitées en termes de taille et de complexité des applications pour lesquelles elles peuvent être utilisées. Dans cet article, nous soutenons que des modèles de machine learning performants peuvent remplir le rôle d'un tiers de confiance, permettant ainsi des calculs sécurisés pour des applications qui étaient auparavant irréalisables. En particulier, nous décrivons les Environnements de Modèles Capables de Confiance (EMCC) comme une approche alternative pour le dimensionnement des calculs sécurisés, où des modèles de machine learning performants interagissent sous contraintes d'entrée/sortie, avec un contrôle explicite du flux d'informations et une absence d'état explicite. Cette approche vise à trouver un équilibre entre la confidentialité et l'efficacité computationnelle, permettant des inférences privées là où les solutions cryptographiques classiques sont actuellement irréalisables. Nous décrivons plusieurs cas d'utilisation rendus possibles par les EMCC, et montrons que même certains problèmes cryptographiques classiques simples peuvent déjà être résolus avec les EMCC. Enfin, nous détaillons les limitations actuelles et discutons des étapes à suivre pour les mettre en œuvre.
English
We often interact with untrusted parties. Prioritization of privacy can limit the effectiveness of these interactions, as achieving certain goals necessitates sharing private data. Traditionally, addressing this challenge has involved either seeking trusted intermediaries or constructing cryptographic protocols that restrict how much data is revealed, such as multi-party computations or zero-knowledge proofs. While significant advances have been made in scaling cryptographic approaches, they remain limited in terms of the size and complexity of applications they can be used for. In this paper, we argue that capable machine learning models can fulfill the role of a trusted third party, thus enabling secure computations for applications that were previously infeasible. In particular, we describe Trusted Capable Model Environments (TCMEs) as an alternative approach for scaling secure computation, where capable machine learning model(s) interact under input/output constraints, with explicit information flow control and explicit statelessness. This approach aims to achieve a balance between privacy and computational efficiency, enabling private inference where classical cryptographic solutions are currently infeasible. We describe a number of use cases that are enabled by TCME, and show that even some simple classic cryptographic problems can already be solved with TCME. Finally, we outline current limitations and discuss the path forward in implementing them.

Summary

AI-Generated Summary

PDF62January 16, 2025