Modelos de Aprendizaje Automático Confiables Desbloquean Inferencia Privada para Problemas Actualmente Imposibles con Criptografía
Trusted Machine Learning Models Unlock Private Inference for Problems Currently Infeasible with Cryptography
January 15, 2025
Autores: Ilia Shumailov, Daniel Ramage, Sarah Meiklejohn, Peter Kairouz, Florian Hartmann, Borja Balle, Eugene Bagdasarian
cs.AI
Resumen
Frecuentemente interactuamos con partes no confiables. La priorización de la privacidad puede limitar la efectividad de estas interacciones, ya que lograr ciertos objetivos implica compartir datos privados. Tradicionalmente, abordar este desafío ha implicado buscar intermediarios de confianza o construir protocolos criptográficos que restringen la cantidad de datos revelados, como cálculos multipartes o pruebas de conocimiento cero. A pesar de los avances significativos en la escalabilidad de enfoques criptográficos, siguen siendo limitados en cuanto al tamaño y complejidad de las aplicaciones para las que se pueden utilizar. En este documento, argumentamos que modelos de aprendizaje automático capaces pueden desempeñar el papel de un tercero de confianza, lo que permite cálculos seguros para aplicaciones que anteriormente eran inviables. En particular, describimos Entornos de Modelos Capaces de Confianza (EMCC) como un enfoque alternativo para escalar la computación segura, donde modelo(s) de aprendizaje automático capaces interactúan bajo restricciones de entrada/salida, con control explícito de flujo de información y estado de no permanencia explícito. Este enfoque tiene como objetivo lograr un equilibrio entre la privacidad y la eficiencia computacional, permitiendo inferencias privadas donde las soluciones criptográficas clásicas son actualmente inviables. Describimos varios casos de uso habilitados por EMCC y demostramos que incluso algunos problemas criptográficos clásicos simples ya pueden resolverse con EMCC. Por último, delineamos las limitaciones actuales y discutimos el camino a seguir para implementarlas.
English
We often interact with untrusted parties. Prioritization of privacy can limit
the effectiveness of these interactions, as achieving certain goals
necessitates sharing private data. Traditionally, addressing this challenge has
involved either seeking trusted intermediaries or constructing cryptographic
protocols that restrict how much data is revealed, such as multi-party
computations or zero-knowledge proofs. While significant advances have been
made in scaling cryptographic approaches, they remain limited in terms of the
size and complexity of applications they can be used for. In this paper, we
argue that capable machine learning models can fulfill the role of a trusted
third party, thus enabling secure computations for applications that were
previously infeasible. In particular, we describe Trusted Capable Model
Environments (TCMEs) as an alternative approach for scaling secure computation,
where capable machine learning model(s) interact under input/output
constraints, with explicit information flow control and explicit statelessness.
This approach aims to achieve a balance between privacy and computational
efficiency, enabling private inference where classical cryptographic solutions
are currently infeasible. We describe a number of use cases that are enabled by
TCME, and show that even some simple classic cryptographic problems can already
be solved with TCME. Finally, we outline current limitations and discuss the
path forward in implementing them.Summary
AI-Generated Summary