Investigación sobre el primer marco de aprendizaje federal nacional para toda la red

Prefacio

En los últimos años, se ha hecho hincapié en la seguridad de los datos privados. Las leyes y reglamentos pertinentes promulgados por varios países mantienen la seguridad y la privacidad de los datos personales. El fenómeno de las islas de datos entre empresas e incluso entre departamentos se ha formado hasta cierto punto. Reducir la eficiencia social. Bajo la influencia de los diversos factores anteriores, el aprendizaje federado surgió, especialmente a principios de 2020. Con la oportunidad de componentes de algoritmos de infraestructura de IA en varias industrias en China, el marco de aprendizaje federado también ha ingresado Fuera de nuestra vista.

A continuación, estudiaremos principalmente el marco de aprendizaje federal nacional desde varias direcciones y brindaremos opciones técnicas para aplicaciones posteriores.

WeBank DESTINO

FATE (Federated AI Technology Enabler) es un proyecto de código abierto iniciado por el departamento de inteligencia artificial de WeBank, que proporciona un marco informático confiable y seguro para el ecosistema de aprendizaje federado. El proyecto FATE utiliza tecnología Multi-Party Secure Computing (MPC) y Homomorphic Encryption (HE) para construir el protocolo de computación segura subyacente para admitir diferentes tipos de computación segura de aprendizaje automático, incluida la regresión logística, algoritmos basados ​​en árboles, aprendizaje profundo y aprendizaje de migración, etc. .

Dirección de fuente abierta: https://github.com/FederatedAI/

Soporte de algoritmos

FATE admite actualmente tres tipos de algoritmos de aprendizaje federado: aprendizaje federado horizontal, aprendizaje federado vertical y aprendizaje por transferencia.

El módulo Federatedml incluye implementaciones federadas de muchos algoritmos comunes de aprendizaje automático. Todos los módulos se desarrollan utilizando un enfoque modular desacoplado para mejorar la escalabilidad de los módulos. En concreto, aporta principalmente:

  • Estadísticas federales: incluido el cálculo de la intersección de la privacidad, el cálculo de la unión, el coeficiente de Pearson, etc.

  • Ingeniería de características federales: incluye muestreo federal, agrupación de características federales, selección de características federales, etc.

  • Algoritmos de aprendizaje automático federado: incluidos LR, GBDT, DNN, transferencia de aprendizaje, etc.

  • Evaluación del modelo: proporciona evaluación de regresión de dos clases, varias clases, una evaluación comparativa federada y unilateral.

  • Protocolo de seguridad: proporciona una variedad de protocolos de seguridad para una informática interactiva multipartita más segura.

Lista detallada de algoritmos: https://github.com/FederatedAI/DOC-CHN/tree/master/Federatedml

Arquitectura general del destino

Fate se divide principalmente en una plataforma de entrenamiento fuera de línea con FateFlow y FederatedML como el cuerpo principal, y una plataforma de predicción en línea con FateServing como el cuerpo principal.

img

Plataforma de formación offline

Arquitectura

La arquitectura general de la plataforma fuera de línea es la siguiente:

img

La arquitectura de la plataforma de formación fuera de línea se desprende de la figura anterior, que se divide principalmente en la capa de infraestructura, la capa de almacenamiento informático, la capa de componentes centrales, la capa de ejecución de tareas, la capa de programación de tareas, la capa de panel de visualización y la capa de interacción entre redes.

  1. En la capa de infraestructura, Fate admite principalmente la implementación en forma de Docker. Aunque también admite binarios, el uso de Docker puede reducir la diferencia en el entorno físico y facilitar la implementación. Además, Fate proporciona el modo KubeFATE compatible. Si se trata de un escenario de desarrollo o prueba, se recomienda Usa el método de implementación de docker-compose. Este modo solo requiere el entorno de Docker. Para entornos de producción o implementación a gran escala, se recomienda utilizar Kubernetes para administrar el sistema FATE.

  2. En la capa de almacenamiento informático, EggRoll y Spark se utilizan principalmente como motores informáticos distribuidos. Hasta donde yo sé, Spark debería ser una de las nuevas características de la v1.4. En comparación con EggRoll y Spark, Spark es relativamente maduro y tiene más datos. Spark La principal diferencia con EggRoll es que Spark usa HDFS para el almacenamiento. EggRoll une el almacenamiento y el cálculo, es decir, no transmite datos, pero transmite la lógica del cálculo al lugar donde se encuentran los datos para su ejecución. Dado que la lógica de cálculo es pequeña, no es necesario el movimiento de datos a gran escala.

  3. La capa de componentes centrales proporciona principalmente implementaciones relacionadas con permisos de datos, interacción de datos, correlación de algoritmos y entrenamiento, evaluación y lanzamiento de modelos.

  4. La capa de ejecución de tareas y la capa de programación de arriba son principalmente el módulo FateFlow para lograr esta parte de la función. La descripción general es la herramienta de gestión de ciclo de vida y programación de canalización de modelado de aprendizaje federado para construir un servicio de producción de canalización de aprendizaje federado de extremo a extremo para los usuarios. Realiza la gestión del estado del pipeline y la programación coordinada de operaciones, y al mismo tiempo rastrea automáticamente los datos, modelos, indicadores, logs, etc. generados en la tarea para su análisis por parte de los modeladores.

manual

img

Los desarrolladores crean una canalización para su propio entrenamiento de modelos escribiendo un DSL, envían trabajos a la cola de tareas y luego el programador de tareas extrae tareas de la cola y programa diferentes nodos informáticos para ejecutar la canalización.

Arquitectura de implementación

El siguiente es un diagrama de la arquitectura de implementación de múltiples nodos v1.4. Puede ver que los componentes de implementación para múltiples nodos (principalmente invitado y host) son principalmente:

Productos de software Componentes Descripción
destino destino_flujo Módulo de gestión de canalización de tareas de aprendizaje conjunto, cada parte solo puede tener un servicio
destino fateboard Módulo de visualización del proceso de aprendizaje conjunto, cada parte solo puede tener un servicio
eggroll Cluster Manager El administrador del clúster administra el clúster, cada parte solo puede tener un servicio
eggroll administrador de nodos El administrador de nodos administra los recursos de cada máquina. Cada parte puede tener múltiples servicios, pero solo se puede instalar un servidor.
eggroll Rollsite Componentes de comunicación entre sitios o entre partes, equivalentes a proxy + federación, cada parte solo puede tener un servicio
mysql mysql Dependencias de almacenamiento de datos, clustermanager y fateflow, cada parte solo necesita uno de este servicio

img

Plataforma de predicción online

Arquitectura

La plataforma de predicción en línea realiza principalmente la función de predicción en línea cargando el modelo de entrenamiento de la plataforma de entrenamiento fuera de línea.

La plataforma de predicción en línea se compone principalmente de los siguientes tres componentes:

  1. Servidor-servidor: el módulo central de la función de predicción, que proporciona componentes de algoritmo para realizar la función de predicción basada en el modelo.

  2. Serving-proxy: Proporcione la función de enrutamiento cuando la interacción de múltiples partes, la conversión de protocolo de su función, el invitado general y el host se comunican a través del Serving-proxy.

  3. Serving-admin: proporciona funciones de gestión de clústeres y realiza la gestión visual.

La estructura específica es la siguiente:

img

manual

img

  1. Despliegue del paquete: Descargue los módulos relevantes de Fate-Serving desde el almacén de Fate para compilar, empaquetar y ejecutar localmente. Actualmente, se desarrolla principalmente en base a Java y requiere un entorno Java.

  2. Enviar modelo: obtén el modelo de Fate-Flow y cárgalo en Fate-Serving.

  3. Inicialización del modelo: Fate-Serving carga el modelo localmente y lo inicializa en la memoria.

  4. Interfaz del modelo de registro: Serving-Server convierte la información del modelo en información de la interfaz y la registra en el registro, principalmente en base al protocolo GRPC.

  5. Proporcionar servicio: la persona que llama extrae la dirección de interfaz del modelo del registro e inicia la llamada.

Arquitectura de implementación

img

Análisis de eficiencia

Los siguientes materiales son de: https://blog.csdn.net/hellompc/article/details/105705745

Prueba de algoritmo LR

img

Cuando FATE entrena 10W * 800 muestras (después de la normalización), se encuentra que aunque el valor de pérdida fluctúa en un rango pequeño, el resultado final no ha alcanzado la convergencia.

Prueba de algoritmo de árbol

[Error en la transferencia de la imagen del enlace externo, el sitio de origen puede tener img antirrobo]! Mecanismo de cadena, compilación (https://img-WIQlog.csdnimg.cn/img_convert/213faedbc259861c614b34106a6265cc.png#pic_centerhtps://img-log.csdnimg.cn /img_convert/23d13faedbc259861c14b3646a6264cc.png)]

Interfaz relacionada

Descripción general de la tarea:

img

Detalles de la tarea:

img

Modelo de salida de paso de tarea / vista de datos:

img

Ver los resultados del entrenamiento del modelo:

img

Operación específica

Referencia: https://blog.csdn.net/qq_28540443/article/details/104562797

Fushu FMPC

Fortune Multi-Party Secure Computing Platform (FMPC) es un producto de Shanghai Fortune Technology, que actualmente no es de código abierto y se utiliza principalmente a través de la experiencia o la compra de servicios.

Dirección del sitio web oficial del producto: https://www.fudata.cn/

Fortune Technology es líder en informática segura. Basada en tecnologías líderes en computación segura e inteligencia artificial, la compañía ayuda a las fuentes de datos compatibles a construir un puente para el modelado de seguridad de big data e implementa escenarios comerciales como finanzas, asuntos gubernamentales, atención médica y marketing para liberar el valor comercial de big data; agregar fuentes de datos masivas y Escenarios de aplicación para formar una plataforma segura de circulación del valor de los datos. Cree un ecosistema de Internet de datos seguro mediante la conexión, la interacción y la creación de redes.

En comparación con el destino mencionado anteriormente, FMPC es un caballo oscuro. Aquí hay una breve descripción de sus cuatro módulos de productos principales:

1) FMPC de aprendizaje federado: los
datos originales no se envían y todas las partes participan en el modelado local; no hay circulación de datos confidenciales y se intercambian resultados de cálculos intermedios; los participantes solo tienen sus propios parámetros de modelo y
todo el modelo está protegido; implementación privatizada; desarrollo rápido de API abierta; soporte Algoritmos de aprendizaje automático convencionales; LR, DT, RF, Xgboost ...; la velocidad de modelado es 3 veces más rápida; error de precisión de entrenamiento de texto cifrado <1%

2) Computación segura de múltiples partes: el
volumen de computación de la aplicación de aterrizaje es de más de 11,000 veces / día; admite interacción de seguridad de datos de múltiples partes; admite polinomio de una sola vez; admite análisis estadístico de atribución de múltiples partes; admite análisis de perforación de datos multidimensionales de múltiples partes; implementación de privatización

3) Consulta oculta:

Admite más de 10 mil millones de registros; tiempo de respuesta de segundo nivel; consulta de certificado de depósito autorizado; la información de consulta de la Parte A no se filtra; túnel cifrado para evitar la retención intermedia; implementación privatizada.

4) Blockchain de la Alianza:

Nodos de alianza 30+; expansión de alto rendimiento de 10,000 TPS; llamadas de contrato 200,000 veces / día; certificados de depósito electrónicos y contratos inteligentes; protocolos de protección de la privacidad; escenarios de implementación rápida; comunidades de desarrollo de código abierto.

Dirección de visita: https://www.unitedata.link/

Después de verificar, la cadena abierta actualmente está en un estado defectuoso.

Se hace referencia principalmente a los siguientes materiales: https://blog.csdn.net/hellompc/article/details/104822723

Estructura general

La arquitectura técnica actualmente divulgada por FMPC es la siguiente:

img

Principio técnico:

Después de determinar el grupo de usuarios compartido, los datos se pueden usar para entrenar modelos de aprendizaje automático. Tomando el modelo de regresión lineal como ejemplo, el proceso de entrenamiento se puede dividir en los siguientes 5 pasos:

Paso ①: A y B se distribuyen sus respectivas claves públicas entre sí para cifrar los datos que deben intercambiarse durante el proceso de formación;

Paso ②: A y B realizan la capacitación local por separado para producir resultados intermedios sin información sensible.

Paso ③: A y B interactúan de forma cifrada para calcular el resultado intermedio del gradiente;

Paso ④: A y B se calculan en función del valor de gradiente cifrado, y B calcula la pérdida en función de los datos de su etiqueta y calcula el gradiente total;

Paso ⑤: A y B actualizan los parámetros de sus respectivos modelos de acuerdo con el gradiente recién calculado.

img

manual

Aunque actualmente es necesario solicitar una experiencia para ver el proceso de uso relevante, de acuerdo con la información relevante que se encuentra actualmente en línea, se divide principalmente en los siguientes pasos:

img

Arquitectura de implementación

No revelado

Soporte de algoritmos

No revelado

Análisis de eficiencia

Con el fin de simular escenarios comerciales reales, se prepararon las siguientes dos muestras para esta prueba:

Muestra A: 20.000 filas de datos, 1 campo de columna de índice, 26 campos característicos

Muestra B: 20.000 filas de datos, 1 columna de campos de columna de índice, 1 columna de diccionario de valores objetivo, 2 campos de características

Implementar dos conjuntos de productos FATE1.2 / FMPC en el mismo entorno al mismo tiempo y ejecutar solo uno de ellos de forma independiente para cada tarea en ejecución. Los indicadores obtenidos son los siguientes:

img

Análisis de resultados

De acuerdo con los dos procesos de uso de productos anteriores, se puede ver que ambos productos implementan y completan el proceso de ciclo cerrado de modelado de seguridad, pero aún existen ciertas diferencias en algunos aspectos.

1) Perspectiva del producto: FATE está más orientado hacia el personal técnico, los usuarios deben tener ciertas capacidades de desarrollo y habilidades de algoritmo; FMPC está más orientado hacia el personal comercial, de modo que se pueda operar en una interfaz clara.

2) Solidez funcional: FATE tiene funciones básicas de modelado, que incluyen carga de datos, entrenamiento de modelos, evaluación de modelos y predicción de modelos; FMPC agrega funciones de análisis de características y selección de características sobre esta base, que está más cerca de las necesidades de los escenarios comerciales reales.

3) Perspectiva de rendimiento: SecureBoost de FATE tiene una velocidad de entrenamiento más rápida y una precisión de modelo más alta que lr, y su tiempo de ejecución está dentro del rango aceptable en la industria; en comparación con FMPC, fue pionero en el uso del "método de iteración de relajación" para mantener la precisión Al mismo tiempo que la precisión, la velocidad se ha incrementado aproximadamente 3 veces, lo que tendrá ventajas obvias en múltiples iteraciones y ajustes del negocio real.

Interfaz relacionada

Carga de conjuntos de datos: hay cuatro formas de cargar archivos mediante FMPC, que son csv local, URL, base de datos de base de datos y método de interfaz. Tome el archivo csv como ejemplo. Haga clic en la ruta del archivo local para cargarlo en la página y complete la información y la configuración relacionadas con el archivo. Permisos:

img

Fusión virtual de datos (alineación de datos cifrados mediante un mecanismo de transmisión inadvertido):

img

Análisis de datos y selección de funciones:

img

Gestión de modelado:

img

Llamada a la interfaz de previsión:

img

Paleta BaiduFL

PaddleFL es un marco de aprendizaje federado de código abierto basado en PaddlePaddle. Los investigadores pueden usar PaddleFL fácilmente para replicar y comparar diferentes algoritmos de aprendizaje federados. Los desarrolladores también pueden beneficiarse de paddleFL, porque es fácil implementar sistemas de aprendizaje federados en clústeres distribuidos a gran escala con PaddleFL. PaddleFL proporciona muchas estrategias de aprendizaje federado y sus aplicaciones en visión por computadora, procesamiento de lenguaje natural, algoritmos de recomendación y otros campos. Además, PaddleFL también proporcionará aplicaciones para las estrategias tradicionales de capacitación de aprendizaje automático, como el aprendizaje multitarea y el aprendizaje por transferencia en un entorno de aprendizaje federado. Al confiar en la capacitación distribuida a gran escala de PaddlePaddle y las capacidades de programación flexible de Kubernetes para las tareas de capacitación, PaddleFL se puede implementar fácilmente en base a un software de código abierto de pila completa.

Dirección de fuente abierta: https://github.com/PaddlePaddle/PaddleFL

El autor también está muy familiarizado con PaddlePaddle, un marco de aprendizaje profundo, y ha utilizado uno o dos. No es inferior en términos de facilidad de uso y eficiencia del algoritmo, especialmente respaldado por la base de datos de información de Baidu, y la precisión del modelo preentrenado proporcionado por PaddlePaddle también es Es muy alto y se puede usar fuera de la caja.

Estructura general

img

El algoritmo PaddleFL admite:

A. Estrategia de aprendizaje federado

Aprendizaje longitudinal federado: regresión logística con privc, red neuronal con ABY3

Aprendizaje federado horizontal: promedio federado, privacidad diferencial, agregación segura

B. Estrategia de formación

Aprendizaje multitarea

Transferir aprendizaje

Aprendizaje activo

PaddleFL proporciona principalmente dos soluciones: Data Parallel y Federated Learning con MPC (PFM).

A través de Data Parallel, cada parte de datos puede completar el entrenamiento del modelo basado en estrategias clásicas de aprendizaje federado horizontal (como FedAvg, DPSGD, etc.).

Además, PFM es un esquema de aprendizaje federado basado en computación segura multipartita (MPC). Como parte importante de PaddleFL, PFM puede respaldar el aprendizaje federado, incluidos múltiples escenarios, como el aprendizaje por transferencia horizontal, vertical y federado. No solo proporciona una seguridad confiable, sino que también tiene un rendimiento considerable.

manual

Las tareas de entrenamiento y razonamiento en seguridad en Paddle FL MPC se implementan en base a protocolos de computación multipartitos eficientes, como ABY3

img

En ABY3, los participantes se pueden dividir en: entrada, cálculo y resultado. La parte de entrada es el titular de los datos y el modelo de entrenamiento, quien es responsable de cifrar los datos y el modelo y enviarlos a la parte informática. La parte informática es la ejecutora de la capacitación, y la tarea de capacitación se completa en base a un protocolo de computación seguro de múltiples partes específico. La parte informática solo puede obtener datos y modelos encriptados para garantizar la privacidad de los datos. Una vez completado el cálculo, se obtendrá el resultado y se restaurarán los datos de texto sin formato. Cada participante puede desempeñar múltiples funciones. Por ejemplo, un propietario de datos también puede participar en la capacitación como parte de la informática.

Todo el proceso de entrenamiento e inferencia de PFM se compone principalmente de tres partes: preparación de datos, entrenamiento / inferencia y análisis de resultados.

A. Preparación de datos

Alineación de datos privados: PFM permite al propietario de los datos (parte de los datos) encontrar el conjunto de muestra compartido por múltiples partes sin revelar sus propios datos. Esta función es muy necesaria en el aprendizaje federado vertical porque requiere que múltiples partes de datos alineen los datos antes del entrenamiento y protejan la privacidad de los datos de los usuarios.

Cifrado y distribución de datos: en PFM, la parte de los datos codifica los datos y el modelo compartiéndolos en secreto [10] y luego los transmite a la parte de la computación mediante transmisión directa o almacenamiento de base de datos. Cada parte informática solo obtendrá una parte de los datos, por lo que la parte informática no puede restaurar los datos reales.

B. Entrenamiento / Inferencia

PFM tiene el mismo modo de funcionamiento que PaddlePaddle. Antes de la formación, los usuarios deben definir el protocolo MPC, el modelo de formación y la estrategia de formación. Paddle_fl.mpc proporciona operadores que pueden manipular datos cifrados, y el ejecutor creará y ejecutará instancias de operadores en tiempo de ejecución.

C. Reconstrucción de resultados

Una vez finalizado el trabajo de inferencia y capacitación en seguridad, el equipo informático generará el modelo (o el resultado de la predicción) en forma cifrada. La parte del resultado puede recopilar el resultado cifrado, utilizar las herramientas de PFM para descifrarlo y entregar el resultado en texto sin formato al usuario.

Arquitectura de implementación

El despliegue de Paddle FL se basa en docker o k8s

La arquitectura de implementación general es la siguiente:

img

En PaddeFL, los componentes que se utilizan para definir las tareas de aprendizaje federado y la formación de aprendizaje federado son los siguientes:

A. Compilar tiempo

FL-Strategy: los usuarios pueden utilizar FL-Strategy para definir estrategias de aprendizaje federadas, como Fed-Avg.

Programa definido por el usuario: el programa de PaddlePaddle define la estructura del modelo de aprendizaje automático y la estrategia de formación, como el aprendizaje multitarea.

Configuración distribuida: en el aprendizaje federado, el sistema se implementará en un entorno distribuido. La configuración de entrenamiento distribuida define la información del nodo de entrenamiento distribuido.

FL-Job-Generator: Dada FL-Strategy, User-Defined Program y Distributed Training Config, FL Job Generator generará el FL Job en el lado del servidor y el lado del trabajador de los parámetros de federación. Los trabajos FL se envían al servidor de parámetros de la organización y la federación para una formación conjunta.

B. Tiempo de ejecución

FL-Server: un servidor de parámetros federado que se ejecuta en la nube o en un clúster de terceros.

FL-Worker: Cada organización que participe en el aprendizaje conjunto tendrá uno o más trabajadores comunicándose con el servidor de parámetros conjuntos.

FL-Scheduler: Juega el papel de trabajadores de programación durante el proceso de capacitación Antes de cada ciclo de actualización, decida qué trabajadores pueden participar en la capacitación.

Soporte de algoritmos

Aprendizaje longitudinal federado: regresión logística con privc, red neuronal con ABY3

Aprendizaje federado horizontal: promedio federado, privacidad diferencial, agregación segura

Análisis de eficiencia

conjunto de datos:

https://paddle-zwh.bj.bcebos.com/gru4rec_paddlefl_benchmark/gru4rec_benchmark.tar

Conjunto de datos métodos de entrenamiento Estrategia FL recordar @ 20
todo el conjunto de datos entrenamiento privado 0.504
todo el conjunto de datos aprendizaje federado FedAvg 0.504
1/4 del conjunto de datos completo entrenamiento privado 0,286
1/4 del conjunto de datos completo entrenamiento privado 0,277
1/4 del conjunto de datos completo entrenamiento privado 0,269
1/4 del conjunto de datos completo entrenamiento privado 0,282

Interfaz relacionada

No se proporciona interfaz

Federación de nueve números de Jingdong Learning 9NFL

Según las necesidades comerciales, la plataforma de aprendizaje federal de desarrollo propio de JD: 9NFL (9NFL) se lanzó oficialmente a principios de 2020. La plataforma de aprendizaje 9NFL (9NFL) se desarrolla sobre la base de la plataforma de aprendizaje automático 9N de la División de Promoción Comercial de Jingdong. Sobre la base de la capacitación fuera de línea de la plataforma 9N, estimación fuera de línea, inferencia en línea, lanzamiento de modelo y otras funciones, agrega tareas Programación de dominios, red de alto rendimiento entre dominios, comparación de muestras a gran escala, capacitación conjunta entre dominios a gran escala, cifrado jerárquico de modelos y otras funciones. Toda la plataforma puede admitir decenas de miles de millones / 100T de emparejamiento de muestras supergrandes y capacitación conjunta, y para el entorno complejo de redes públicas y de dominio cruzado, se han diseñado una serie de mecanismos y estrategias de disponibilidad y tolerancia a desastres para garantizar el sistema completo. Alto rendimiento, alta disponibilidad y alto rendimiento.

Dirección de fuente abierta: https://github.com/jd-9n/9nfl

Estructura general

Todo el sistema se divide en cuatro módulos principales:

  • Módulo de programación y reenvío general

     整体控制数据求交与训练的调度
     训练器的配对工作
     高效的流量转发
    
  • Módulo de gestión y programación de recursos

    使用k8s屏蔽底层资源差异
    使用k8s进行资源的动态调度
    
  • Módulo de intersección de datos

    大规模多模态跨域数据整合
    异步分布式框架提升拼接效率
    
  • Módulo de entrenador

    分布式框架训练支持,提升系统的吞吐性能
    异常恢复、failover机制
    高效的网络传输协议设计
    

img

manual

El proceso de uso principal de 9NFL es:

1. Preparación de datos

2. Intersección de datos

3. Formación de modelos

Arquitectura de implementación

En la actualidad, según el grado de código abierto, 9NFL no es completamente open source, según la documentación, también se basa en el despliegue del modo Docker.

Soporte de algoritmos

Basado principalmente en tensorflow.

Análisis de eficiencia

No

Interfaz relacionada

Sin interfaz

para resumir

Según la madurez del marco, Fate en el marco actual de código abierto es relativamente maduro, el algoritmo y la arquitectura se optimizan continuamente y la comunidad de código abierto es madura. En lo que respecta a la investigación actual, FMPC está por delante de Fate en términos de facilidad de operación comercial. Fate, PaddleFL y 9NFL actualmente no tienen interfaces operativas. Aunque Fate tiene una interfaz de monitoreo completa, FMPC es mejor para escenarios comerciales. Aterrizar todavía tiene una ligera ventaja. Ahora el aprendizaje federal está en constante desarrollo. Aunque no hay muchos casos que se hayan implementado, creo que en un futuro cercano, con los esfuerzos de aprendizaje conjuntos de todas las partes, podremos avanzar juntos, promover la verdadera implementación del aprendizaje federal, proteger la privacidad de los datos personales y resolver los datos. Problema de la isla.

Referencia

https://github.com/FederatedAI/

https://blog.csdn.net/hellompc/article/details/105705745

https://blog.csdn.net/qq_28540443/article/details/104562797

https://www.fudata.cn/

https://blog.csdn.net/hellompc/article/details/104822723

https://github.com/PaddlePaddle/PaddleFL

https://github.com/jd-9n/9nfl

Supongo que te gusta

Origin blog.csdn.net/qq_28540443/article/details/108718721
Recomendado
Clasificación