Hacia el aprendizaje federado consciente de la reputación basado en blockchain


Dirección en papel: https://www.researchgate.net/profile/Muhammad-Habib-Ur-Rehman/publication/339297228_Towards_Blockchain-Based_Reputation-Aware_Federated_Learning/links/5e83b797299bf130796db972/Towards-Blockchain-Based-Reputation -Aware-Federated-Le arning.pdf


APRENDIZAJE FEDERADO DE GRANO FINO

A. Declaración del problema

​Existen algunas limitaciones en los esquemas clásicos de aprendizaje federado: (1) Heterogeneidad de dispositivos y servidores. (2) Alta dimensionalidad de datos y actualizaciones de modelos. (3) Hay desviaciones en los datos, algoritmos, fuentes de datos, preprocesamiento de datos y entrenamiento de modelos. (4) Centralización de la formación de modelos. (5) Punto único de falla y omisión. Además, los esquemas tradicionales de aprendizaje federado introducen actualizaciones de modelos globales centralizados, lo que es beneficioso para el desarrollo de aplicaciones de granularidad gruesa. Por ejemplo, se puede realizar la detección de actividades generales de usuarios de teléfonos móviles. Sin embargo, de hecho, cada usuario tiene diferentes patrones de comportamiento, como la longitud de la zancada, la velocidad al caminar, la postura sentada, el modelo de carrera, etc., por lo que se requiere una personalización personalizada. Como se muestra en la Fig. 1 , FL de grano fino logra una mayor flexibilidad y disponibilidad de conocimiento.

B. Definición

El artículo redefine FL clásico como FL detallado, que realiza un proceso de aprendizaje colaborativo que preserva la privacidad en las tres capas (es decir, borde, niebla y nube) de una red MEC (Mobile Edge Computing). Incluye principalmente tres entidades: (1) propietarios de datos (dispositivos de borde), (2) árbitros de datos (nodos de niebla), (3) propietarios de modelos (servidores en la nube). La figura 2 ilustra el proceso de ejecución de FL detallado en la red MEC. Dado un NN que contieneUna colección de N dispositivosD = { 1 , . . . , N } D=\{1,...,N\}D={ 1 ,... ,N } , uno que contienennUn conjunto de n nodos de nieblaF = { 1 , . . . , n } F=\{1,...,n\}F={ 1 ,... ,n } y un conjunto de modelosL = { 1 , . . . , n } L=\{1,...,n\}L={ 1 ,... ,n } , cualquier dispositivoD i D_iDyoDebe ser lo mismo que F i F_iFyoestán asociados y pueden ejecutar L i L_iLyo

Paso_1 (Modelo Bootstrapping): D i D_iDyoDescarga periódica de global L i L_iLyoactualice y suponga que D i D_iDyoDisponer de los recursos suficientes para llevar a cabo las tareas de aprendizaje.
Paso_2 (Inicialización de tareas globales): el servidor de la nube envía periódicamente el modelo actualizado al nodo de niebla F i F_iFyo. Además, el servidor en la nube delega la tarea de aprendizaje (p. ej., hiperparámetros, tasa de aprendizaje, precisión deseada, SGD optimizado/semioptimizado) a todos los F i F_i conectadosFyo
Paso_3 (Inicialización de tareas locales): F i F_iFyoEnvíe regularmente el modelo actualizado al D i D_i conectadoDyo. Además, F i F_iFyoVincular las tareas de aprendizaje a sus modelos locales L i L_iLyofósforo. En el caso de actualización, L i L_iLyoEjecute Step_5 , de lo contrario, selecciona el candidato D i D_iDyoy delegar la tarea de aprendizaje a todos los D i D_i conectadosDyo.
Paso_4 (Agregación de modelo local): El servidor en la nube solicita múltiples F i F_iFyopara actualizar L i L_iLyoparámetros, por lo tanto, el retraso de la red MEC y el arranque tardío harán que la actualización del modelo en el proceso de FL detallado no esté sincronizada. Por lo tanto, después de implementar su modelo local L i L_iLyoantes, D i D_iDyoNecesita hacer coincidir los parámetros del modelo de los tres modelos (**modelo propio, modelo de nodo de niebla, modelo de servidor???)**. En el caso de actualización del modelo, D i D_iDyoRecopile datos de sensores y aplicaciones y pase L i L_iLyoEjecutar una tarea de aprendizaje dada D i D_iDyoactualizar su local L i L_iLyomodelo, aplicar técnicas de preservación de la privacidad a las actualizaciones del modelo y enviarlas a sus F i F_i conectadosFyoHacer agregación local. F yo F_iFyoEjecuta el algoritmo de agregación del modelo local y actualiza su modelo local L i L_i en consecuenciaLyoDespués de agregar la información privada, los parámetros del modelo actualizado se envían al servidor de la nube.
Paso_5 (Agregación de modelo global): el servidor en la nube ejecuta el esquema de agregación de modelo global y actualiza el L i L_i globalLyo. sera L i L_iLyoLa actualización de se propaga a todos los F i F_i conectados en la red MEC subyacenteFyo
Paso_6 (Solicitudes de actualización de modelo global): D i D_iDyoGenere periódicamente actualizaciones de los modelos globales para actualizar sus L i L_i localesLyo.
Paso_7 (Actualizaciones del modelo global): el servidor en la nube envía periódicamente los parámetros del modelo actualizado a todos los D i D_i en la red MEC subyacenteDyoSuma F i F_iFyo
inserte la descripción de la imagen aquí

C. Requisitos

Con base en los objetivos y problemas de FL de grano fino en sistemas MEC y las deficiencias del trabajo de investigación relacionado, en esta subsección se definen algunos requisitos básicos, como se muestra en la Fig. 3 .
inserte la descripción de la imagen aquí

Personalización: los propietarios de datos comparten L i L_i localLyoActualizado para mejorar los modelos de aprendizaje colaborativo en nodos de niebla y servidores en la nube. Sin embargo, el local L i L_iLyoSe requiere que sea personalizado y resistente a los ataques de envenenamiento de datos y modelos.
Descentralización: entre datos, dueños de datos, F i F_iFyoY la centralización de los servidores en la nube conduce al modelo FL de datos y sesgo que no son de IID. Por lo tanto, se requiere descentralización entre todos los participantes involucrados en el proceso de FL de grano fino.
FL de grano fino: el modelo FL clásico proporciona predicciones de grano grueso, a través de las cuales se pueden hacer predicciones en todos los D i D_iDyoActualización global centralizada L i L_iLyo. Sin embargo, en esencia, los conjuntos de datos se pueden particionar verticalmente para obtener mejores conocimientos. MEC admite la gestión de datos de varios niveles, por lo que puede facilitar D i D_iDyoF y F_iFyoy partición de datos vertical a nivel de nube. Los conjuntos de datos particionados en varios niveles producen un entrenamiento FL más detallado.
Incentivación: Se necesitan nuevos incentivos para contratar a D i D_i con fuentes de datos de alta calidadDyo.
Confianza: Múltiples propietarios de datos, árbitros de datos y propietarios de modelos deben proporcionar un entorno seguro, confiable y que preserve la privacidad.
Monitoreo activo: debido a la energía limitada de la batería y las restricciones de movilidad, D i D_iDyoLa participación en el entorno del MEC es volátil. Por lo tanto, se necesitan sistemas FL de granularidad fina para monitorear continuamente a los participantes eliminados para garantizar una recopilación de datos de alta calidad.
Heterogeneidad y conciencia del contexto: FL de grano fino necesita lidiar con MEC debido a D i D_iDyoF y F_iFyo, tipo de datos, fuente de datos y L i L_iLyoy posible heterogeneidad. Además, D i D_iDyoSuma F i F_iFyoDebe ser capaz de razonar sobre diferentes situaciones y establecer el contexto correcto en el que ejecutar L i L_iLyo.
Comunicación y eficiencia de ancho de banda: D i D_i adyacenteDyoBajo el mismo entorno, con las mismas tareas de aprendizaje, se producen las mismas actualizaciones del modelo. Por lo tanto, se requieren técnicas sofisticadas de reducción de datos, compresión de modelos y agregación de modelos adaptativos. Además, F i F_iFyoSe debe garantizar una latencia mínima para mejorar la eficiencia de la comunicación.
Sincronización de modelo de grano fino: D i D_iDyoSuma F i F_iFyoLas variaciones en los recursos en FL conducen a la pérdida de participantes y variaciones en el tiempo de ejecución, lo que da como resultado diferentes entornos de FL detallados. Por lo tanto, un sistema FL detallado debe minimizar el retraso en todas las rutas de comunicación para garantizar la máxima sincronización de las tres capas en el sistema MEC.


REPUTACIÓN CON CONSCIENCIA DE FL BASADA EN BLOCKCHAIN

malicioso, incorrecto D i D_iDyoLa existencia de puede convertirse en el principal cuello de botella para cumplir con el requisito de FL de grano fino, sin embargo, con respecto a D i D_iDyoLa información de reputación a priori puede superar este cuello de botella. El sistema de reputación de FL detallado basado en blockchain se muestra en la Fig.4 .

inserte la descripción de la imagen aquí

El acceso a la información de reputación se proporciona a todos los participantes del sistema FL a través de DApps front-end que utilizan la tecnología de contrato inteligente y cadena de bloques pública de Ethereum para calcular y determinar agregados confiables de puntajes de reputación. HiceDyoPuede solicitar, acceder y comparar desde el servidor en la nube y F i F_iFyoLos parámetros del modelo fuera de la cadena se evalúan, se evalúa su rendimiento y se codifican y almacenan en un almacenamiento descentralizado (como IPFS) en la red MEC. Informan el hash de la puntuación de reputación a un contrato inteligente en cadena. El contrato inteligente agrega y calcula cada F i F_iFyoy la reputación del servidor en la nube. Del mismo modo, F i F_iFyoConnected D se puede emparejar en función de la riqueza de datos, la conciencia del contexto, la capacidad de proporcionar actualizaciones de modelos no redundantes representativas en un entorno heterogéneo, la proporción de participantes eliminados, la calidad de las actualizaciones de modelos, los cambios estadísticos en las actualizaciones de modelos, etc. i D_iDyoClasificación de Rendimiento. De manera similar, el servidor en la nube puede evaluar D i D_i de acuerdo con el entusiasmo de participar en el proceso de desarrollo del modelo colaborativo, la voluntad de compartir actualizaciones del modelo, la frecuencia de las actualizaciones del modelo y otros parámetros de rendimiento.DyoSuma F i F_iFyoHaz una calificación.

Supongo que te gusta

Origin blog.csdn.net/WuwuwuH_/article/details/131081851
Recomendado
Clasificación