Seguridad de la Información - Seguridad de los Datos - Innovación en la Seguridad de los Datos en el Nuevo Formato Digital - Tokenización

0 Prefacio

Con la innovación tecnológica liderando la ola de digitalización que se extiende por todo el mundo, los datos se han convertido en el factor central de producción para el desarrollo empresarial. Empresas de alta tecnología como Google y Facebook han logrado un gran éxito comercial al proporcionar software y servicios excelentes y gratuitos, acceder a una gran cantidad de usuarios e impulsar recursos de datos. Sin embargo, al mismo tiempo de rápido desarrollo, las empresas han descuidado la gestión de datos, lo que ha provocado una gran cantidad de fugas de datos, abuso de algoritmos y problemas relacionados con la privacidad. Esta crisis ha llegado a su clímax junto con eventos históricos como el escándalo "Cambridge Analytica" de Facebook y las elecciones estadounidenses de 2020. Basado en las preocupaciones sobre la seguridad y la privacidad de los datos, el RGPD de la Unión Europea lideró la introducción del cumplimiento moderno de la privacidad y luego se extendió por todo el mundo, convirtiéndose en otra tendencia irreversible.

Hay dos caminos por delante para las empresas, uno es garantizar la supervivencia y el desarrollo a través de la innovación en tecnología de datos, y el otro es garantizar la seguridad de los datos de los usuarios. En la elección y el equilibrio de estos dos caminos, algunas empresas han caído, mientras que otras han sobrevivido y estallado con nueva vitalidad.

Se puede ver que solo cambiando nuestro pensamiento y siendo valientes en la innovación podemos convertir las crisis en oportunidades y lograr un desarrollo a largo plazo. Necesitamos reconocer la tendencia de cambio: la transición de un crecimiento de carbono extensivo, ineficiente e intensivo en inundaciones en la primera mitad de la era digital a una neutralidad de carbono de datos de alta calidad y alta eficiencia basada en capacidades eficientes de gestión y gobernanza de datos. Para sobrevivir y sobresalir en esta transformación, la innovación tecnológica es un punto de partida importante, y el punto clave es comprender dos ideas centrales:

  1. Es necesario reconocer las características de productividad de las poderosas aplicaciones de datos, llevar a cabo activamente la transformación tecnológica, hacer un uso completo de las técnicas avanzadas de gestión de datos y mejorar la eficiencia del uso de datos y el nivel de gobierno.
  2. Estudio en profundidad y comprensión del propósito y la esencia del cumplimiento de la privacidad, siga la idea central de "disponible, invisible" y logre la unidad de eficiencia y gobernanza.

1. El desafío de la tecnología de datos para la seguridad

En el entorno de las aplicaciones digitales, los datos tienen las siguientes características:

  1. Movilidad y apertura de datos : según la teoría de la economía digital, si los datos deben crear valor comercial, deben ser de bajo costo, suministro a gran escala y flujo eficiente. Si la seguridad de la red tradicional se minimiza, se aprueba capa por capa y se fortalece capa por capa, la vitalidad de la producción de datos se verá gravemente limitada. Además, el costo de cumplir con las líneas base de protección avanzada en cada nodo a través del cual fluyen los datos está fuera del alcance de las organizaciones.
  2. Reproducibilidad de datos y pérdida de control : Los datos son un activo líquido, una vez accedidos, se transferirá su control y el proveedor perderá el control sobre ellos. Los límites de confianza tradicionales se están volviendo cada vez más borrosos en las aplicaciones de datos, lo que hace que la implementación de políticas de seguridad centralizadas bajo la nueva arquitectura de datos sea costosa y tenga poco efecto.
  3. Formas de datos cambiantes y aplicaciones complejas : los datos se transmitirán, almacenarán y procesarán en casi todos los sistemas de TI, y su complejidad está más allá de la imaginación. Junto con la IA, el aprendizaje automático y varias aplicaciones de datos innovadoras, la lógica del uso de datos es más difícil de entender y es casi imposible comprender la imagen completa de los datos.
  4. Las amenazas de datos son complejas y están en constante cambio : el enorme valor comercial de los datos atrae cadenas industriales negras y grises, personal interno y externo e incluso espías comerciales e internacionales. Las técnicas de ataque y las motivaciones emergen en un flujo interminable, lo que hace que sea imposible defenderse.

Figura 1 El sistema convencional es la exposición de datos en el modo de protección central

En el modo tradicional, los datos circulan en el sistema en texto claro y la exposición de datos es enorme. Los atacantes obtienen una gran cantidad de datos a través de varios canales, como aplicaciones, almacenamiento, entradas al sistema host y cuentas autorizadas para los sistemas atacantes.

Figura 2 Exposición de datos horizontal en modo convencional

En escenarios digitales, los datos se transferirán entre decenas de miles de aplicaciones y tareas. Cada aplicación tiene su propia lógica, y el costo de hacer que todas las aplicaciones sean compatibles es enorme. Para proteger la seguridad de los datos en un entorno tan amplio y complejo, si se adopta el modelo tradicional de defensa centrado en el sistema, el frente de defensa será demasiado largo y el patrón de ataque fuerte y defensa débil pondrá la gobernanza de la seguridad de datos a largo plazo. desventaja. Es necesario cambiar la forma de pensar y crear un mecanismo de seguridad endógeno de datos. En el entorno de rápida expansión de los servicios de datos, las capacidades de protección de seguridad también aumentarán. Este es un mecanismo de innovación de defensa de seguridad centrado en datos.

2. Tokenización - sistema bancario mundial digital

El esquema de tokenización se refiere al sistema bancario en el mundo real. Antes del surgimiento del sistema bancario, las actividades económicas en el mercado eran principalmente transacciones en efectivo. La exposición excesiva de dinero en efectivo ha resultado en una gran cantidad de casos de hurto y robo. Aunque el negocio de los guardaespaldas es popular, solo unas pocas personas ricas pueden permitirse contratarlo, por lo que se pierde una gran cantidad de activos sociales. El sistema bancario surgió como lo exigen los tiempos: después de que los usuarios obtienen efectivo, inmediatamente van al banco a cambiar efectivo por depósitos (sustitutos equivalentes), y luego este sustituto, el efectivo electrónico, circula en toda la sociedad, y solo puede intercambiarse en muy escenarios raros en efectivo. Con la penetración del sistema bancario y la popularidad de varias aplicaciones de pago en línea, estos escenarios de uso de efectivo son cada vez menos. Si quiere robar dinero, solo puede ir al banco, y el banco está fuertemente vigilado.

De manera similar, los datos, como un activo central, se pueden usar para reemplazar los datos de texto sin formato (P) con un token de seudónimo correspondiente uno a uno cuando los datos confidenciales personales (PII) ingresan por primera vez al sistema comercial de la organización. En el entorno de aplicación posterior de toda la organización, Token circula de manera eficiente. Debido a que existe una correspondencia uno a uno entre el token y el texto sin formato, puede reemplazar el texto sin formato para la transmisión, el intercambio, el almacenamiento y el uso en la mayoría de los escenarios del ciclo de vida, y el token solo se puede convertir en texto sin formato a través de servicios de tokenización seguros y confiables. Los piratas informáticos y los actores maliciosos internos o externos son inútiles (invisibles) incluso si lo consiguen. Debido a los propios atributos de seguridad de Token, siempre que las fuentes de datos principales y los centros de datos estén controlados dentro de la organización, solo se utiliza Token para la circulación. Los nuevos datos de texto sin formato deben reemplazarse activamente con Token para lograr la seguridad de los datos de forma predeterminada, lo que resuelve fundamentalmente el problema de gobernanza de los datos confidenciales personales.

Figura 3 Exposición de datos tokenizados

Como se muestra en la Figura 3 anterior, al promover la tokenización, podemos comprimir los servicios que realmente pueden acceder a texto sin formato a 2 dígitos y reducir la exposición de los servicios de datos a menos del 1 %.

Figura 4 Exposición longitudinal de los datos después de la tokenización

Como se muestra en la Figura 4 anterior, después de la transformación del token, los datos confidenciales tienen 0 almacenamiento, 0 caché, 0 interfaz y 0 almacenamiento de datos; solo una pequeña cantidad de memoria de host y UI con autoridad de descifrado pueden obtener acceso a datos de texto sin formato. La interfaz de usuario implementa el control de riesgos a través de un control de acceso detallado posterior y medidas de control de riesgos de auditoría. Para una pequeña cantidad de datos de memoria, debido a la cantidad limitada, se pueden utilizar medidas específicas de refuerzo y control de riesgos para fortalecerla. Si se realiza una tokenización integral, la capacidad general de control de riesgos de los datos confidenciales también se puede mejorar en gran medida.

3. Introducción de la solución de tokenización

3.1 ¿Qué es la tokenización?

La tokenización es una solución para reemplazar datos confidenciales personales con Token, que es un sustituto equivalente a datos insensibles, y circularlos en los sistemas comerciales para reducir los riesgos de datos y cumplir con el cumplimiento de la privacidad. La tokenización es un tipo de tecnología de desidentificación. Apareció por primera vez en el escenario de la industria de tarjetas de pago (PCI) para reemplazar las tarjetas bancarias (PAN), y existe una tendencia a reemplazar la información confidencial personal (PII) en los escenarios digitales generales.

  1. Información personal de identificación única (PII) : cualquier información de identificación única que pueda vincularse directa o indirectamente a una persona física específica, como tarjeta de identificación, número de teléfono móvil, tarjeta bancaria, correo electrónico, cuenta de WeChat o dirección. Basándose únicamente en la información PII, combinada con otra información pública, se pueden encontrar personas físicas. Una vez que se filtra la información PII, puede causar daños a la vida y la propiedad de las personas, como el fraude de identidad y el fraude. Por lo tanto, diversas leyes y reglamentos nacionales y extranjeros exigen claramente que las empresas protejan todo el ciclo de vida de la PII.
  2. Desidentificación (De-identification) : A través de ciertos medios técnicos, se reemplazan o transforman datos sensibles, y se elimina temporal o definitivamente la asociación entre datos personales sensibles y personas físicas. Los medios específicos incluyen seudonimización, anonimización, encriptación de datos, etc.
  3. Seudonimización : Al reemplazar datos sensibles con identificaciones artificiales o seudónimos, nadie puede usar seudónimos para establecer una relación con la persona física original sin autorización. La tokenización es un mecanismo de implementación de seudonimización.En un sentido amplio, los dos conceptos pueden intercambiarse. La seudonimización es un esquema de desidentificación reconocido que incluye el RGPD. Tenga en cuenta que existe una correspondencia uno a uno entre la seudonimización y la PII, y los datos originales se pueden restaurar en escenarios específicos.
  4. Anonimización : Cubrir o reemplazar parte o la totalidad de los datos sensibles para que pierdan completamente su conexión con los datos originales o las personas físicas. La anonimización es irreversible y las técnicas de anonimización comúnmente utilizadas incluyen el enmascaramiento de datos.
  5. Cifrado de datos : use algoritmos de cifrado de datos, como el algoritmo simétrico secreto nacional SM4 y el algoritmo de cifrado común AES, para cifrar datos confidenciales y generar texto cifrado (cifrado), que no se puede realizar a menos que la autorización de clave de cifrado del sistema de gestión de claves (KMS) se obtiene Decrypt para obtener el texto plano. Tenga en cuenta que, a diferencia del token con seudónimo, el texto cifrado solo se puede usar después de descifrar el texto sin formato, sin ningún atributo de uso directo. Por lo tanto, el texto cifrado solo se puede usar para el almacenamiento y la transmisión de información, lo que limita en gran medida el alcance del uso, como escenarios de análisis de datos como búsqueda, asociación, consulta y coincidencia.

3.2 Diseño Básico de Tokenización

3.2.1 Disponible, Invisible

1. Implementación de usabilidad

a) El escenario de análisis de big data utiliza la singularidad de Token para realizar funciones como deduplicación, estadísticas y asociación de extracción, procesamiento y análisis de datos.

b) Transmisión de información: en todos los demás escenarios, Token puede reemplazar completamente los datos de texto sin formato que circulan en todo el sistema utilizando su singularidad y resolver el uso de datos en enlaces como intercambio, asociación, consulta y coincidencia.

c) Uso de funciones confidenciales: en escenarios donde se deben usar datos de texto sin formato, los servicios tokenizados se pueden usar para intercambiar texto sin formato para lograr una usabilidad completa.

2. Implementación de la invisibilidad

La seguridad de la tokenización en sí misma es la base de seguridad de toda la solución. Por lo tanto, la tokenización debe garantizar su seguridad desde el diseño hasta la implementación para evitar que los ilegales usen Token para obtener el texto sin formato original correspondiente, lo que resulta en una fuga de datos. Para obtener más información, consulte el Capítulo 4: Implementación de seguridad tokenizada.

3.2.2 Requisitos básicos de la arquitectura

Para cumplir con las capacidades de protección de datos en escenarios complejos, la solución de tokenización debe cumplir con varios requisitos arquitectónicos principales:

  1. Adaptabilidad comercial : la tokenización debe cumplir con los requisitos de intercambio de datos de todos los escenarios de aplicaciones de datos, incluidas las transacciones en línea, las aplicaciones de datos en tiempo real y fuera de línea, y todos los escenarios, como la IA y los algoritmos de aprendizaje automático.
  2. Seguridad : para garantizar que el atributo de desensibilización de Token esté protegido al garantizar su asociación con texto sin formato. Esto debe estar garantizado por la seguridad de los algoritmos y los servicios tokenizados, así como por la seguridad múltiple de las aplicaciones posteriores.
  3. Usabilidad y eficiencia : la introducción de la tokenización no debería aumentar la eficiencia y la estabilidad de los sistemas comerciales.

3.3 Lógica de generación de tokens

La lógica de la tokenización es generar un ID-Token globalmente único para datos confidenciales dentro de la empresa. Por lo general, hay 3 esquemas para realizar la generación de ID.

Figura 5 Diagrama lógico de tokenización

1. Aleatorización  : los tokens se generan de forma completamente aleatoria y se almacenan en una tabla de relación de mapeo uno a uno (este es un método de generación tokenizado en un sentido estricto). Debido a que no existe una relación algorítmica entre el token y el texto sin formato, la correlación directa e inversa solo se puede realizar a través de servicios tokenizados, por lo que es la solución más segura. Pero la desventaja de esta solución es que para garantizar un alto grado de consistencia de Token, la nueva lógica de generación de Token no puede ser concurrente, de lo contrario, habrá un problema de consistencia de uno a muchos. Para garantizar la consistencia de los datos, se sacrificarán ciertas capacidades y rendimiento distribuidos. Aumenta de forma invisible los riesgos de usabilidad, especialmente en escenarios remotos remotos.

Figura 6 Método de generación de tokenización 1

2. Método MAC : a través del algoritmo HMAC de hash salado unificado, cualquier proceso y cualquier ubicación pueden generar el mismo token para garantizar la coherencia. La relación de mapeo entre el Token generado y el texto sin formato se enumera para realizar la capacidad anti-tokenización. La ventaja de este método es que se puede distribuir entre regiones, pero la desventaja es que se sacrifica cierta seguridad. Una vez que el atacante obtiene la sal, el algoritmo se puede usar para calcular Token en lotes. Podemos lograr un equilibrio entre seguridad y disponibilidad adoptando un mecanismo de protección adecuado para la sal (utilizando la misma estrategia de protección que la clave de cifrado).

Figura 7 Método de generación de tokenización 2

3. Cifrado y descifrado determinista : use un algoritmo de cifrado determinista, como (AES-SIV), o cifrado de conservación de formato (FPE), para cifrar texto sin formato y generar un Token reversible. Este algoritmo destruye la tecnología de seguridad del cifrado: aleatoriedad, pero el algoritmo actual generalmente tiene lagunas, por lo que no se recomienda usarlo. Además, existe una laguna natural en este algoritmo, es decir, la clave no se puede rotar.

Figura 8 Método de generación de tokenización 3

3.4 Arquitectura lógica de la solución de tokenización

Figura 9 Diagrama de arquitectura lógica tokenizada

Los servicios tokenizados deben cumplir con la compatibilidad, seguridad y disponibilidad de todos los escenarios comerciales, principalmente a través de soluciones de integración de acceso múltiple. E integrar las medidas de seguridad necesarias. Los servicios tokenizados se dividen lógicamente en capa de acceso, capa de servicio y capa de almacenamiento.

  1. Capa de acceso : se utiliza principalmente para conectar aplicaciones comerciales y acceso de personal, y completar la conversión entre token y texto sin formato, es decir, requisitos de solicitud de tokenización y anti-tokenización. Proporcione llamadas de interfaz hombre-máquina (Portal), interfaz de servicio (API) y solicitudes de tareas de big data, respectivamente. Debido a los requisitos de seguridad tokenizados, la capa de acceso debe garantizar medidas de seguridad confiables, como control de acceso detallado, IAM, autenticación de servicios y capacidades de autenticación de trabajos de big data.
  2. Capa de servicio : implementación real de tokenización y anti-tokenización. Principalmente completa la generación, almacenamiento y consulta de Token.
  3. Capa de almacenamiento : la capa de almacenamiento incluye principalmente almacenamiento en línea y almacenes de datos. Debido a consideraciones de seguridad, la tabla de mapeo tokenizada no almacena texto sin formato sino texto cifrado encriptado. Al mismo tiempo, el algoritmo HMAC se utiliza para establecer la relación de asociación de HASH > Token > texto cifrado para realizar la lógica empresarial de intercambiar texto sin formato por Token (verificación positiva) y Token por texto sin formato (verificación inversa). Tenga en cuenta que la aplicación no puede obtener directamente el texto sin formato a través de la tokenización, pero obtiene el texto cifrado y obtiene el permiso de descifrado a través de KMS para obtener el texto sin formato mediante el descifrado local.

3.5 Panorama de la aplicación de tokenización

Figura 10 Panorama de circulación de datos tokenizados

Descripción de Componente:

1. Fuentes de datos en línea

La fuente principal de datos sensibles, una vez que ingresa a la empresa, necesita conectarse a la API del servicio de Tokenización para convertirlo en un Token y almacenarlo en el almacén. En ciertos escenarios, los datos también se conectarán al almacén de datos. La otra función de la fuente de datos es proporcionar y compartir datos confidenciales en sentido descendente, que pueden ser a través de API, MQ o almacenamiento compartido como S3 y otros medios.

2. Fuente de datos del almacén de datos

Directamente vertidos o provenientes de Internet, los datos confidenciales ingresan al almacén de datos, y la tarea de tokenización debe estar habilitada para convertir el texto sin formato en un token y luego proporcionarlo a otras aplicaciones de big data posteriores.

3. Servicio de tokenización

a) Los servicios en línea tokenizados brindan servicios de token de intercambio de texto claro para transacciones en línea y tareas fácticas a través de la API.

b) Tokenizar Hive fuera de línea, proporcionar servicios de limpieza de datos fuera de línea para tareas de big data y convertir texto sin formato en tokens.

4. KMS y cifrado y descifrado

a) Distribuya la clave de cifrado para la tokenización y cifre el texto sin formato para formar un campo de texto cifrado.

b) Distribuir una clave de descifrado a todas las aplicaciones con autoridad de descifrado para el descifrado.

5. Aplicación de datos

a) Aplicaciones intermedias convencionales: servicios que pueden realizar funciones de negocio basadas en Token. Obtenga el token de la fuente de datos y páselo aguas abajo.

b) Aplicación de descifrado: De acuerdo a los requerimientos del negocio y bajo la premisa de cumplir con la línea base de seguridad, intercambiar Token por texto cifrado, y conectarse al módulo de cifrado y descifrado para descifrar para obtener texto plano.

4. Implementación de seguridad tokenizada

4.1 Los fundamentos de seguridad de la tokenización

El supuesto de seguridad de la tokenización es la irrelevancia del token y el texto sin formato. Si cualquier persona o sistema guarda y construye ilegalmente un diccionario de comparación entre el token y el texto sin formato o tiene la capacidad de construir este diccionario, el mecanismo de seguridad de la tokenización se destruirá por completo. Por lo tanto, el núcleo de la seguridad tokenizada es evitar la generación de esta tabla.

4.2 Riesgo de seguridad y diseño de seguridad

1. Control y riesgo de seguridad del propio servicio tokenizado

a) Seguridad lógica de generación de tokens : la identificación única generada por tokens aleatorios es el método más seguro y se requiere un generador de números aleatorios confiable.Si las condiciones lo permiten, se puede usar una máquina de cifrado basada en hardware para generar números aleatorios. Si se implementa mediante software, se requiere un mecanismo de generación de números pseudoaleatorios basado en cifrado. Si se utiliza el método HMAC para generar, se debe garantizar la seguridad de la sal.

① Solo se puede crear, distribuir y almacenar a través de mecanismos confiables como KMS;

② Solo se puede usar cuando el servicio tokenizado se está ejecutando;

③ Rote la sal regularmente. Se recomienda que la sal usada se elimine de manera segura diariamente o semanalmente;

④ Asegúrese de utilizar un algoritmo Hash seguro, como SHA-256 o SM3.

b) Seguridad de tiempo de ejecución tokenizada : los servicios tokenizados utilizan un sistema dedicado con refuerzo especial.

c) Seguridad del almacenamiento tokenizado : teniendo en cuenta los escenarios de big data y varios requisitos de almacenamiento, se requiere que el almacenamiento tokenizado en sí no almacene información confidencial, sino que solo incluya índices, tokens y textos cifrados. Al mismo tiempo, el almacenamiento tokenizado requiere un estricto control de acceso.

d) Seguridad de acceso tokenizado :

① La API requiere autenticación de servicio confiable, se recomiendan boletos MTLS + Oauth2 y la auditoría de registro de acceso está habilitada al mismo tiempo;

② La lógica de texto sin formato de intercambio de tokens solo devuelve texto cifrado, y el servicio de solicitud utiliza KMS para descifrar localmente y controla de forma centralizada la autoridad de descifrado;

③ La interfaz de usuario brinda a los usuarios la capacidad de cifrar y descifrar manualmente Token y texto sin formato. Los requisitos deben pasar por IAM y admitir el control de acceso detallado basado en riesgos basado en ABAC.

2. Seguridad secundaria generada por aplicaciones y servicios ecológicos aguas arriba y aguas abajo

Independientemente de la fuente de datos o del consumidor de datos de texto sin formato descendente, debido a la autorización de acceso a la interfaz tokenizada, es técnicamente posible llamar a la interfaz de forma remota y atravesar la relación de mapeo completa entre el token y el texto sin formato. Por lo tanto, las medidas de seguridad deben extenderse a estos sistemas y usuarios para garantizar que no haya fugas de datos causadas por estos comportamientos erróneos o lagunas en los programas.

a) Construir una línea de base de seguridad de aplicaciones de datos para restringir el comportamiento de uso de datos ascendente y descendente;

b) Prohibir estrictamente cualquier forma de texto sin formato ilegal, especialmente el reenvío y el vertido de datos de relación de mapeo de token-texto sin formato;

c) Está prohibido configurar un proxy, y el sujeto del servicio de datos debe conectarse directamente con el servicio de Tokenización;

d) Todos los ecosistemas deben someterse a una revisión de seguridad completa, incluidos los cambios posteriores. garantizar el cumplimiento de la línea de base;

e) Incorporar todos los servicios aguas arriba y aguas abajo en el sistema de monitoreo, incluido su almacenamiento, interfaz de datos, lógica de código de aplicación y linaje;

f) Monitoreo y escaneo global para garantizar que todos los procesos no conformes se descubran y procesen de manera oportuna.

5. Experiencia práctica en ingeniería

El servicio de tokenización no tiene un diseño complicado. Una vez implementado, cambiará por completo los hábitos de uso de datos de la organización y resolverá fundamentalmente la contradicción entre la eficiencia del uso de datos y el cumplimiento de la seguridad.

Sin embargo, su poderosa protección se basa en la transformación de la lógica de uso de datos, rompiendo el viejo hábito de usar datos de texto sin formato, y el proceso de implementación enfrenta enormes desafíos, incluido el mantenimiento laxo del código de la aplicación, datos históricos redundantes y caóticos, lógica de acceso caótica compleja, estos problemas traerán obstáculos a la transformación del sistema. Todas las empresas que involucran datos confidenciales deben cooperar con la transformación. Los proyectos de esta escala deben coordinarse en términos de planificación de procesos, garantías organizativas y soporte técnico. Meituan también ha acumulado mucha experiencia en el proceso de promoción de la transformación de la empresa como referencia. .

  1. Formulación y comunicación de políticas coherentes : la tokenización, como estrategia de gobernanza de seguridad de datos a nivel de empresa, requiere una comprensión unificada de la situación general. Los requisitos estratégicos, las pautas de implementación específicas, las herramientas y los métodos, etc. deben ser claros y consistentes, y comunicarse de manera efectiva a todas las partes relevantes a través de documentos concisos para reducir los costos de comunicación y errores. Entre ellos, se deben completar las líneas de base de seguridad de varios escenarios de aplicaciones de datos, como políticas de descifrado, políticas de control de acceso, políticas de interfaz API, big data e IA. Además, a través de canales de comunicación efectivos, que incluyen capacitación, manuales de productos, documentos de interfaz y otros canales para llegar a todos los usuarios, personal de I + D y comercial.
  2. Divídalo en pedazos y avance con flexibilidad : los enlaces de acceso a los datos confidenciales son largos y la relación es complicada, junto con la limitación del nivel de gobernanza, ha aumentado de manera invisible la dificultad de transformación y la presión de la inversión psicológica y real. Segmente la unidad lógica de transformación horizontal y verticalmente, hasta el nivel de servicio, para lograr una transformación fragmentada en escala de grises y hacer que la transformación sea más ágil.
  3. Transformación DevOPS : debido a que la tokenización cambia la lógica del uso de datos, debe ser llevada a cabo por todas las inversiones comerciales y de I+D. El costo de mano de obra es enorme, por lo que encapsular la lógica de transformación en un SDK simple y fácil de usar puede reducir la dificultad de la transformación y los riesgos causados ​​por errores humanos. Además, las pruebas y la aceptación pueden completarse mediante un circuito cerrado de autoservicio comercial a través de herramientas automatizadas de escaneo, limpieza de datos, aceptación y detección.
  4. Capacidad del servicio de tokenización : después de la transformación, la tokenización se convertirá en una fuerte dependencia de algunas aplicaciones relacionadas, y las fallas y los problemas de rendimiento de la tokenización pueden afectar directamente a las aplicaciones comerciales. Por lo tanto, el rendimiento, la disponibilidad y la estabilidad de los servicios tokenizados son muy importantes y deben ser diseñados cuidadosamente por un equipo profesional y probados, verificados y optimizados continuamente para evitar fallas. Al mismo tiempo, también es necesario proporcionar ciertas capacidades de tolerancia a fallos y degradación sobre la base de la seguridad.
  5. Operación y gobierno : con el avance del proyecto, Token superará el texto sin formato y se convertirá en la corriente principal. Al controlar la entrada de datos principal y los principales proveedores de datos, se puede garantizar que Token se usará de forma predeterminada dentro de la organización para lograr la seguridad predeterminada; además , los datos fríos de la empresa, los datos estáticos o los datos de islas relativamente independientes seguirán provocando omisiones y riesgos. Por lo tanto, es necesario admitir capacidades de percepción multidimensional, como escaneo y monitoreo para todos los sistemas de soporte de datos. Al mismo tiempo, los datos anómalos se asignan a empresas específicas para garantizar una cobertura completa de tokens.
  6. Aprendizaje, mejora e iteración : con la evolución de la innovación digital, se seguirán agregando nuevos formularios de datos y aplicaciones de datos. Los proyectos deben hacer frente a este cambio y mejorar continuamente las herramientas y los procesos para garantizar estrategias a largo plazo.

6. Materias no cubiertas

En el futuro, la gobernanza de la seguridad de los datos seguirá ampliándose.

A nivel de datos, la tokenización no resuelve datos no estructurados como imágenes y videos. Puede ser necesario pasar el cifrado directamente. La tokenización no resuelve el problema del intercambio de datos a través de los límites de la confianza empresarial, lo que requiere nuevas tecnologías, como la informática privada y la informática segura de múltiples partes. El objeto principal de la tokenización es la información PII estructurada almacenada en DB y Hive. Los datos semiestructurados ocultos en JSON y los datos PII no estructurados en registros y archivos no se procesan y deben completarse con potentes herramientas de descubrimiento y gobierno de datos.

En todo el sistema de seguridad de datos, la PII es solo una gota en el océano. La tokenización en realidad solo resuelve los escenarios de uso de datos internos de las empresas, pero sienta un precedente para la seguridad predeterminada y la seguridad del diseño. Dado que la información PII es el dato central de la información confidencial personal, los méritos y deméritos se pueden tokenizar, y la fuente se puede rastrear hasta la recopilación de datos y se puede extender al intercambio de datos entre tres partes. Además, la eliminación de datos sin pérdidas y otras capacidades se pueden realizar a través de la desasociación de Token.

La seguridad de los datos es un gran problema, especialmente bajo la fuerte demanda de desarrollo de la transformación digital, frente a las aplicaciones de datos complejas, la seguridad de la red requiere más innovaciones tecnológicas, esperamos inspirar más datos a través de la tokenización El camino seguro hacia la innovación.

7. Autor de este artículo

Zhigang, arquitecto de seguridad de Meituan, experto en criptografía, seguridad nativa en la nube y DevOPS, seguridad de datos y cumplimiento de privacidad.

Artículo original: Innovación en seguridad de datos bajo el nuevo formato digital - Tokenización - Equipo Técnico Meituan

Supongo que te gusta

Origin blog.csdn.net/philip502/article/details/127279111
Recomendado
Clasificación