Nuevo procesamiento de datos segura y eficiente
| QS Una red mundial de educación líder
Los científicos de ETU-LETI de la Universidad Electrotécnica de San Petersburgo , junto con Smartilizer, estudiaron un nuevo enfoque para el análisis de datos que no requiere transferir datos desde la fuente a un centro analítico.
Los investigadores probaron la efectividad de los sistemas de código abierto existentes en diferentes conjuntos de datos: lecturas de sensores de automóviles en movimiento y rayos X de pacientes con neumonía.
Para probar la aplicabilidad en los sistemas de IoT, los autores evaluaron las siguientes características: facilidad de uso e instalación, capacidades de análisis, precisión y rendimiento. El artículo fue publicado en la revista Sensors.
Nuevo procesamiento de datos segura y eficiente
El Internet de las Cosas
El Internet de las cosas (IoT) es una red de transmisión de datos que consta de objetos físicos con conectores integrados. Usando tales conectores, los objetos pueden comunicarse entre sí y con su entorno. Por ejemplo, en el concepto de hogar inteligente, los electrodomésticos están conectados entre sí y con un dispositivo de control externo, lo que permite la gestión desde un teléfono celular.
La arquitectura estándar de un sistema de IoT consta de tres capas. La primera (capa de dispositivo) son los dispositivos de hardware que producen y recopilan los datos. La capa intermedia es responsable de transferir datos desde los dispositivos a la capa de aplicación, que brinda servicios o aplicaciones que integran o analizan los datos.
Los enfoques tradicionales de dichos sistemas implican la recopilación de datos de los dispositivos de IoT en un
repositorio centralizado para su posterior análisis. Sin embargo, no siempre son aplicables debido a un gran volumen de datos recopilados, canales de comunicación con ancho de banda limitado, requisitos de seguridad y privacidad.
Las desventajas
Las desventajas significativas son un aumento en el tiempo total de procesamiento, el tráfico de la red y el riesgo de acceso no autorizado a los datos. Por lo tanto, se están desarrollando nuevos enfoques para el análisis de dichos datos. Uno de ellos es el aprendizaje federado que permite analizar datos directamente en fuentes y federar los resultados de cada análisis para producir un resultado como el procesamiento de datos centralizado tradicional. Hay menos carga y riesgo porque todos los datos se procesan localmente.
Una de las principales aplicaciones de esta tecnología basada en IA es la seguridad y privacidad de
los datos personales recopilados en todo el mundo cada segundo. Este tema se ha vuelto extremadamente importante después de la adopción de varias regulaciones legislativas, como el GDPR en la Unión Europea, CCPA en los EE. UU. Y PDPA en Singapur. Requieren un procesamiento transparente de datos personales con un propósito explícitamente declarado y el consentimiento del interesado. Nuevo procesamiento de datos segura y eficiente
Una casa inteligente
En una casa inteligente, las fuentes de datos son los dispositivos de cada apartamento: el despertador, el
grifo del baño, la calefacción por suelo radiante y las luces. En el enfoque tradicional, todos los datos de cada apartamento se recopilan en un repositorio centralizado. Se usa para entrenar un modelo (como una red neuronal) y, después de eso, el modelo se transmitiría de vuelta al sistema de control del hogar inteligente.
En la llamada de alarma, ese modelo “sabe” que la calefacción debe comenzar a calentarse, la bañera debe llenarse y las luces de ciertas habitaciones deben encenderse. Por un lado, la recopilación de datos es necesaria para entrenar tal modelo porque cuantos más datos, más inteligente es el modelo. Nuevo procesamiento de datos segura y eficiente
Por otro lado, la información sobre ti:
cuándo te levantas, cuándo vas al baño, cuándo comes, etc., pasa a estar disponible para otra persona y no sabes cómo se utilizará. De acuerdo con los principios del aprendizaje federado, los datos no saldrán de su apartamento.
Los científicos de ETU “LETI” probaron sistemas de diferentes empresas: Google, Webank, Baidu, la comunidad OpenMined y otras. Los autores realizaron una serie de experimentos con ellos en tres conjuntos de datos.
El primero contenía los parámetros de un automóvil de pasajeros en movimiento (velocidad media, carga del motor, etc.) y evaluaba el estilo de conducción, la superficie de la carretera y el estado del tráfico. El segundo incluyó datos de señales similares para dumpers y su análisis proporcionó información sobre el funcionamiento del vehículo. Finalmente, el tercer conjunto fue de imágenes de rayos X de 5.232 pacientes (3.383 imágenes de ellos con signos de neumonía). El análisis nos permitió distinguir a las personas enfermas de las sanas.
Código abierto
“Comparamos todos los marcos de aprendizaje federado de código abierto disponibles actualmente y
evaluamos sus capacidades. Nuestro enfoque demostró ser eficaz en los tres casos. Sin embargo, no todos son aptos para el desarrollo industrial en la actualidad. Algunos sistemas aún se encuentran en sus primeras etapas y no están listos para un uso generalizado. Sin embargo, la tecnología de aprendizaje federado en sí es extremadamente relevante y se está desarrollando rápidamente ”, dice Ivan Kholod, decano de la Facultad de Ciencias y Tecnología de la Computación en ETU“ LETI ”.