Skip links

Gestión de Datos

Una revisión de la gestión, los beneficios y los desafíos de Big Data

Big Data es un término relativamente nuevo que se refiere a conjuntos de información cuyo tamaño es tan grande que difícilmente puede ser manejado por está más allá de la capacidad de las herramientas típicas de captura, almacenamiento, gestión y análisis.

La enorme cantidad de datos acumulada que en el pasado carecían de valor significativo se ha aprovechado al máximo debido a la disponibilidad de novedosas herramientas de Big Data que superan a las herramientas tradicionales de  data mining disponibles en el pasado.

Big Data  está cobrando gran importancia entre las organizaciones y los analistas de datos ya que gracias a estos,  se obtienen mejores resultados a partir de un mayor volumen de datos.

Las predicciones y el análisis de negocios está mostrando resultados  más precisos e interesantes a través de las herramientas de Big Data. 

La escala y el alcance de los cambios que está generando Big Data se encuentran en un punto de inflexión, que se expandirá en gran medida, a medida que una serie de tendencias tecnológicas se acelera y se cobra valor. En este artículo, presentamos a los lectores el concepto de Big Data, las diversas fuentes de datos para Big Data. 

Algunas de las ventajas y aplicaciones que se han implementado con éxito utilizando herramientas de Big Data. Algunos de los desafíos de Big Data también se discutieron con especial referencia al más crucial de estos desafíos: el problema de la privacidad personal que, si no se gestiona bien, podría hacer que un individuo o toda una organización que utilice Big Data caiga.

1. EL Big Data

Los datos han adquirido un valor trascendental para las empresas, convirtiéndose en un torrente de información para todas las áreas de la economía global y la administración organizativa. 

Las empresas producen volúmenes ingentes de datos transaccionales, capturando billones de bytes de datos sobre sus clientes, suministros y operaciones, entre muchos otros aspectos. 

Millones de sistemas de red se están integrando en dispositivos como teléfonos móviles, medidores de energía inteligentes, automóviles y máquinas industriales que detectan, crean y comunican datos en la era del Internet of Things. 

De hecho, las empresas y organizaciones están generando una enorme cantidad de “datos de escape” mientras continúan su funcionamiento regular y sirven e interactúan con sus clientes, digitales, es decir, datos que se crean como subproducto de otras actividades. 

Las plataformas de redes sociales, los smartphones y otros dispositivos de consumo, incluidos PC y portátiles, han permitido que miles de millones de personas en todo el mundo contribuyan a la cantidad de Big Data disponible y el creciente volumen de contenido multimedia ha jugado un papel importante en el crecimiento exponencial de la cantidad de Big Data. 

Actualmente muchas organizaciones se están inundando de datos, terabytes y petabytes. Para ponerlo en contexto, 1 terabyte contiene 2000 horas de música con calidad de CD, y 10 terabytes podrían almacenar toda la colección impresa de la biblioteca del Congreso de EE. UU. Exabytes, zettabytes y yottabytes definitivamente son una posibilidad en el futuro. 

Los datos llegan desde sistemas operacionales y transaccionales, desde sistemas de escaneo y administración de instalaciones, desde impresiones de contacto de clientes entrantes y salientes, desde medios móviles y la web. Según IDC, “en 2011, la cantidad de información creada y replicada superará los 1,8 zetabytes (1,8 billones de gigabytes), multiplicando por nueve en sólo cinco años”. 

Eso es casi tantos bits de información en el universo digital como estrellas en el universo físico. La explosión de datos no es nueva. Continúa una tendencia que comenzó en la década de 1970.

Lo que ha cambiado es la velocidad de crecimiento, la diversidad de los datos y el imperativo de hacer un mejor uso de la información para transformar las empresas. 

En el mundo de hoy, estamos rodeados de predicciones. Los problemas con las estadísticas y las predicciones no se limitan a la representación gráfica y, de hecho, pueden ser más complicados y desafiantes, especialmente con la llegada de Big Data y su uso para hacer proyecciones. 

La fuente de crecimiento de datos que está impulsando las inversiones en tecnología de Big Data varía ampliamente. Algunas representan fuentes de datos completamente nuevas, mientras que otras son un cambio en la “resolución” de los datos existentes generados.

 2. ¿Cómo funciona el sistema de gestión de datos?

Big Data es un término para una recolección de conjuntos de datos tan grandes y complejos que se vuelve complicado de procesar utilizando herramientas tradicionales de administración de bases de datos. 

La tendencia a conjuntos de datos más grandes se debe a la información tradicional derivada del análisis de datos de un solo dato relacionado en comparación con conjuntos más pequeños separados con la misma cantidad total de datos, lo que permite encontrar correlaciones para “detectar tendencias comerciales, determinar la calidad de la investigación, prevenir enfermedades, vincular citaciones legales, combatir la delincuencia y determinar las condiciones del tráfico en las carreteras en tiempo real. 

El término Big Data tiende a usarse de múltiples maneras, a menudo refiriéndose tanto al tipo de datos gestionado, así como la tecnología que se utiliza para gestionarlos. En su mayor parte, estas tecnologías se originaron en las grandes empresas digitales como Google, Amazon, Facebook y Linkedin, donde se concibieron para el uso propio con el fin de analizar cantidades enormes de datos que estas plataformas estaban generando. 

Los científicos encuentran con regularidad limitaciones debido a grandes conjuntos de datos en muchas áreas, incluida la meteorología, la genómica, la conectómica, las simulaciones físicas complejas y la investigación biológica y ambiental. 

Los conjuntos de datos aumentan de tamaño en parte porque se recopilan cada vez más mediante dispositivos móviles de envío de información ubicua, tecnologías sensoriales aéreas (teledetección), registros de software, cámaras, micrófonos, lectores de identificación por radiofrecuencia y redes de sensores inalámbricos. 

La capacidad tecnológica per cápita del mundo para almacenar información se ha duplicado aproximadamente cada 40 meses desde la década de 1980; a partir de 2012, se crearon todos los días 2,5 exabytes (2,5 x 1018) de datos. El desafío para las grandes empresas es determinar quién debe ser el propietario de las iniciativas de Big Data que abarcan toda la organización. 

A partir de 2012, se crearon todos los días 2,5 exabytes (2,5 x 1018) de datos
INFO

3. Las cinco V de la gestión de datos.

Algunos análisis consideran dos elementos adicionales al tratar con  Big Data: la variabilidad y la complejidad. Oracle, en cambio, definió cuatro aspectos en la gestión y tratamiento de Big Data, las cuatro uves: volumen, velocidad, variedad y valor.

Aqui definimos la gestión de Big Data en cinco términos: cuatro Vs y una Cs. Estos establecen una prueba razonable para determinar si un enfoque de Big Data es el adecuado para poder realizar análisis en el futuro de forma efectiva. 

Volumen: el tamaño de los datos 

Con la tecnología, a menudo es muy limitante hablar sobre el volumen de datos en un sentido absoluto. A medida que la tecnología avanza, los números se vuelven obsoletos rápidamente, por lo que es mejor pensar en el volumen en un sentido relativo. 

Si el volumen de datos que está gestionando es más grande que cualquier otro encontrado anteriormente en su industria, entonces probablemente esté tratando con Big Data. Para algunas empresas, esto podría ser decenas de terabytes, para otras, podría ser decenas de petabytes. 

Velocidad

Actualmente gracias al avance tecnológico, los datos se transmiten a velocidades muy altas y sin precedentes, por lo que deben tratarse de forma oportuna. La velocidad de recepción de datos y actuación es tan frenética que se deben realizar enfoques de analitica en tiempo real.INFO

Si bien es poco probable que un análisis real deba completarse en el mismo período de tiempo en que los datos son capturados, los retrasos en la ejecución limitarán inevitablemente la efectividad de las campañas, limitarán las intervenciones o conducirán a procesos subóptimos.

Variedad

Hoy en día, los datos vienen en todo tipo de formatos, datos estructurados, numéricos en bases de datos tradicionales, información creada a partir de aplicaciones de línea de negocio, documentos de texto no estructurados, correo electrónico, video, audio, datos de cotizaciones bursátiles y transacciones financieras. Gestionar, fusionar y gobernar diferentes variedades de datos es algo con lo que para muchas organizaciones es incontrolable . 

Variabilidad

Además de la velocidad de creación y variedad de datos, el flujos de estos pueden ser muy inconsistentes. Las cargas máximas de datos diarias, estacionales y constantes pueden ser difíciles de administrar, especialmente cuando se trata de datos no estructurados. 

Valor 

Es un concepto que se refiere al valor comercial pueden agregar las nuevas fuentes de información y datos a la investigación comercial o científica. ¿Están resolviendo los problemas que han contaminado las soluciones debido a la falta de disponibilidad de datos? 

Complejidad

Los datos de hoy provienen de múltiples fuentes, por lo tanto es importante vincular, combinar, limpiar y transformar todos los datos proveniente de uno o varios sistemas. Sin embargo, es necesario conectar y correlacionar jerarquías y múltiples enlaces de datos o sus datos pueden salirse de control rápidamente.

4. Gestión de Bases de Datos Efectiva

Hoy en día, estamos inundados por avalancha de datos. En una amplia gama de áreas de aplicación, los datos se recopilan a escalas sin precedentes. Las decisiones que antes se basaban en conjeturas o en modelos de la realidad construidos minuciosamente ahora pueden tomarse basándose en los datos mismos. 

Este análisis de Big Data impulsa ahora casi todos los aspectos de nuestra sociedad moderna, incluidos los servicios móviles, la fabricación minorista, los servicios financieros, las ciencias biológicas y las ciencias físicas. 

La investigación científica ha sido revolucionada por Big Data. El Sloan Digital Sky Survey se ha convertido en un recurso central para los astrónomos de todo el mundo.

El campo de la astronomía se está transformando de uno en el que tomar fotografías del cielo era una gran parte del trabajo de un astrónomo a uno donde las imágenes ya están en una base de datos y la tarea de los astrónomos es encontrar objetos y fenómenos interesantes en la base de datos. 

En las ciencias biológicas, existe ahora una tradición bien establecida de depositar datos científicos en un depósito público y también de crear bases de datos públicas para que las utilicen otros científicos. 

De hecho, existe una disciplina de la bioinformática que se dedica en gran medida a la conservación y análisis de dichos datos. A medida que avanza la tecnología, particularmente con el advenimiento de la secuenciación de próxima generación, el tamaño y el número de conjuntos de datos experimentales disponibles está aumentando exponencialmente. 

Big Data tiene el potencial de revolucionar no solo la investigación, sino también la educación. Una comparación cuantitativa detallada reciente de diferentes enfoques adoptados por 35 escuelas autónomas en la ciudad de Nueva York ha encontrado que una de las cinco políticas principales correlacionadas con la efectividad académica medible fue el uso de datos para guiar la instrucción. 

Imagine un mundo en el que tenemos que acceder a una enorme base de datos donde recopilamos todas las medidas detalladas del rendimiento académico de cada estudiante.

Estos datos podrían usarse para diseñar los enfoques más efectivos para la educación, desde lectura, escritura y matemáticas, hasta cursos avanzados de nivel universitario. 

McKinsey estima un ahorro de 300 mil millones de dólares cada año solo en los EE. UU. El uso de Big Data se convertirá en una base clave de competencia y crecimiento para empresas individuales.INFO

Estamos lejos de tener acceso a esos datos, pero existen tendencias poderosas en esta dirección. En particular, existe una fuerte tendencia hacia el despliegue web masivo de actividades educativas, y esto generará una cantidad cada vez mayor de datos detallados sobre el rendimiento de los estudiantes. 

Se cree ampliamente que el uso de la tecnología de la información puede reducir el costo de la atención médica, al tiempo que mejora su calidad al hacer que la atención sea más preventiva y personalizada, y basarla en un monitoreo continuo más extenso (basado en el hogar).

McKinsey estima un ahorro de 300 mil millones de dólares cada año solo en los EE. UU. El uso de Big Data se convertirá en una base clave de competencia y crecimiento para empresas individuales. 

Desde el punto de vista de la competitividad y la potencial captura de valor, todas las empresas deben tomar el Big Data en serio. En la mayoría de las industrias, tanto los competidores establecidos como los nuevos participantes aprovecharán las estrategias basadas en datos para innovar, competir y capturar valor de información profunda y en tiempo real. 

El uso de Big Data importará en todos los sectores, algunos sectores están preparados para obtener mayores ganancias. Los sectores de la información y los productos informáticos y electrónicos, así como el de las finanzas y los seguros, y el gobierno están preparados para beneficiarse sustancialmente del uso de Big Data. 

En una línea similar, se han presentado casos persuasivos sobre el valor de Big Data para la planificación urbana (a través de la fusión de datos geográficos de alta fidelidad), transporte inteligente (a través del análisis y visualización de datos de la red de carreteras en vivo y detallados), modelado ambiental ( a través de redes de sensores que recopilan datos de forma ubicua), ahorro de energía (a través de la revelación de patrones de uso), materiales inteligentes (a través de la iniciativa del genoma de nuevos materiales), ciencias sociales computacionales (una nueva metodología que crece rápidamente en popularidad debido al costo drásticamente reducido de obtener datos) , análisis de riesgos del sistema financiero (mediante análisis integrado de una red de contratos para encontrar dependencias entre entidades financieras), seguridad nacional (mediante análisis de redes sociales y transacciones financieras de posibles terroristas), seguridad informática (mediante análisis de información registrada y otros eventos, conocida como gestión de eventos e información de seguridad (SIEM), etc. 

Algún logro notable relacionado con Big Data El LAPD y la Universidad de California están utilizando Big Data para predecir el crimen incluso antes de que suceda. Las tendencias de la gripe de Google utilizan términos de búsqueda para predecir la propagación del virus de la gripe. 

Los estadísticos Nate Silver predijeron el resultado de las elecciones estadounidenses en cada estado individual en 2012. El MIT está utilizando datos de teléfonos móviles para establecer cómo se pueden utilizar las ubicaciones de las personas y los patrones de tráfico para la planificación urbana.

5. Herramientas de Gestión de Datos

Big Data es un subconjunto muy complejo de diversas tecnologías que son complejas de implementar, está en continuo proceso de creación y  aún no concretada su definición. 

Aquí analizamos las categorías de herramientas de Big Data: la primera categoría es el procesamiento por lotes, siendo Hadoop la herramienta más notable. Hadoop está diseñado como un motor de procesamiento por lotes y almacenamiento de datos. 

Aunque la carga de datos es muy fácil, obtener la respuesta a su consulta puede llevar minutos e incluso horas. Algunas de las nuevas herramientas de SQL en Hadoop permiten un acceso más rápido a los datos, pero como su núcleo, Hadoop sigue siendo un sistema no ideal para la carga y el procesamiento de datos en tiempo real. 

Las tecnologías de Big Data dominantes de uso comercial actualmente son Hadoop y No-SQL Apache. Hadoop es atractivo porque su categoría de software de open source le convierte en gratuito; por lo tanto, no hay tarifa de licencia de software. 

Dado que Hadoop está (al menos actualmente) orientado al análisis por lotes, se requieren otras tecnologías o herramientas de apoyo para realizar análisis en tiempo real.

La segunda categoría y las tecnologías más comunes actualmente en uso dentro de esta área son el procesamiento de eventos complejos (CEP), las cuadrículas de datos distribuidos en memoria, la base de datos en memoria y las bases de datos tradicionales. 

Estos pueden ser compatibles con otras tecnologías relacionadas, como bases de datos sin SQL, ya sea sobre un clúster de Hadoop o utilizando una capa de almacenamiento de datos específica. Las herramientas No-SQL o New SQL generalmente están diseñadas para una rápida ingestión y acceso rápido a registros individuales. 

Sin embargo, las bases de datos sin SQL no suelen estar diseñadas para la agregación o el procesamiento de datos. Es posible realizar este tipo de tareas, pero el acceso a estos datos no es tan rápido y efectivo como acceder a datos individuales.

Procesamiento masivamente paralelo (MPP) y las bases de datos analíticas. 

Estos están diseñados para cada agregación rápida de datos, pero no para la carga rápida de datos. Esto los hace más apropiados como sistema de backend para crear tableros de reports y data science, pero no como una base de datos transaccional para sistemas frontales.

También hay una subcategoría de herramientas SQL en Hadoop que son esencialmente bases de datos MPP que usan HDFS como su sistema completo y se ubican en el mismo hardware que los procesos HDFS y Map Reduce. 

Estas bases de datos generalmente requieren que los datos se carguen en formatos de archivo de propiedad de la base de datos para lograr la ventaja de velocidad.

Existen herramientas de Big Data diseñadas para el procesamiento por lotes de grandes cantidades de datos, diseñadas para la ingesta y el acceso en tiempo real de los datos, pero no para el procesamiento, y diseñadas para la agregación de datos a la velocidad del pensamiento, pero no para la carga rápida. Debe determinar qué requieren sus necesidades comerciales.

6. Desafios de la Gestión de Datos

La Big Data esta creciendo enormemente, la acumulacin de informacion en bases de datos parece ser uno de los grandes desafíos de la industria Sin embargo, en una inspección más cercana, podemos encontrar  dos o tres problemas principales capaces de hacer romper la promesa de Big Data, y estos están relacionados con: enfoque de solución, privacidad personal y propiedad intelectual (IP). 

El primer tema se refiere a la tecnología, la implementación y el contexto organizacional, mientras que los dos últimos elementos importantes plantean inquietudes sobre la naturaleza y el uso aplicable de la información o Big Data. 

Otras amenazas potenciales para la plena utilización de Big Data son la heterogeneidad y la incompletitud, la escala, la puntualidad; otra preocupación estrechamente relacionada es la seguridad de los datos.

 6.1 Heterogeneidad 

Cuando los seres humanos consumen información, se tolera cómodamente una gran cantidad de heterogeneidad. De hecho, los matices y la riqueza del lenguaje natural pueden proporcionar una profundidad valiosa. Sin embargo, los algoritmos de análisis de máquinas esperan datos homogéneos y no pueden comprender los matices. 

En consecuencia, los datos deben estructurarse cuidadosamente como un primer paso para (o antes) del análisis de datos. Los sistemas informáticos funcionan de manera más eficiente si pueden almacenar varios elementos que son todos idénticos en tamaño y estructura. La representación, el acceso y el análisis eficientes de datos semiestructurados requieren más trabajo. 

6.2 Escala 

La escala o el tamaño es otro de los desafíos importantes de Big Data. Lo primero en lo que se piensa en Big Data es en su tamaño. Después de todo, la palabra “grande” está en el mismo nombre. La gestión de grandes volúmenes de datos que crecen rápidamente ha sido un desafío durante muchas décadas. 

En el pasado, este desafío fue mitigado por procesadores cada vez más rápidos, siguiendo la ley de Moore, para proporcionarnos los recursos necesarios para hacer frente al creciente volumen de datos. 

Pero ahora se está produciendo un cambio fundamental: el volumen de datos está escalando más rápido que los recursos de la computadora y las velocidades de la CPU son estáticas. Estos cambios nos obligan a recalcular cómo diseñamos, construimos y operamos sistemas de procesamiento de datos. 

6.3 Puntualidad 

La otra cara de la moneda es la velocidad. Cuanto mayor sea el tamaño de los datos a procesar, más tiempo llevará analizarlos. Es probable que el diseño de un sistema que se ocupe de manera eficaz del tamaño también dé como resultado un sistema que pueda procesar un tamaño determinado de conjunto de datos con mayor rapidez. 

Sin embargo, no es solo esta velocidad a la que se suele referir cuando se habla de velocidad en el contexto de Big Data. Más bien, existe un desafío de tasa de adquisición y un desafío de oportunidad. 

Hay muchas situaciones en las que se requiere inmediatamente el resultado del análisis. Por ejemplo, si se sospecha de una transacción fraudulenta con tarjeta de crédito, lo ideal sería marcarla antes de que se complete la transacción, lo que podría evitar que la transacción se lleve a cabo. 

Obviamente, no es probable que un análisis completo del historial de compras de un usuario sea factible en tiempo real. Más bien, necesitamos desarrollar resultados parciales de antemano para que una pequeña cantidad de cálculo incremental con nuevos datos se pueda utilizar para llegar a una determinación rápida. 

6.4 Protección de datos

Piense en toda la información personal que se almacena y transmite a través de ISP, operadores de redes móviles, supermercados, ayuntamientos, organizaciones de servicios médicos y financieros (por ejemplo, hospitales, bancos, agencias de seguros y tarjetas de crédito). 

Además, no olvide la información compartida y almacenada en redes sociales, por organizaciones religiosas, instituciones educativas y/o empleadores. Cada organización tiene la responsabilidad de organizar, proteger y explotar sus datos, operativos y de clientes. 

Claramente, la privacidad de los datos es un tema cuya importancia, está creciendo notablemente a medida que el valor de Big Data se vuelve más evidente.

A la población le importa qué y cómo se usa su información personal, especialmente si podría resultar perjudicial o explotada con propósitos comerciales. 

Existe una cierta clase de datos que pueden volverse “tóxicos” fácilmente si una empresa sufre alguna pérdida de control, e incluye: información personal, información estratégica de IP, datos corporativos sensibles (por ejemplo, KPI y resultados).

 La situación se complica aún más por las diferentes visiones del mundo sobre la privacidad personal como un derecho humano constitucional y fundamental.

La Ley de protección de datos del Reino Unido no se aplica a la información personal almacenada fuera del Reino Unido, sin embargo, tratamos a diario con organizaciones, procesos y tecnologías que son globales en escala y alcance. 

Por otro lado, algunos usuarios no muestran ningún inconveniente en compartir datos personales a cambio de una ganancia económica. La privacidad de los datos es una gran preocupación y aumenta en el contexto de Big Data. Para los registros de salud electrónicos, existen leyes estrictas que rigen lo que podemos y no podemos hacer.

Para otros datos, las regulaciones, particularmente en los Estados Unidos, son menos estrictas. Sin embargo, existe un gran temor con respecto al uso inadecuado de los datos personales, particularmente a través de la vinculación de datos. Para Nigeria, no creo que haya ninguno y si lo hay, no se enfatiza completamente, se difunde y se adhiere estrictamente. 

De múltiples fuentes, considere el siguiente ejemplo, datos obtenidos de servicios basados ​​en la ubicación. Estas nuevas arquitecturas requieren que el usuario comparta su ubicación con el proveedor de servicios, lo que genera preocupaciones obvias sobre la privacidad. 

Tenga en cuenta que ocultar la identidad del usuario por sí sola sin ocultar su ubicación no abordaría adecuadamente este problema de privacidad. Un atacante o un servidor basado en la ubicación (potencialmente malintencionado) puede inferir la identidad del origen de la consulta a partir de su información de ubicación (posterior).

Por ejemplo, la información de ubicación de un usuario se puede rastrear a través de varios puntos de conexión estacionarios (por ejemplo, torres de telefonía celular).

Después de un tiempo, el usuario deja “un rastro de migajas de paquetes” que podría asociarse a una determinada residencia o ubicación de la oficina y, por lo tanto, utilizarse para determinar la identidad del usuario. 

Varios otros tipos de información sorprendentemente privada, como problemas de salud (p. Ej., Presencia en un centro de tratamiento del cáncer) o preferencias religiosas (p. Ej., Presencia en la iglesia) también pueden revelarse simplemente observando el movimiento y uso de usuarios anónimos a lo largo del tiempo. 

Muchos servicios en línea requieren que compartamos información privada, pero más allá del control de acceso a nivel de registro, no comprendemos qué significa compartir datos, cómo se pueden vincular los datos compartidos y cómo dar a los usuarios un control detallado sobre este intercambio. 

De los numerosos desafíos que enfrenta el Big Data en la actualidad, la privacidad o la privacidad personal es el tema más importante que necesita atención urgente.

Por ejemplo, con la disponibilidad del número de teléfono o la fecha de nacimiento, los atacantes pueden ganar mucho terreno para hacerse cargo de la privacidad personal. 

Para proteger los datos sensibles a la competencia u otros datos que deben mantenerse privados, es esencial abordar la seguridad de los datos a través de herramientas tecnológicas y de políticas. Las preguntas sobre los derechos de propiedad intelectual adjuntos a los datos deberán ser respondidas. 

¿Quién “posee” una pieza de datos y qué derechos se adjuntan con un conjunto de datos? ¿Qué define el “uso justo” de los datos? También hay preguntas relacionadas con la responsabilidad, ¿quién es el responsable cuando un dato inexacto tiene consecuencias negativas? Además del repudio de datos, es decir, el propietario legítimo de los datos no puede repudiarlos legítimamente. 

Todos estos tipos de problemas legales necesitarán aclaración, probablemente horas extras, para capturar todo el potencial de Big Data. Cuando la información confidencial ha sido utilizada o publicada por alguien que no tiene derecho a hacerlo, en determinadas circunstancias, la ley proporcionará alguna reparación a su propietario. 

Pero es vital utilizar medios técnicos y prácticos seguros de forma eficaz para mantener la información segura en primer lugar. Los dispositivos portátiles que contienen datos personales deben estar encriptados. En las redes sociales, debería haber restricciones para exponer datos personales confidenciales que puedan ser de ayuda para los atacantes. 

Se debe sensibilizar a las personas sobre los peligros asociados con la exposición de datos personales. Cada país del mundo debe tener leyes legislativas para guiar el uso de datos personales. Las organizaciones deben cifrar los datos personales y solo otorgar acceso a un usuario legítimo.

de acuerdo con la política predefinida. La política de protección de datos y su aplicación deben ser una cuestión prioritaria. Las empresas deben presentar a los usuarios pautas de seguridad viables. Para el departamento de TI, la protección de los datos personales debe ser una preocupación constante que requiera una revisión constante. Los empleadores se enfrentan no solo a la amenaza de sanciones económicas, sino también a las inconmensurables consecuencias de la pérdida de reputación.

6. El futuro de la Gestión de Datos 

El Big Data tiene una gran importancia económica y científica. Desde un punto de vista científico, cuanto mayores sean los datos utilizados en un estudio, mayor será la precisión de los resultados. Los datos se están creando constantemente en tiempo real, lo que significa que el volumen de datos disponibles nunca puede reducirse sino aumentar. 

Entre 2009 y 2020 los datos digitales han crecido 44 veces hasta 35ZB por añoINFO

De hecho, de acuerdo con Digital Universe de IDC entre 2009 y 2020 los datos digitales han crecido 44 veces hasta 35ZB por año. También es importante reconocer que gran parte de esta explosión de datos es el resultado de una explosión en dispositivos ubicados en la periferia de la red, incluidos sensores integrados, teléfonos inteligentes y tabletas. 

Todos estos datos crean nuevas oportunidades para los analistas en genómica humana, atención médica, petróleo y gas, búsqueda, vigilancia, finanzas y muchas otras áreas. Existen innumerables aplicaciones y ventajas de Big Data.

Cabe señalar que existen muchos desafíos a los que se enfrenta el Big Data y, para hacer un uso óptimo de este descubrimiento moderno, los usuarios deben ser muy conscientes de estos desafíos a fin de proporcionarles un ajuste medible o soluciones tan rápido como posible.

Dejar comentario

× ¿Cómo puedo ayudarte?