Top 10 de las predicciones en el manejo de Big Data para 2019

A pocas horas para arribar al 2019, vislumbramos un año de muchos desafíos entre los que destacan la conducción a un futuro de latencia cero. En este post les presentamos las 10 principales predicciones en el manejo de Big Data para este próximo año expuestas por Madhukar Kumar, Jefe de Defensa de Desarrolladores en Redis Labs. 

Top 10 Big Data predictions 2019


Al igual que hacemos uso de la electricidad, pronto comenzaremos a ver que la informática en tiempo real estará disponible de forma generalizada y de forma invisible al mismo tiempo. 

La industria de la tecnología regularmente se ve en ascenso y caída producto de hiperciclos, incluida la llegada de la era .com, la Computación en la Nube (Cloud Computing), la Big Data y, más recientemente, la Inteligencia Artificial (AI) y la Cadena de Bloques (Blockchain). 

Asimismo, viendo en retrospectiva cada uno de estos importantes cambios esta de alguna manera relacionado con la interrupción de algún otro previo. Por ejemplo, la IA no estaría donde está hoy sin Big Data. Big data no habría sido posible sin el advenimiento de la Computación en la Nube y la Cloud Computing en sí misma no existiría sin el auge de Internet en los años 90. 

En base a esta visión retrospectiva, podríamos estar al punto de dar el siguiente gran salto de la tecnología debido a varias fuerzas que ya se han producido o están actualmente en juego en conjunto: nos dirigimos hacia un futuro de latencia cero. 

Definiendo lo que esto significa, si una máquina (hardware más software) interactúa con personas u otras máquinas en menos de un segundo, es un dispositivo o aplicación con latencia cero. 

Cuando hablamos con Alexa o Google Home, estos dispositivos a menudo nos responden en menos de un segundo, pero creo que podría ser incluso más rápido sí pensamos en vehículos autónomos, reconocimiento facial, casas inteligentes, etc., donde todo debe unirse para tomar una decisión y actuar en base a cientos de insumos en unos pocos milisegundos. 

Ahora imagine que ese tipo de computación está en todas partes a su alrededor. Esto es lo que consideramos un futuro de latencia cero. En este futuro, cualquier tiempo de respuesta de más de un segundo será inaceptable. 

¿Cuáles son las tendencias que dan forma a este futuro?. Ahora analizamos todas las tendencias individuales que harán de este fenómeno una realidad. 

Mega tendencias emergentes 

Computación cuántica 

A principios de este año, Intel anunció un hito importante en la creación de sistemas de computación cuántica con 49 qubits, suficiente para reemplazar los límites prácticos de las computadoras modernas. IBM y Google también hicieron anuncios similares. 

Aunque probablemente no veamos un reemplazo inmediato de las computadoras clásicas en el próximo año, IBM ya ha abierto un patio de recreo donde las personas pueden comenzar a experimentar con esta nueva tecnología. Estos desarrollos acelerarán las oportunidades para una potencia de procesamiento de cómputo exponencialmente más rápida. 

Conexiones de internet 5G 

Algunos proveedores, como Verizon, ya han implementado 5G en algunas ciudades de los Estados Unidos. Sin embargo, se espera que las primeras redes 5G salgan a la luz en Gran Bretaña en 2019. 

La tecnología 5G se basa en las lecciones aprendidas de 4G y ofrece velocidades de carga y descarga de 1GB por segundo. Así es, podrá descargar, no solo transmitir, una película de alta definición completa en menos de 10 segundos en su camino al trabajo utilizando una red 5G. 

Memoria persistente 

Intel anunció recientemente el lanzamiento de la memoria persistente Optane DC, que se parece a cualquier RAM estándar pero que puede almacenar terabytes e incluso conservar datos cuando se apaga la alimentación. 

Con la esperanza de que esta tecnología continuará mejorando y eventualmente reemplazará los discos duros para la mayoría de los casos de uso. Con esta mayor capacidad, se pueden procesar grandes cantidades de datos en tiempo real y persistir sin tocar el disco. 

Procesamiento de datos en tiempo real al borde 

Debido a la trinidad de las tres fuerzas anteriores, mucho más procesamiento de datos ocurrirá en tiempo real en el límite (es decir, en dispositivos para autos autónomos, ciudades inteligentes, reconocimiento facial, tecnología portátil y más). 

Este fenómeno se menciona a menudo en la categoría de computación de borde o niebla y se volverá más real a medida que el procesamiento se haga más rápido, los datos estén disponibles en la memoria todo el tiempo y las velocidades de la red aumenten exponencialmente.

Procesamiento de datos dentro del cómputo 

En las implementaciones tradicionales de Big Data, vimos que la lógica de programación se movía hacia los datos (piense en MapReduce y Hadoop). Ahora, espero que comencemos a ver lo contrario. Los datos y, lo que es más importante, los tipos de datos se procesarán para un procesamiento de latencia casi nula, ya que cualquier latencia de la búsqueda de datos en un disco ya no será aceptable.  

Las cinco tendencias anteriores nos colocarán de lleno en medio de un futuro de latencia cero. Dicho esto, hay otras tendencias a tener en cuenta, ya sea que estimulen o tengan un gran impacto en la forma en que interactuamos con las computadoras en el futuro. 

Arquitecturas sin servidor 

El procesamiento sin servidor de grandes conjuntos de datos moverá más cargas de trabajo de Big Data a funciones orquestadas a escala con herramientas similares a Kubernetes. Esto significa que más organizaciones podrán procesar Big Data utilizando las soluciones de Función como Servicio (FaaS) para una mejor velocidad y accesibilidad. 

Multi-nube 

La adopción de múltiples nubes hará que el almacenamiento de datos sea agnóstico para las plataformas y proveedores en la nube. Sus datos podrían almacenarse parcialmente en AWS y parcialmente en Google Cloud o incluso en computadoras de borde, por ejemplo. Cada vez más organizaciones usarán tecnologías como Kubernetes para romper con el bloqueo de un solo proveedor. 

Sesgo de eliminación en AI / ML 

También veremos empresas con cantidades masivas de datos de consumidores (Google, Facebook, etc.) que intentan eliminar el sesgo de sus conjuntos de datos para que sus modelos de inteligencia artificial y aprendizaje automático (ML) sean más precisos y libres de sesgos. 


Privacidad de datos 

Debido a los grandes volúmenes actuales de recolección de datos y los requisitos de procesamiento instantáneo, la privacidad de los datos continuará dominando muchas decisiones de almacenamiento y procesamiento de datos. 

Este año, vimos la introducción del Reglamento General de Protección de Datos (GDPR, por sus siglas en inglés) en la UE que tuvo consecuencias de gran alcance en la forma en que las empresas recopilan y utilizan datos privados. Veremos más interés en esto, tanto desde la perspectiva de recopilar y procesar datos como de normas y regulaciones gubernamentales adicionales. 

Arquitecturas basadas en eventos 

Las arquitecturas de microservicios evolucionarán aún más. Por ejemplo, como los servicios específicos requieren cada vez más la capacidad de trabajar en conjunto con aplicaciones monolíticas, Mesh App y Services Architectures (MASA) están ganando popularidad. Este enfoque utiliza servicios de datos para escuchar eventos y reaccionar a ellos en tiempo real. 

La conclusión más importante de estas predicciones de 2019 debería ser que nos dirigimos a un futuro de latencia cero. Este es un futuro emocionante porque, finalmente, al igual que la electricidad, comenzaremos a ver que la computación en tiempo real está disponible de forma generalizada e invisible al mismo tiempo. 

Esto requerirá que las empresas reconsideren cómo recopilan y procesan sus datos, una vez más es ahí donde radican algunos de los mayores desafíos y oportunidades de este cercano 2019.
Compartir Compartir

Sobre el autor Nubia Marquez

    Comentarios Blogger
    Comentarios Facebook

0 comentarios:

Publicar un comentario