Predicciones de Big Data para 2016

Predicciones de Big Data para 2016

10 factores para impulsar el uso de Big Data en las organizaciones.

Las organizaciones de cualquier tamaño están encontrando nuevas maneras de capturar y utilizar más datos. El impulso para que el Big Data sea más dominante se dará durante el 2016 según las predicciones principales de Oracle:

1. Los datos civiles operan como los datos científicos: Las estadísticas complejas aún están limitadas a los datos científicos; sin embargo, la toma de decisiones basada en datos no debería estarlo. Las herramientas más simples de grandes datos permitirán a los analistas de negocio comprar conjuntos de datos en clústeres empresariales administrados en Hadoop, darles forma en nuevas combinaciones de Mashup, e incluso analizarlos con técnicas de aprendizaje automáticas exploratorias. Extender este tipo de exploración a un público más amplio mejorará el acceso a grandes volúmenes de datos y brindará hipótesis más ricas y experimentos que conduzcan al siguiente nivel de innovación.

2. Despegue de los laboratorios de datos experimentales: Con más hipótesis para investigar, los científicos de datos verán una creciente demanda de sus habilidades por parte de las organizaciones ya establecidas. Por ejemplo, los bancos, las aseguradoras y las empresas de calificación crediticia se volverán a los algoritmos para fijar el precio del riesgo y evitar el fraude con mayor eficacia. Pero muchas de esas decisiones son difíciles de migrar de juicios inteligentes a reglas claras. Se espera un auge de las experiencias de riesgo de falta de pago, suscripción de políticas y detección de fraudes ya que las empresas tratan de identificar puntos de acceso para tener la ventaja algorítmica más rápido que la competencia.

3. ‘Hacerlo usted mismo’ da paso a las soluciones: Los primeros en adoptar el Big Data no tenían más opción que construir sus propios clústeres y ambientes de Big Data. Pero construir, administrar y mantener estos sistemas únicos construidos sobre Hadoop, Spark y otras tecnologías emergentes es costoso y requiere mucho tiempo. De hecho, el tiempo promedio de construcción de las soluciones es de seis meses, y ¿quién puede esperar tanto tiempo? En 2016 se verán tecnologías maduras y serán más dominantes gracias a servicios en la nube y dispositivos con automatización y normalización pre configuradas.

4. La virtualización de datos se convierte en realidad: Las empresas no solo captan una mayor variedad de datos, sino que aplican sobre ellos distintos algoritmos, sistemas de análisis y aplicaciones. Pero los desarrolladores y analistas no deberían saber qué datos están en un lugar o limitarse solo a los métodos de acceso que ese repositorio soporta. Se busca un cambio de enfoque usando una única tecnología, como NoSQL, Hadoop, relacional, espacial o gráfica, para aumentar la confianza en la virtualización de datos.

Los usuarios y las aplicaciones se conectan a los datos virtualizados a través de lenguajes SQL, REST y de programación. El éxito de esta tecnología de datos ofrecerá un rendimiento igual al de los métodos nativos, compatibilidad y seguridad completa atrasada.

5. La programación de flujo de datos abre las compuertas: Las olas iniciales de adopción de Big Data se concentraron en el procesamiento de datos codificados a mano. Las nuevas herramientas de gestión ayudarán a desacoplar y aislar las tecnologías de Big Data a partir de las necesidades de procesamiento de datos de mayor nivel. También, se podrá observar la aparición de la programación de flujo de datos que aprovecha el paralelismo extremo, proporciona una simple reutilización de los operadores funcionales y da soporte conectable para funciones de aprendizaje de estadística y de máquina.

6. Big data ofrece a la inteligencia artificial algo en qué pensar: 2016 será el año en que se apliquen tecnologías de Inteligencia Artificial (AI) como Aprendizaje Automático o ‘Machine Learning’ (ML), Procesamiento del Lenguaje Natural o ‘Natural Language Processing’ (PLN) y Gráficos de Propiedad o ‘Property Graphs’ (PG), a los desafíos de procesamiento de datos comunes. Mientras ML, PLN y PG ya han sido accesibles como bibliotecas API de Big Data, el nuevo cambio incluirá amplias aplicaciones de estas tecnologías en herramientas de TI que soportan aplicaciones, análisis en tiempo real y datos científicos.

7. Los ‘pantanos de datos’ tratan la procedencia para aclarar las cosas: Saber de dónde provenían los datos solía ser una capacidad deseable porque gran parte de los datos que alimentan tableros corporativos provino de los almacenes de datos confiables. Pero en la era de los grandes datos el linaje de datos es un deber, porque los clientes están fusionando datos de la empresa con los conjuntos de datos de terceros. Algunas de estas nuevas combinaciones incorporan alta calidad, al venir de un proveedor verificado. Pero otros utilizarán los datos que no son oficialmente perfectos, pero lo suficientemente buenos para el desarrollo de prototipos. Cuando los resultados valiosos provengan de estas exploraciones, los gerentes observarán el linaje para saber la cantidad de trabajo que se requiere para elevarlo a niveles de calidad de producción.

8. IoT + Nube = aplicación revolucionaria de Big Data: Los servicios de Big Data en la nube son la magia detrás del Internet de las cosas (IoT). La ampliación de los servicios en la nube no solo permite captar los datos de los sensores, sino que también los alimenta en análisis de Big Data y algoritmos para hacer uso de ellos. Los servicios de alta seguridad en la nube del IoT también ayudarán a los fabricantes a crear nuevos productos de forma segura sobre los datos analizados sin intervención humana.

9. La política de datos impulsa la nube híbrida: Saber de dónde provienen los datos, bien sea sensores, sistemas, nación, entre otros aspectos, hará que sea más fácil para los gobiernos hacer cumplir las políticas de datos. Las corporaciones multinacionales en movimiento hacia la nube estarán atrapadas en conflictos de intereses y se moverán hacia la implementación de nubes híbridas con máquinas en los centros de datos regionales, que actúan como un centro local de servicios para la nube más grande, lo que impulsa la reducción de costos y el cumplimiento normativo.

10. Los nuevos sistemas de clasificación de seguridad equilibran el acceso: El aumento de la conciencia del consumidor sobre las formas cómo los datos se pueden recolectar, compartir, almacenar y robar, aumentarán las solicitudes de protección reglamentaria de información personal. Se espera ver a los políticos, académicos y columnistas lidiando con los límites y la ética. Las organizaciones aumentarán el uso de sistemas de clasificación que categoricen los documentos y datos en grupos, con políticas predefinidas para el acceso, la redacción y protección. La amenaza constante de los hackers informáticos cada vez más sofisticados incitará a las empresas a reforzar la seguridad, auditar el acceso y el uso de los datos.

e-max.it: your social media marketing partner
Read 8741 times
Corporación Colombia Digital

@colombiadigital

La Corporación Colombia Digital (CCD) es una organización dedicada a promover el uso y apropiación de las tecnologías de información y las comunicaciones, en beneficio del desarrollo social y económico.