Características de los análisis de grandes datos

Análisis de grandes datos ha recibido mucha publicidad recientemente, y por una buena razón. Usted tendrá que conocer las características de análisis de datos grande si quieres ser parte de este movimiento. Las empresas saben que algo anda por ahí, pero hasta hace poco, no han sido capaces de extraerlo. Esta empujar el sobre en el análisis es un aspecto interesante del gran movimiento de análisis de datos.

Las empresas están contentos de ser capaces de acceder y analizar los datos que han estado recogiendo o desea obtener una visión de, pero no han sido capaces de administrar o analizar de forma eficaz. Podría implicar visualizar grandes cantidades de datos dispares, o podría implicar avanzado analizados de streaming a usted en tiempo real. Es la evolución en algunos aspectos y revolucionario en otros.

Así que, lo que es diferente cuando su empresa está empujando el sobre con el análisis de datos grande? El gran análisis de datos infraestructura de apoyo es diferente y algoritmos han cambiado para estar al tanto de infraestructura.

Análisis de datos grande debe ser visto desde dos perspectivas:

  • Decisión orientada

  • Acción orientada

El análisis de decisiones orientadas a se asemeja más a la inteligencia de negocio tradicional. Mira subconjuntos selectivos y representaciones de las fuentes de datos más grandes y tratar de aplicar los resultados al proceso de toma de decisiones empresariales. Ciertamente, estas decisiones podrían resultar en algún tipo de acción o cambio de proceso, pero el propósito del análisis es para aumentar la toma de decisiones.

Análisis orientado a la acción se utiliza para la respuesta rápida, cuando surge un patrón o tipos específicos de datos se detectan y se requiere acción. Aprovechando los grandes datos a través del análisis y causando cambios en el comportamiento proactivo o reactivo ofrecen un gran potencial para los primeros adoptantes.

Encontrar y utilizar grandes volúmenes de datos mediante la creación de aplicaciones de análisis puede ser la clave para extraer valor más temprano que tarde. Para realizar esta tarea, es más eficaz para construir estas aplicaciones a medida a partir de cero o por plataformas y / o componentes que aprovechan.

En primer lugar, ver algunas de las características adicionales de análisis de datos grande que lo hacen diferente de los tipos tradicionales de análisis, aparte de los tres Vs del volumen, la velocidad, y la variedad:

  • Puede ser programático. Uno de los mayores cambios en el análisis es que en el pasado que estaba tratando con los conjuntos de datos se podría cargar manualmente en una aplicación y explorar. Con el análisis de datos grande, es posible que se enfrentan a una situación en la que podría comenzar con los datos en bruto que a menudo necesita ser manejado programación para hacer cualquier tipo de exploración debido a la escala de los datos.

  • Puede ser impulsados ​​datos. Mientras que los científicos muchos de datos utilizan un enfoque hipótesis impulsada al análisis de datos (desarrollo de una premisa y recopilar datos para ver si esa premisa es correcta), también puede utilizar los datos para impulsar el análisis - especialmente si usted ha recogido grandes cantidades de la misma . Por ejemplo, puede utilizar un algoritmo de aprendizaje de máquinas para hacer este tipo de análisis de hipótesis gratuita.

  • Se puede utilizar una gran cantidad de atributos. En el pasado, es posible que haya sido tratar con cientos de atributos o características de esa fuente de datos. Ahora usted puede estar tratando con cientos de gigabytes de datos que consisten en miles de atributos y millones de observaciones. Todo está sucediendo en una escala más grande.

  • Puede ser iterativo. Más potencia informática significa que puede repetir en sus modelos hasta que se obtiene la forma en que ellos quieren. He aquí un ejemplo. Suponga que usted está construyendo un modelo que está tratando de encontrar los predictores de ciertos comportamientos de los clientes asociados. Usted puede comenzar la extracción de una muestra razonable de datos o la conexión a donde residen los datos. Es posible construir un modelo para poner a prueba una hipótesis.

    Mientras que en el pasado no puede ser que haya tenido esa cantidad de memoria para que su modelo de trabajo de manera efectiva, se necesita una gran cantidad de memoria física que pasar por las iteraciones necesarias para entrenar el algoritmo. También puede ser necesario el uso de técnicas informáticas avanzadas como el procesamiento del lenguaje natural o redes neuronales que evolucionan de forma automática el modelo basado en el aprendizaje como se añade más datos.

  • Puede ser rápido para obtener los ciclos de cálculo que necesita mediante el aprovechamiento de una infraestructura basada en la nube como servicio. Con la infraestructura como servicio (IaaS) plataformas como Amazon Cloud Services (ACS), puede rápidamente disposición un conjunto de máquinas para ingerir grandes conjuntos de datos y analizarlos rápidamente.




» » » » Características de los análisis de grandes datos