Grandes proveedores de la nube de datos
Los proveedores de cloud vienen en todas formas y tamaños y ofrecen muchos productos diferentes para grandes datos. Algunos son nombres de la casa, mientras que otros están surgiendo recientemente. Algunos de los proveedores de la nube que ofrecen servicios IaaS que se pueden utilizar para los grandes datos incluyen Amazon.com, AT & T, GoGrid, Joyent, Rackspace, IBM y Verizon / Terremark.
Conteúdo
Elástico Pública Compute Cloud de Amazon para grandes datos
En la actualidad, uno de los proveedores de servicios de más alto perfil de IaaS es Amazon Web Services con su Elastic Compute Cloud (Amazon EC2). Amazon no comenzó con la visión de construir un gran negocio de servicios de infraestructura.
En lugar de ello, la compañía construyó una infraestructura masiva en apoyo de su propio negocio de venta al por menor y descubrió que estaban subutilizados sus recursos. En lugar de permitir que este activo para fuera de uso, se decidió aprovechar este recurso, mientras que la adición a la línea de fondo. Servicio EC2 de Amazon fue lanzado en 2006 y sigue evolucionando.
Amazon EC2 ofrece escalabilidad bajo el control del usuario, con el usuario el pago de los recursos por la hora. El uso del término elástico en la denominación de EC2 de Amazon es significativo. Aquí, la elasticidad se refiere a la capacidad de que los usuarios tienen de EC2 para aumentar o disminuir los recursos de infraestructura asignados para satisfacer sus necesidades.
Amazon también ofrece otros servicios de datos grandes a los clientes de su cartera de servicios web de Amazon. Estos incluyen los siguientes:
Amazon Elastic MapReduce: Dirigido para el procesamiento de grandes volúmenes de datos. Elastic MapReduce utiliza un marco Hadoop alojado ejecuta en EC2 y Amazon Simple Storage Service (Amazon S3). Ahora los usuarios pueden ejecutar HBase.
Amazon DynamoDB: Un totalmente gestionado no sólo SQL (NoSQL) servicio de base de datos. DynamoDB es tolerante a fallos y de alta disponibilidad de servicios de almacenamiento de datos que ofrece auto-aprovisionamiento, escalabilidad transparente, y administración sencilla. Se implementa en los SSD (discos de estado sólido) para una mayor fiabilidad y alto rendimiento.
Amazon Simple Storage Service (S3): Un servicio web a gran escala diseñado para almacenar cualquier cantidad de datos. La fuerza de su centro de diseño es el rendimiento y la escalabilidad, así que no es tan característica cargado como otros almacenes de datos. Los datos se almacenan en " cubos " y usted puede seleccionar una o más regiones del mundo para el almacenamiento físico para atender las necesidades de latencia o reglamentarias.
Amazon computación de alto rendimiento: Tuned para tareas especializadas, este servicio ofrece baja latencia sintonizados racimos de computación de alto rendimiento. Muy a menudo utilizado por los científicos y académicos, HPC está entrando en la corriente principal, debido a la oferta de Amazon y otros proveedores de HPC. Racimos Amazon HPC son especialmente diseñado para cargas de trabajo específicas y pueden reconfigurarse fácilmente para nuevas tareas.
Amazon RedShift: Disponible en la vista previa limitada, RedShift es un servicio de almacenamiento de datos petabyte escala construida sobre una arquitectura escalable MPP. Gestionado por Amazon, que ofrece una alternativa segura y fiable a los almacenes de datos internos y es compatible con varias herramientas de inteligencia de negocios populares.
Servicios de datos grande de Google
Google, el gigante de las búsquedas de Internet, también ofrece una serie de servicios en la nube específicas para grandes datos. Estos incluyen los siguientes:
Google Compute Engine: Una capacidad basada en la nube para la informática de máquina virtual, Google Compute Engine ofrece un entorno informático seguro, flexible de centros de datos energéticamente eficientes. Google también ofrece soluciones de gestión de carga de trabajo de varios socios tecnológicos que han optimizado sus productos de Google Compute Engine.
Google Gran Pregunta: Le permite ejecutar consultas SQL como a gran velocidad contra grandes conjuntos de datos de potencialmente miles de millones de filas. A pesar de que es bueno para la consulta de datos, los datos no pueden ser modificados después de que esté en ella. Considere Google Gran Consulta una especie de sistema de procesamiento analítico en línea (OLAP) para datos grandes. Es bueno para la presentación de informes ad hoc o análisis exploratorio.
Google Prediction API: Una herramienta de aprendizaje automático basado en la nube para grandes cantidades de datos, predicción es capaz de identificar patrones en los datos y luego recordarlas. Se puede obtener más información sobre un patrón cada vez que se utiliza. Los patrones pueden ser analizados para una variedad de propósitos, incluyendo la detección de fraudes, análisis de rotación, y el sentimiento cliente.
Microsoft Azure para grandes datos
Sobre la base de las abstracciones de Windows y SQL, Microsoft ha convertido en productos de un conjunto de herramientas de desarrollo, el apoyo de la máquina virtual, la gestión y los servicios de medios, dispositivos y servicios móviles en una oferta PaaS. Para los clientes con amplia experiencia en .Net, SQL Server y Windows, la adopción de la PaaS basado en Azure es sencillo.
Para hacer frente a las nuevas necesidades para integrar grandes volúmenes de datos en soluciones de Windows Azure, Microsoft también ha agregado Windows Azure HDInsight. Construido sobre la plataforma de datos Hortonworks (HDP), que, según Microsoft, ofrece 100 por ciento de compatibilidad con Hadoop, HDInsight admite la conexión con otros business intelligence (BI) Herramientas de Microsoft Excel y. Además de Azure HDInsight también se puede implementar en Windows Server.
OpenStack para grandes datos
Iniciado por Rackspace y la NASA, OpenStack está implementando una plataforma en la nube abierta dirigida a cualquiera de las nubes públicas o privadas. Mientras que la organización está bien gestionado por Rackspace, se trasladó a una fundación OpenStack separada. Aunque las empresas pueden aprovechar OpenStack para crear implementaciones propietarias, la designación OpenStack requiere la conformidad con una implementación estándar de los servicios.
El objetivo de OpenStack es proporcionar una escala masiva, especificación nube multiusuario que puede ejecutarse en cualquier hardware. OpenStack es la construcción de un gran ecosistema de socios interesados en la adopción de su plataforma en la nube, incluyendo Dell, HP, Intel, Cisco, Red Hat e IBM, junto con al menos otras 100 que están utilizando OpenStack como base para sus ofertas de nube.
En esencia, OpenStack es una fuente iniciativa IaaS libre construido en Ubuntu, un sistema operativo basado en la distribución Debian Linux. También puede funcionar con la versión de Red Hat Linux.
OpenStack ofrece una gama de servicios, incluyendo computación, almacenamiento de objetos, catálogo y repositorio, cuadros de mando, la identidad y la creación de redes. En términos de datos grandes, Rackspace y Hortonworks (un proveedor de una plataforma de gestión de datos de código abierto basado en Hadoop) anunciaron que Rackspace lanzará un servicio Hadoop OpenStack pública basada en la nube, que será validado y apoyado por Hortonworks y permitirá a los clientes para crear rápidamente un entorno de datos grande.