La importancia de SQL para hadoop
Hay razones de peso que SQL ha demostrado ser resistente. La industria de TI ha tenido 40 años de experiencia con SQL, ya que fue desarrollado por IBM a principios de 1970. Con el aumento de la adopción de las bases de datos relacionales en la década de 1980, SQL, ya se ha convertido en una habilidad estándar para la mayoría de los profesionales de TI.
Se puede ver fácilmente por qué SQL ha tenido tanto éxito: Es relativamente fácil de aprender, y consultas SQL es bastante legible. Esta facilidad se puede remontar de nuevo a un punto de diseño de la base en SQL - el hecho de que se trata de un declarativo idioma, a diferencia de una imperativo idioma.
Para un lenguaje para ser medios declarativas que las consultas tienen que ver sólo con la naturaleza de los datos que se solicitan - idealmente, no debería haber nada en su consulta que determina Cómo el tratamiento debe ser ejecutado. En otras palabras, todo lo que indique en SQL es la información que desea volver desde el sistema - no cómo conseguirlo.
Por el contrario, con un lenguaje imperativo (C, por ejemplo, o Java o Python) su código consta de instrucciones donde se definen las acciones que necesita el sistema para ejecutar.
Además de los (fácilmente apalancadas) habilidades de sus profesionales de TI-SQL amable, el valor de las aplicaciones de bases de datos décadas también han sido construidas con interfaces SQL. Cuando se habla de cómo Hadoop puede complementar el almacén de datos, está claro que las organizaciones van a almacenar datos estructurados en Hadoop. Y como resultado, van a correr un poco de su lógica de la aplicación existente contra Hadoop.
Nadie quiere pagar por las aplicaciones sean reescritos, por lo que una interfaz de SQL es altamente deseable.
Con el desarrollo de interfaces de SQL a los datos de Hadoop, una tendencia interesante es que de análisis de negocios comerciales y herramientas de gestión de datos son casi todos subiendo al carro Hadoop, incluyendo la inteligencia empresarial Reporting- Extracto paquetes- estadística, transformar y marcos de carga (ETL) - y una variedad de otras herramientas. En la mayoría de los casos, la interfaz a los datos Hadoop Hive es.