Cloudera y Hortonworks anunciaron la fusión: un registro de Hadoop éxito!

Durante el Día Nacional, dos gigantes en el campo de las grandes empresas de datos de Cloudera y Hortonworks anunciaron fusión entre iguales, Cloudera a las acciones Hortonworks adquirir la compañía, los accionistas Cloudera en última instancia, combinan una participación del 60%. Los medios acuerdo que Hadoop mercado ya no puede mantener el estado de un enfrentamiento entre los dos rivales.

En el mundo de Hadoop, más grande y más conocida compañía es Cloudera. Cloudera esfuerzos para proporcionar apoyo para el código abierto Hadoop, mientras que los datos marco procesamiento se extiende a una amplia " centro de datos empresarial categoría". Hortonworks es una plataforma global de gestión de datos de la empresa, sino también un proveedor líder de servicios y soluciones, las 100 empresas en más de la mitad de la oferta 'cualquier tipo de datos de información procesable. Los dos servicios de datos más grandes y proveedor de Cloudera Hortonworks anunciaron una fusión para crear la plataforma de datos expreso más importantes del mundo.

Los puntos de transacción:

1, para crear la plataforma de datos más importantes del mundo para aumentar la escala y los recursos para proporcionar los primeros datos de la nube de clase empresarial de la industria, mejorar la facilidad de uso y flexibilidad de la nube pública;

2, establecer unos estándares de la industria claros;

3, acelerar el desarrollo del mercado, y promover la innovación en el campo de la creación de redes, medios de transmisión, almacenamiento de datos, la nube híbrida, aprendizaje automático, la inteligencia artificial

4, el uso de productos complementarios para ampliar las oportunidades de mercado, incluyendo Hortonworks flujo de datos y Cloudera Science Data Workbench

5, fortalecer las asociaciones con los proveedores de nube pública e integradores de sistemas

6, se espera que genere importantes beneficios económicos y mejora de la rentabilidad:

  • Ingresos de aproximadamente $ 720 millones de

  • Más de 2.500 clientes

  • Más de 800 clientes en más de $ 100,000 ARR

  • Más de 120 clientes Arr más de $ 1 millón

  • Más de $ 125 millones de las sinergias de costos anuales

  • CY20 flujo de caja en exceso de $ 150 millones

  • Más de $ 500 millones en efectivo, sin deuda

Consultores, la gestión y el consejo de administración y otras tendencias

Tras la finalización de la transacción, Tom Reilly, CEO de Cloudera servirá como CEO; Hortonworks de Scott Davidson, director de operaciones, servirá como director de operaciones, director de producto Hortonworks Arun C.Murthy servirá como director de producto de la compañía combinada; Cloudera el director financiero Jim Frankola servirá como director financiero de la compañía combinada. Hortonworks CEO RobBearden se unirá a la junta. Los actuales miembros de la Junta MartyCole Cloudera servirán como Presidente de la Junta.

El directorio de la nueva compañía inicialmente estará compuesto por nueve directores. El Sr. Bearden, incluyendo cuatro directores, entre ellos el Consejo de Administración procederá de Hortonworks existentes. Reilly, incluyendo cinco directores, incluyendo el consejo de administración vendrán de Cloudera existente. La junta combinada de Administración elegirá décimo directores.

Lo cual, Morgan Stanley & Co.LLC como asesor financiero de Cloudera, Fenwick y West.LLP actuaron como asesores legales. Qatalyst Partners actuó como asesor financiero a Hortonworks, Latham & Watkins.LLP actuaron como asesores legales.

Hadoop ha sido sinónimo de grandes volúmenes de datos, pero las necesidades del mercado y de los clientes han cambiado, la fusión de las dos empresas, sin duda, Hadoop es un disco de éxito. Impulsado por varias tendencias importantes, el impacto de Hadoop se disminuye gradualmente!

Las nubes públicas están subiendo la marea

La primera tendencia es la transición de la empresa a la nube pública. Empresas de todos los tamaños están aumentando el uso de los servicios de AWS, Azure y Google nube, a expensas de la infraestructura y el software en las instalaciones. De acuerdo con IDC y Gartner informe, la disminución de los ingresos servidor de la empresa en una fila. Los tres primeros proveedores de la nube (la cuota de mercado del 90% en la nube) proporcionan sus propios servicios de Spark alojados Hadoop / elástico, como Mapa de Amazon a reducir (EMR). Estos son productos totalmente integrados, con un coste de propiedad más bajo y menos costoso. Si las empresas están recurriendo a la computación en nube, la elección de este tipo de productos como la plataforma Hadoop nube, que ahorra tiempo y esfuerzo una parte de, que es casi una decisión natural. E, irónicamente, es que, Cloudera y no unirse a la era de la nube, la clara ventaja en compañía de Hadoop no exploró esta oportunidad.

Los costes de almacenamiento  reducidos

La segunda gran tendencia es que? Economía de almacenamiento en la nube se está implementando gastos de almacenamiento de Hadoop. Cuando se lanzó en 2005, Sistema de archivos distribuido Hadoop (HDFS) es un revolucionario una gran mejora, se combina con la unidad de disco duro del servidor ordinaria, y convertirlos en un sistema de almacenamiento distribuido para que sea compatible paralelo IO mediante una aplicación Java. En ese momento, hicimos algo similar puede elegir, es un componente clave que permite el procesamiento paralelo de grandes conjuntos de datos no es adecuado para una sola máquina en funcionamiento. Pero eso fue hace 13 años, ahora hay una gran cantidad de alternativas más baratas mucho, principalmente los servicios de almacenamiento de objetos tales como AWS S3, almacenamiento Azure Blob y Google Cloud Storage. A los costos de almacenamiento de objetos de nube alrededor de $ 20 por mes de la tuberculosis, mientras que el HDFS aproximadamente $ 100 por mes (sin incluir los gastos de funcionamiento). Por ejemplo, el servicio de Google es sólo las operaciones HDFS HDFS en una operación de almacenamiento de objetos, pero el precio es cinco veces más barato.

Más rápido, mejor, más barato base de datos de la nube

Hadoop problema no se detiene allí, porque no sólo por el proveedor de la nube Hadoop / Spark competencia directa con los servicios y servicios de almacenamiento de objetos. La tercera tendencia es "sin servidor", aparece elimina completamente la necesidad de ejecutar Hadoop o Chispa de. Spark realización de un uso común para distribuida ad-hoc consultas proceso de usuario SQL. Google tomó la iniciativa en 2011 introdujo un servicio revolucionario llamado BigQuery, y de una manera totalmente diferente para resolver el mismo problema. Permite ejecutar cualquier cantidad de datos almacenados en su servicio de almacenamiento de objetos de consultas ad hoc (sin carga en HDFS y otra especial de almacenamiento), los usuarios sólo pagan por el tiempo de cálculo: si necesita 1,000 núcleo, a sólo 3,5 segundos para ejecutar una consulta, esto es todos los gastos pagados. Las empresas no tienen que configurar el servidor, instalar el sistema operativo, instalar software, configurar todos los contenidos se ampliará a 1.000 nodos del clúster, así como Hadoop / Spark proporcionar al mismo grupo y atención. Google hizo todo el trabajo pesado, por lo que el nombre es "sin servidor". Algunos bancos dirigidos por un 2000-nodo de clúster Hadoop / Chispa de la del personal de TI docenas para operar y mantener, y no pueden flexibilidad BigQuery, la velocidad y la escala a su rival, también deben pagar todos los costes de hardware, software y personal para ejecutar y mantener Hadoop.

BigQuery es un ejemplo. Otro servicio de base de datos en la nube también tiene un gran escala, altamente flexible, la distribución global y otras características. Los arranques del copo de nieve, Google Gran Mesa, AWS Aurora y Microsoft Cosmos, y el servicio que prestan a la instalación de Hadoop / Spark más fácil de usar, el usuario puede estar en funcionamiento en 5 minutos, todo el proceso toma sólo unas decenas de dólares, que no es necesario 50 para millones de compra de dólares y semanas de la instalación, configuración y formación.

Contenedor, Kubernetes y aprendizaje automático

La cuarta tendencia importante es el contenedor y Kubernetes. Hadoop / Spark sólo un entorno de almacenamiento, un entorno informático es. Además, en 2005, Hadoop otro producto revolucionario nació, esto es MapReduce, el método de cálculo de MapReduce paralelo aplicación Java proporciona un marco para. Pero Cloudera y Hortonworks infraestructura en aprender Python y R máquina es incompatible con los científicos de datos actuales centrado en Java (centrado en Scala Chispa). Las empresas tienen que mejorar de forma continua y la máquina iterativo modelos de aprendizaje y permite aprender los datos de producción, lo que significa que los modelos R Python y son necesarias para la implementación local, si la esperanza capacidad de aprendizaje automático.

Recipiente y Kubernetes con Python y R, como se distribuye para proporcionar un marco de computación más flexible y potente. En cualquier caso, estos son los objetivos del equipo de desarrollo de software, es probable que no tenían la intención de distribuir las nuevas aplicaciones de micro-servicio en la parte superior de Hadoop / Spark, porque es demasiado complicado y restricciones.

Después de casi 10 años, y Cloudera Hortonworks fue capaz de llegar a ser grandes centros de datos del mundo, sin embargo, y ahora la atención se ha desplazado a grandes volúmenes de datos en otro lugar. Las principales compañías de computación en la nube como Cloudera y Hortonworks no es lo mismo que correr un gran grupo de Hadoop / Spark, prefieren correr a bases de datos y aplicaciones en la nube distribuidos en la parte superior de los contenedores. Ellos usan Python, R, y otra máquina de aprendizaje de idiomas no Java. Cada vez más empresas están recurriendo a un enfoque similar, porque quieren obtener la misma velocidad y la escala.

autor

Mathew Lodge, vicepresidente de productos y marketing de Anaconda. Tiene 20 años de experiencia en computación en la nube y los productos. Antes de unirse a Anaconda, se desempeñó como Weaveworks director de operaciones, Weaveworks es una gestión de la red de contenedores y micro-servicio y la creación de empresas; se desempeñó como vicepresidente de servicios en la nube de VMware, y co-fundador de servicio IaaS del Aire VMware vCloud.

Publicados 495 artículos originales · ganado elogios 446 · Vistas de 140.000 +

Supongo que te gusta

Origin blog.csdn.net/lixinkuan328/article/details/104789264
Recomendado
Clasificación