Cloudera und Hortonworks kündigte die Fusion: ein Rekord von Hadoop Hit!

Während der Nationalfeiertag, zwei Riesen im Bereich der großen Daten Unternehmen Cloudera und Hortonworks angekündigten Fusion von Gleichen, Cloudera zum Erwerb von Aktien Hortonworks, Cloudera Aktionäre schließlich fusionierte Unternehmen mit 60% beteiligt. Der Deal bedeutet, dass Hadoop-Markt nicht mehr den Status einer Konfrontation zwischen den beiden Rivalen halten.

In der Hadoop Welt, größte und bekannteste Unternehmen ist Cloudera. Cloudera Bemühungen Unterstützung für die Open - Source zur Verfügung zu stellen Hadoop, während der Datenverarbeitung Rahmen erstreckt sich auf einen umfassenden „ Enterprise Data Centre “ -Kategorie. Hortonworks sind eine globale Management - Plattform von Unternehmensdaten, sondern auch ein führender Anbieter von Dienstleistungen und Lösungen, die 100 Unternehmen in mehr als die Hälfte Angebot ‚jede Art von Daten‘ verwertbarer Informationen. Die beiden größten Datendienstanbieter Cloudera und Hortonworks kündigte eine Fusion der weltweit führenden Expressdatenplattform zu schaffen.

Die Transaktion Punkte:

1, der weltweit führende Datenplattform zu schaffen, den Umfang und die Ressourcen zu erhöhen, die branchenweit erste Enterprise-Klasse Cloud-Daten zu liefern, Benutzerfreundlichkeit und Flexibilität der öffentlichen Cloud zu verbessern;

2, stellen eine klare Industriestandards;

3, beschleunigt die Marktentwicklung und die Förderung von Innovation im Bereich der Vernetzung, Streaming Media, Data Warehousing, Hybrid-Cloud, maschinelles Lernen, künstliche Intelligenz

4, die Verwendung von komplementären Produkten Marktchancen zu erweitern, einschließlich Hortonworks Dataflow und Cloudera Daten Wissenschaft Workbench

5, stärken Partnerschaften mit öffentlichen Cloud-Anbieter und Systemintegratoren

6, wird erwartet, dass erhebliche wirtschaftliche Vorteile und eine verbesserte Rentabilität zu erreichen:

  • Der Umsatz von rund $ 720 Millionen

  • Mehr als 2.500 Kunden

  • Mehr als 800 Kunden in mehr als $ 100.000 ARR

  • Mehr als 120 Kunden ARR mehr als $ 1 Million

  • Mehr als Synergien $ 125 Millionen von jährlichen Kosten

  • CY20 Cashflow von mehr als $ 150 Millionen

  • Mehr als 500 Millionen $ in bar, keine Schulden

Berater, Management und das Board of Directors und andere Trends

Nach Abschluss der Transaktion, Tom Reilly, CEO von Cloudera wird als CEO dienen; Hortonworks Scott Davidson, Chief Operating Officer, als Chief Operating Officer dienen; Hortonworks Chief Product Officer Arun C.Murthy Chief Product Officer wie die kombinierten Unternehmens dienen; Cloudera Chief Financial Officer Jim Frankola wird als CFO des fusionierten Unternehmens dienen. Hortonworks CEO RobBearden wird das Board beitreten. Die derzeitigen Mitglieder des Vorstands MartyCole Cloudera wird als Vorsitzender des Vorstands dienen.

Die neue Gesellschaft Board of Directors wird zunächst umfassen neun Direktoren. Herr Bearden, darunter vier Direktoren, darunter der Vorstand aus bestehenden Hortonworks wird kommen. Herr Reilly, darunter fünf Direktoren, darunter der Vorstand aus bestehenden Cloudera wird kommen. Der kombinierte Vorstand wird zehnte Direktoren wählen.

Welche, Morgan Stanley & Co.LLC als Cloudera Finanzberater, Fenwick & West.LLP als Rechtsberater tätig. Qatalyst Partners diente als Finanzberater von Hortonworks, Latham & Watkins.LLP als Rechtsberater tätig.

Hadoop ist ein Synonym für große Datenmengen, aber die Markt- und Kundenbedürfnisse geändert haben, den Zusammenschluss der beiden Unternehmen wird zweifellos Hadoop ist ein Hit. Angetrieben von mehreren großen Trends, die Auswirkungen von Hadoop allmählich gesenkt!

Öffentliche Clouds sind steigende Flut

Der erste Trend ist das Unternehmen Übergang zu öffentlicher Cloud. Unternehmen aller Größen sind die Erhöhung der Verwendung von AWS, Azure und Google Cloud-Dienste, auf Kosten der On-Premise-Infrastruktur und Software. Laut IDC und Gartner-Bericht, der Enterprise-Servers Umsatzrückgang in Folge. Top drei Cloud-Anbieter (90% Marktanteil in der Cloud) bieten ihre eigenen gehosteten Hadoop / Spark-Dienste wie Amazon Elastic Map Reduce (EMR). Diese sind voll integrierte Produkt mit einem geringeren Betriebskosten und weniger teuer. Wenn Unternehmen Cloud-Computing drehen, die Auswahl solcher Produkte wie die Hadoop-Cloud-Plattform, die Zeit und Mühe, einen Teil sparen, die fast eine natürliche Entscheidung. Und ironischerweise ist das, Cloudera und nicht beigetreten die Cloud-Ära, der klare Vorteil auf Hadoop Unternehmen nicht, diese Gelegenheit erkunden.

Lagerkosten  reduziert

Der zweite große Trend ist, was? Economics of Cloud Storage wird Kosten von Hadoop Lagerung aufgerollt werden. Wenn im Jahr 2005 ins Leben gerufen, Hadoop Distributed File System (HDFS) ist eine revolutionäre eine große Verbesserung, wird es mit normalen Server-Festplatte kombiniert werden, und wandeln sie in ein System verteilter Speicher kompatible parallele IO durch eine Java-Anwendung zu sein. Zu dieser Zeit haben wir etwas ähnliches wählen kann, ist es ein wichtiger Bestandteil ist, die parallele Verarbeitung von großen Datenmengen ermöglicht eine einzelne Maschine läuft nicht geeignet ist. Aber das war vor 13 Jahren, jetzt viel viele billigeren Alternativen gibt es, vor allem Objektspeicherdienste wie AWS S3, Azure Blob Storage und Google Cloud Storage. Eine Wolke Objektspeicher kostet etwa $ 20 pro Monat von TB, während HDFS über $ 100 pro Monat (ohne Betriebskosten). Zum Beispiel Service von Google ist nur die HDFS HDFS Operationen in ein Objekt Speicherbetrieb, aber der Preis ist fünfmal billiger.

Schneller, besser, billiger Cloud-Datenbank

Hadoop Problem ist noch nicht da, weil sie von den Cloud-Anbietern nicht nur Hadoop / Funken direkten Wettbewerb mit Dienstleistungen und Objektspeicherdienste. Der dritte Trend ist „kein Server“, es erscheint vollständig eliminiert die Notwendigkeit, Hadoop oder Funken zu laufen. Funken Ausführungsform einer gemeinsamen Nutzung für verteilen ad-hoc-User-Prozess SQL-Abfragen. Google übernahm die Führung im Jahr 2011 einen revolutionären Dienst namens BigQuery eingeführt und in eine ganz andere Art und Weise das gleiche Problem zu lösen. Es ermöglicht eine beliebige Anzahl von Daten in seinem Objektspeicherdienst Ad-hoc-Abfrage (ohne Laden andere speziellen Speicher es in HDFS und) für die Rechenzeit, die Nutzer bezahlen nur dann gespeichert, auszuführen: Wenn Sie 1000 Kerne, nur 3,5 Sekunden eine Abfrage, ist dies alle Kosten bezahlt. Die Unternehmen brauchen nicht um den Server zu konfigurieren, um das Betriebssystem installieren, Software installieren, zu konfigurieren alle Inhalte auf 1000 Cluster-Knoten erweitern, sowie Hadoop / Funken bieten die gleichen Cluster und Aufmerksamkeit. Google hat alle Grunzenarbeit, so der Name "Server-less." Einige Banken laufen durch einen 2000-Knoten Hadoop / Spark-Cluster von Dutzenden von IT-Personal zu bedienen und zu warten und kann nicht BigQuery Flexibilität, Geschwindigkeit und das Ausmaß zu Rivalen, muss auch Lohn für alle Hardware, Software und Personalkosten zu betreiben und zu warten hadoop.

BigQuery ist ein Beispiel. Andere Cloud-Datenbank-Service hat auch eine groß angelegte, hochflexibel, globale Verteilung und andere Merkmale. Startups Schneeflocke, Google Big Table, AWS Aurora und Microsoft Cosmos und der Service, den sie bieten als Hadoop Installation / Funken einfacher zu bedienen, kann der Benutzer sein und in 5 Minuten ausgeführt wird, der gesamte Prozess dauert nur zehn Dollar, Sie brauchen nicht 50 Millionen-Dollar-Bestellung und Wochen der Installation, Konfiguration und Schulung.

Container, Kubernetes und maschinelles Lernen

Der vierte große Trend ist der Behälter und Kubernetes. Hadoop / Funken nur eine Speicherumgebung, eine Computing-Umgebung ist. Auch im Jahr 2005 zurück, Hadoop ein weiteres revolutionäres Produkt geboren wurde, ist diese MapReduce, MapReduce Parallelrechenverfahren Java-Anwendung einen Rahmen für die zur Verfügung stellt. Aber Cloudera und Hortonworks Infrastruktur in Maschinen Python und R Lernen steht im Widerspruch zu den heutigen Daten Wissenschaftler Java-centric (zentriert bei Scala Funke). Unternehmen müssen kontinuierlich verbessern und iterative Maschinenmodelle Lernen und erlaubten Produktionsdaten zu lernen, was bedeutet, dass Python und R-Modelle für eine lokale Bereitstellung erforderlich sind, wenn Sie die Fähigkeit zu maschinellem Lernen der Hoffnung.

Container und Kubernetes mit Python und R, wie es ist, ein flexibler und leistungsfähiger Rechenrahmen zu schaffen. Auf jedem Fall, das ist die Ziele des Software-Entwicklungs-Teams, sie wahrscheinlich nicht die Absicht hat, die neuen Mikro-Service-Anwendungen auf der Hadoop / Funken zu verteilen, weil es zu kompliziert und Einschränkungen.

Nach fast 10 Jahren, Cloudera und Hortonworks konnte der weltweit großen Datenzentrum werden, aber, und jetzt hat sich der Fokus auf große Daten an anderer Stelle verschoben. Führende Cloud-Computing-Unternehmen wie Cloudera und Hortonworks ist nicht das gleiche wie ein großen Hadoop / Spark-Cluster ausgeführt wird, ziehen sie eine verteilte Cloud-Datenbanken und Anwendungen, die auf dem Behälters laufen. Sie verwenden Python, R, und andere Nicht-Java-Sprachlern-Maschine. Immer mehr Unternehmen wenden sich an einen ähnlichen Ansatz, weil sie die gleiche Geschwindigkeit und das Ausmaß erhalten möchten.

Autor

Mathew Lodge, Senior Vice President für Produkt und Vermarktung von Anaconda. Er verfügt über 20 Jahre Erfahrung im Bereich Cloud Computing und Produkten. Vor Anaconda seinen Eintritt als Chief Operating Officer Weaveworks serviert wird, ist Weaveworks ein Container und Mikro-Service-Netzwerk-Management-und Start-ups, er diente als Vice President von Cloud-Service von VMware und mitbegründet Dienst der vCloud Air VMwares IaaS.

Veröffentlicht 495 Originalarbeiten · erntete Lob 446 · Ansichten 140.000 +

Ich denke du magst

Origin blog.csdn.net/lixinkuan328/article/details/104789264
Empfohlen
Rangfolge