Cloudera et Hortonworks ont annoncé la fusion: un record de Hadoop frappé!

Au cours de la fête nationale, deux géants dans le domaine des grandes entreprises de données Cloudera et Hortonworks ont annoncé la fusion entre égaux, Cloudera aux actions Acquire Hortonworks, les actionnaires Cloudera entreprise a finalement combiné une participation de 60%. Les moyens traitent ce marché Hadoop ne peut plus maintenir l'état d'une confrontation entre les deux rivaux.

Dans le monde Hadoop, la plus grande et la compagnie la plus connue est Cloudera. les efforts de Cloudera pour fournir un soutien pour l'open source Hadoop, alors que le cadre de traitement de données s'étend à une approche globale « Enterprise Data Center catégorie ». Hortonworks est une plate - forme globale de gestion des données d'entreprise, mais aussi un fournisseur de services et solutions, les 100 entreprises dans plus de la moitié offre « tout type de données » informations exploitables . Les deux plus grands fournisseur de services de données Cloudera et Hortonworks ont annoncé une fusion pour créer plateforme de données express au monde.

Les points de transaction:

1, pour créer le leader mondial de la plate-forme de données pour augmenter l'échelle et les ressources pour fournir des premières données de nuage de classe entreprise, d'améliorer la facilité d'utilisation et la flexibilité de l'industrie du cloud public;

2, établir une normes de l'industrie claires;

3, accélérer le développement du marché et promouvoir l'innovation dans le domaine des réseaux, diffusion multimédia en continu, le stockage de données, nuage hybride, l'apprentissage de la machine, l'intelligence artificielle

4, l'utilisation de produits complémentaires pour élargir les opportunités de marché, y compris Hortonworks DataFlow et Cloudera Data Science Workbench

5, renforcer les partenariats avec les fournisseurs de cloud public et les intégrateurs de systèmes

6, devrait générer des retombées économiques importantes et amélioration de la rentabilité:

  • Le chiffre d'affaires d'environ 720 millions $

  • Plus de 2500 clients

  • Plus de 800 clients dans plus de 100 000 $ ARR

  • Plus de 120 clients ARR plus de 1 million $

  • Plus de 125 millions $ de synergies de coûts annuels

  • CY20 flux de trésorerie de plus de 150 millions $

  • Plus de 500 millions $ en espèces, pas de dette

Consultants, la direction et le conseil d'administration et d'autres tendances

Après l'achèvement de la transaction, Tom Reilly, PDG de Cloudera servira en tant que PDG, Hortonworks Scott Davidson, chef de l'exploitation, servira de chef de l'exploitation, chef de produit Hortonworks Arun C.Murthy servira chef de produit de la société combinée; Cloudera Directeur financier Jim Frankola servira de directeur financier de la société combinée. PDG Hortonworks RobBearden rejoindra le conseil d'administration. Les membres actuels du Conseil MartyCole Cloudera sera président du conseil du conseil d'administration.

Le nouveau conseil d'administration de la société d'administration sera composé initialement de neuf administrateurs. M. Bearden, dont quatre administrateurs, dont le conseil d'administration proviendront de Hortonworks existants. M. Reilly, dont cinq administrateurs, dont le conseil d'administration proviendront de Cloudera existants. Le conseil d'administration combinée élira dixième administrateurs.

Ce qui, Morgan Stanley & Co.LLC en tant que conseiller financier de Cloudera, Fenwick & West.LLP ont agi à titre de conseiller juridique. Qatalyst Partners a agi comme conseiller financier pour Hortonworks, Latham & Watkins.LLP ont agi à titre de conseiller juridique.

Hadoop a été synonyme de gros volumes de données, mais les besoins du marché et des clients ont changé, la fusion des deux sociétés sera sans aucun doute Hadoop est un disque à succès. Poussé par plusieurs grandes tendances, l'impact de Hadoop est progressivement réduit!

Les clouds publics sont MONTÉE

La première tendance est la transition de l'entreprise vers le cloud public. Les entreprises de toutes tailles augmentent l'utilisation d'AWS, Azure et Google services Cloud, au détriment de l'infrastructure et des logiciels sur site. Selon IDC et le rapport Gartner, la baisse des revenus des serveurs d'entreprise dans une rangée. Les trois fournisseurs de cloud (90% de part de marché dans le nuage) fournissent leurs propres services hébergés Hadoop / Spark, tels que la carte Amazon Elastic Reduce (DME). Ceux-ci sont produits entièrement intégrés, avec un coût de possession et moins coûteux. Si les entreprises se tournent vers le cloud computing, le choix de produits tels que la plate-forme cloud Hadoop, qui permettent d'économiser temps et effort une partie, ce qui est presque une décision naturelle. Et, ironiquement, est que, Cloudera et n'a pas rejoint l'ère des nuages, l'avantage évident sur la compagnie Hadoop n'a pas exploré cette occasion.

Les frais de stockage  réduits

La deuxième grande tendance est quoi? Économie de stockage en nuage est des coûts de stockage laminés Hadoop. Lors de son lancement en 2005, Hadoop système de fichiers distribués (HDFS) est un révolutionnaire une grande amélioration, il sera combiné avec disque dur du serveur ordinaire, et les convertir en un système de stockage distribué pour être compatible parallèle IO par une application Java. À ce moment-là, nous avons fait quelque chose de semblable peut choisir, il est un élément clé qui permet le traitement parallèle des grands ensembles de données ne convient pas pour une seule course de la machine. Mais c'était il y a 13 ans, maintenant il y a beaucoup de beaucoup des alternatives moins chères, principalement les services de stockage d'objets tels que AWS S3, le stockage Azure Blob et Google Cloud Storage. Un frais de stockage d'objets de nuages ​​à environ 20 $ par mois de la tuberculose, alors que HDFS environ 100 $ par mois (non compris les coûts d'exploitation). Par exemple, le service de Google est juste les opérations HDFS HDFS dans une opération de stockage d'objets, mais le prix est cinq fois moins cher.

Plus vite, mieux, moins cher base de données cloud

problème Hadoop ne s'arrête pas là, car non seulement par le fournisseur de nuage Hadoop / Spark concurrence directe avec des services et des services de stockage d'objets. La troisième tendance est « sans serveur », il apparaît élimine complètement la nécessité d'exécuter Hadoop ou Spark of. mode d'allumage d'un usage courant pour le processus utilisateur ad hoc distribué des requêtes SQL. Google a pris la tête en 2011 a introduit un service révolutionnaire appelé BigQuery, et d'une manière complètement différente pour résoudre le même problème. Il permet d'exécuter une quantité de données stockées dans son service de stockage d'objets ad hoc requête (sans le charger dans HDFS et d'autres stockage spécial), les utilisateurs ne paient que pour le temps de calcul: Si vous avez besoin 1000 de base, à seulement 3,5 secondes à exécuter une requête, c'est toutes les dépenses payées. Les entreprises ne ont pas besoin de configurer le serveur, installer le système d'exploitation, installez le logiciel, configurer l'ensemble du contenu sera étendu à 1000 nœuds du cluster, ainsi que Hadoop / Spark fournir le même groupe et l'attention. Google a fait tout le travail grunt, de sorte que le nom est « sans serveur ». Certaines banques gérées par un Hadoop 2000 nœuds / cluster Spark de dizaines de personnel informatique pour exploiter et entretenir, et ne peuvent pas la flexibilité BigQuery, la vitesse et l'échelle à son rival, doit aussi payer pour tout le matériel, les logiciels et les coûts de personnel pour exécuter et maintenir Hadoop.

BigQuery est un exemple. Autre service de base de données cloud dispose également d'une grande échelle, une grande flexibilité, la distribution mondiale et d'autres caractéristiques. Startups flocon de neige, Google Big Table, AWS Aurora et Microsoft Cosmos, et le service qu'ils fournissent à l'installation Hadoop / Spark plus facile à utiliser, l'utilisateur peut être opérationnel en 5 minutes, le processus ne prend que des dizaines de dollars, vous n'avez pas besoin de 50 millions pour d'achat en dollars et semaines d'installation, la configuration et la formation.

Conteneur, Kubernetes et l'apprentissage de la machine

La quatrième tendance majeure est le conteneur et Kubernetes. Hadoop / Spark juste un environnement de stockage, un environnement informatique est. En outre, en 2005, un autre produit révolutionnaire Hadoop est né, c'est MapReduce, la méthode de calcul parallèle MapReduce application Java fournit un cadre pour. Mais Cloudera et Hortonworks infrastructure dans l'apprentissage machine Python et R est incompatible avec les données d'aujourd'hui les scientifiques Java-centrique (centrée sur Spark Scala). Les entreprises ont besoin d'améliorer en permanence la machine et itérative des modèles d'apprentissage et a permis d'apprendre des données de production, ce qui signifie que Python et les modèles de R sont nécessaires pour le déploiement local, si vous la capacité de l'espoir à l'apprentissage de la machine.

Conteneur et Kubernetes avec python et R, est distribuée en tant que de fournir un cadre de calcul plus souple et plus puissante. Dans tous les cas, ce sont les objectifs de l'équipe de développement de logiciels, ils ont probablement intention de ne pas distribuer les nouvelles applications micro-services au-dessus de Hadoop / Spark, parce qu'il est trop compliqué et les restrictions.

Après près de 10 ans, Cloudera et Hortonworks a pu devenir un grand centre de données du monde, cependant, et maintenant l'accent a changé de grandes quantités de données ailleurs. Les principales entreprises de cloud computing comme Cloudera et Hortonworks ne sont pas la même chose que l'exécution d'un grand groupe Hadoop / Spark, ils préfèrent lancer une base de données de nuages ​​distribués et des applications au-dessus des conteneurs. Ils utilisent Python, R, et une autre machine d'apprentissage des langues non-Java. De plus en plus d'entreprises se tournent vers une approche similaire, parce qu'ils veulent obtenir la même vitesse et l'échelle.

auteur

Mathew Lodge, vice-président senior du produit et la commercialisation de Anaconda. Il a 20 ans d'expérience dans l'informatique en nuage et des produits. Avant de se joindre à Anaconda, il a servi comme chef de l'exploitation Weaveworks, Weaveworks est un conteneur et la gestion du réseau micro-service et les start-ups, il était vice-président des services de cloud computing de VMware, et co-fondateur de services IaaS de l'vCloud Air VMware.

Publié 495 articles originaux · éloge de won 446 · Vues 140000 +

Je suppose que tu aimes

Origine blog.csdn.net/lixinkuan328/article/details/104789264
conseillé
Classement