Cloud maakte een einde aan de droom van de drie-eenheid van Hadoop (Cloudera, Hortonworks en mapR) en diezelfde cloud zal waarschijnlijk ook niet veel succes leveren aan de recente koper van MapR: HPE. Volgens de deal wil het bedrijf "de technologie, het intellectuele eigendom en expertise in AI, ML en analytics-databeheer van MapR" combineren met HPE's "Intelligent Data Platform-capaciteiten", maar daar ontbreekt het ingrediënt dat de twee het hardst nodig hebben: cloud.
Het probleem is dus niet dat MapR geen slimme mensen en goede technologie heeft, zoals Wikibon-analist James Kobielus stelt. Het is eerder dat MapR nog steeds te erg Hadoop-erig is en lang niet cloudy genoeg in een wereld die bomvol zit met "volledig geïntegreerde [cloud-first] oplossingen die lagere aanschafkosten hebben en goedkoper zijn om te schalen", aldus Diffblue-CEO Matthew Lodge. Kortom: MapR breidt HPE's data-assets uit, maar het maakt HPE geen cloudpartij.
Waarom cloud ertoe doet
Hybdride cloud leeft nog steeds en dat blijft nog vele jaren zo. Hoezeer bedrijven workloads ook in de cloud willen plaatsen, het overgrote deel van IT blijft nog werk voor private datacenters. Nieuwe workloads gaan meestal naar de cloud, maar er is decennia aan legacy-technologie die nog steeds on-prem blijven draaien.
Maar die hybride wereld waar HPE nu over evangeliseert, is niet zo belangrijk meer als je het hebt over big data-workloads. Dat komt deels door de afhankelijkheid van old-school modellen als Hadoop, zei Hyoun Park, CEO van Amalgam Insights, tegen InformationWeek. Dat is een omslachtig model, vooral in een wereld waar data ontstaat in de cloud en daar wil blijven in plaats van verscheept te worden naar on-premises servers.
Kun je Hadoop in de cloud draaien? Maar natuurlijk. Bedrijven als AWS doen dat met Elastic MapReduce, maar je zou kunnen beargumenteren dat zelfs Hadoop in de cloud een onsuccesvolle strategie is voor de meeste big data-workloads, omdat het niet past in de wereld van streamende data.
Daarnaast is er het on-premises probleem. Datascience-chef Matt Wood van AWS vertelt dat elasticiteit van de cloud cruciaal is om data-science goed te doen:
Mensen die kostbare infrastructuur aanschaffen merken dat het domein en de scope van het probleem snel verschuiven. Tegen de tijd dat ze de originele vraag kunnen beantwoorden, is de business alweer met iets anders bezig. Je hebt een omgeving nodig die flexibel is en je in staat stelt om snel te reageren op veranderende big data-requirements. De mix van resources verandert doorlopend - als je infrastructuur koopt, is het bijna onmiddellijk irrelevant voor de business. Het lost een probleem op die je mogelijk niet hebt of waar je niets meer om geeft.
MapR heeft pogingen gedaan om zich los te maken van zijn on-prem Hadoop-verleden, maar dat is wellicht te laat geweest.
En dat brengt ons bij HPE. In 2015 dumpte het bedrijf zijn publieke cloud en zette het harder in op private en managed cloud. Dat was een acceptabele keuze toen OpenStack nog groeide, maar het zette HPE in een hoek als voornamelijk on-premises leverancier die met partners relevant probeerde te zijn voor publieke cloud. Dat is niet genoeg.
Neem Red Hat, dat geloofwaardig kan claimen diep in Kubernetes te zitten (met Red Hat's OpenShift) zodat bedrijven kunnen ontwerpen voor hydbride- en multicloud, HPE kan dat niet. De leverancier probeerde dat te bereiken met overnames (bijvoorbeeld BlueData voor containers) maar heeft geen samenhangende set van producten.
Modernisatie vs. legacy
Erger is dat elke grote publieke cloudleverancier inmiddels goede hybride oplossingen heeft en bedrijven die geïnteresseerd zijn in modernisatie zullen eerder kiezen voor een cloud-first leverancier, in plaats van een legacy-leverancier die publieke cloud-relevantie ambieert. Voor Google is het Anthos. Voor Microsoft Azure stond hybride van meet af aan centraal voor de producten en marketing. Wat AWS, dat ooit private datacenters meed, betreft is er een arsenaal hybride diensten (bijvoorbeeld Snowball) en partners (VMware) om ervoor te zorgen dat bedrijven de voordelen van cloud kunnen benutten, terwijl ze private datacenters handhaven.
Daar zien we MapR, met zijn tegengestelde, propriëtaire aanpak voor de opensource Hadoop-markt. Met die aanpak won het een paar zieltjes, maar het werd nooit breed omarmd. Goede technologie? Jazeker. Cloud-DNA en -producten? Neen.
Ik hoop dat het huwelijk tussen HPE en MapR leidt tot gelukkige cloudy zakelijke klanten, maar ik vrees dat de inzet van HPE op technologie-assets die het bedrijf vastpinnen aan on-premises niet echt veel toekomst biedt. Big data hoort in de cloud en cloud is niet iets dat je koopt; het is een andere manier van functioneren, een andere manier van denken. HPE krijgt die DNA niet met MapR.
Reageer
Preview