Hoe Big Data en Predictive Analytics de wereld van IBM en haar klanten verandert

Vorige week was Numrush aanwezig bij het jaarlijkse event “Information On Demand”, dat IBM in samenwerking met 300 partners organiseerde in Las Vegas. Met als lokkende slogan “Think Big, Deliver Big, WIN Big” waren zo’n 11.000 relaties, personeel, klanten en pers verzameld om bijgepraat te worden over de laatste stand van zaken en vooral de visie van IBM op de toekomst.

Ik kende IBM voornamelijk nog uit de tijd van de mooie Thinkpad’s en uit de tijd dat je als grote organisatie weinig keus had als je een kwaliteits mainframe of anderszins groot computersysteem zocht. Olifanten houden van olifanten dus Big Blue deed prima zaken met andere Blue Chips.

De vier pijlers van het nieuwe IBM

Op de beurs blijkt IBM al een poosje niet echt te vlammen. Onder sommige analisten wordt driftig gediscussieerd of het aandeel nu een waarde-aandeel of groei-aandeel betreft. Het fonds keert een prima dividend uit, draait goede cashflow, maar men mist de echte groeibriljanten om er een groei-aandeel in te zien en het bedrijf ook op die manier te waarderen.

In Las Vegas proefde ik bij veel mensen die ik sprak en bij veel presentaties die ik zag dat IBM enorm hard bezig is om juist weer dat groei-aandeel te worden. Na de verkoop van de PC-tak en de aankoop van de consultancy-tak van Price Water Coopers in 2002 lijkt het bedrijf klaar voor weer een nieuwe transformatie. Gelukkig is omgooien van het hele bedrijfsmodel een kunstje dat IBM ondertussen prima beheerst. Net als het integreren van overnamen, maar daarover later meer.

Het nieuwe IBM moet draaien op vier pijlers: mobile, social, Big Data en data analyses. Dat leek mij in eerste instantie niet echt vernieuwend en spannend, maar na een paar dagen blijken deze pijlers meer te omvatten dan een paar modetermen.

Allereerst mobile. Dat vond ik eigenlijk de minst spannende. Uiteraard is straks alles via je mobiel toegankelijk of beschikbaar. Voor de gewone consument is dit nu al doodnormaal en aangezien veel consumenten tevens werknemer zijn zullen ze dit in hun werk ook de normaalste gang van zaken vinden. Op dit vlak lijkt het vooral alsof grote organisaties er zelf moeite mee hebben.

Social als databron

Social speelt zich voor IBM af op twee terreinen; binnen en buiten een bedrijf. Social buiten het bedrijf gaat vooral om Social Media analytics. IBM ziet social uiteraard als een grote databron waar ze hun predictive analyses software op los kunnen laten en daarmee onder andere sentiment kunnen monitoren

Daarnaast heeft IBM ook nog een set aan software oplossingen voor social binnen een organisatie. Onder de noemer Connections biedt IBM zogenaamde Enterprise social software met daarin wiki’s, blogs, communities, files, forums, profiles en nog wat oplossingen om zo te zorgen dat werknemers makkelijk de juiste kennis kunnen vinden en delen binnen een organisatie, er over kunnen communiceren maar ook dat deze kennis wordt vastgelegd zodat deze niet verdwijnt zodra een werknemer niet langer in dienst is. Het is een soort content management system met ingebouwde LinkedIn, Twitter, Wikipedia, Dropbox, WordPress etc. Kortom, alles wat je op internet gebruikt maar dan in een interne variant. Ik heb het zelf nooit gebruikt, dus ik kan niet inschatten hoe fijn dat werkt (ervaringen graag in de comments) en ik weet ook niet hoe zich dit naar de toekomst gaat ontwikkelen. Als werknemer wil je wellicht niet alles twee keer registreren en delen waardoor je het risico loopt dat je systeem minder wordt gebruikt. Gelukkig zijn er ondertussen ook alweer tal van plugins die dit probleem (deels) ondervangen zoals LinkedIn widgets die informatie uit LinkedIn binnen de omgeving van IBM tonen. En als het werkt bouwen organisaties schitterende data collecties op waar weer tal van analyses op uitgevoerd kunnen worden.

Waarschijnlijk de twee belangrijkste pijlers voor IBM voor de komende jaren zullen Big Data en data analysis zijn. Zoals tijdens de conferentie al werd gememoreerd gaan deze hand in hand: zonder Big Data geen analytics en zonder analytics heef Big Data geen nut. En, in tegenstelling tot wat je wellicht zou verwachten, maakt meer data de analyse makkelijker en sneller in plaats van trager. Als voorbeeld werd het oplossen van een legpuzzel gegeven. Het leggen van de laatste paar stukjes gaat altijd sneller dan het oplossen van het eerste deel.

De cloud is essentieel

Op het gebied van Big Data en data analytics speelt de cloud een fundamentele rol. IBM had daar zelf al oplossingen voor ontwikkeld maar lijkt sinds de overname van SoftLayer pas echt een serieuze rol te gaan spelen op dit vlak en tegelijkertijd nieuwe markten aan te boren. SoftLayer bracht immers een grote groep start-ups en MKB bedrijven mee die traditiegetrouw niet tot de doelgroep van IBM hoorden. Deze klanten zullen in toenemende mate gebruik kunnen gaan maken van alle producten en diensten die IBM te bieden heeft. En IBM kan op deze manier ook nieuwe klanten uit dit segment binnenhalen. Maar belangrijker nog is dat SoftLayer als een soort katalysator lijkt te werken binnen het bedrijf voor het aanbieden van bestaande en nieuwe diensten. Het opent voor IBM veel mogelijkheden om ook bestaande klanten op een flexibele manier via de cloud bestaande en nieuwe diensten aan te bieden.

Naast Softlayer lijken ook op het gebied van predictive analyses een aantal aankopen van cruciaal belang. In die hoek komen de namen SPSS (bij velen breekt nu het zweet uit bij de herinnering aan statistiek opdrachten tijdens de studie) en Cognos BI veelvuldig terug. Daarmee ook een klein beetje Nederlandse invloed. In 2003 nam SPSS immers de Nederlandse leverancier van data analyse Data Distilleries over. Dankzij de technologiën van deze overnames lukt het steeds meer klanten van IBM om de bedrijfsvoering aan te passen op basis van analyses die gedaan kunnen worden. Van politiekorpsen die het inzetten voor misdaadpreventie (inderdaad, daar kwamen veel Minority Report vragen over) tot meer alledaagse voorbeelden als het kunnen voorspellen van de voorraad per winkel van de hardlopers voor kerst ruim een jaar van tevoren. En van het kunnen voorspellen van near hits van asteroïden tot en met de opslag van je tegenstander via IBM SlamTracker zoals Serena Williams vertelde tijdens een van de keynotes

Een van de meest spanende aankondigingen op dit gebied was Project Neo. Het is nog niet af en ging eigenlijk pas in beta tijdens de conferentie, maar IBM verwacht zoveel van dit programma dat het nu alvast wat wil laten zien. En terecht, het is een mooie illustratie van hoe met behulp van technologie straks elke organisatie feitelijk een data analist in dienst heeft. Met project Neo kun je op basis van natuurlijke taal data-sets opvragen die na selectie grafisch worden weergegeven waarna je verder kunt inzoomen door te klikken of wederom met behulp van natuurlijke taal nieuwe parameters kunt toevoegen. Als voorbeeld case werd een demo gegeven van een regisseur op zoek naar een nieuwe blockbuster. Door eerst de vraag stellen welke genre film historisch gezien het meeste opleverde werd na het selecteren van een IMDB dataset het resultaat in een aantal blokken getoond. Vervolgens kon real-time voor andere weergaven worden gekozen en werd via de vraag “wat zijn de kosten voor het maken van een speelfilm” ook de investering zichtbaar waarna een weergave van de netto opbrengst per filmgenre werd gevisualiseerd. Excel on steroids en zonder dat je specialist op het gebied van vlookups en hlookups hoeft te zijn en met als resultaat direct een mooi plaatje. Volgens de researchers van IBM wordt presenteren hiermee een stuk dynamischer en zelfs het woord storytelling viel.

Project Neo is nu alleen als beta beschikbaar voor een paar gelukkigen maar zal volgend jaar als cloud dienst op de markt komen. Overigens maakt project Neo voor de natuurlijke taal niet Watson maar een eigen engine en moet deze voor elke klant / domein worden “getraind” door middel van een eigen woordenboek etc. Helemaal vanzelf gaat het dus nog niet.

Watson op de smartphone?

Uiteraard was er ook veel hardcore technisch nieuws. Hadoop, structured en unstructured data, in memory, NoSQL en NewSQL en BLU Acceleration. Nu weet ik daar weinig van, wel was het interessant om te zien dat IBM juist de jarenlange hardware ervaring weet te koppelen aan de behoefte om steeds meer en sneller data te kunnen processen. Hierdoor lukt het de techneuten en researchers van IBM om hardware te ontwikkelen die optimaal is voor de eigen software waardoor aanzienlijke performance resultaten behaald worden.

En Watson dan? Watson wordt nog steeds doorontwikkeld en zorgt ook nog steeds voor verrassende resultaten binnen IBM. Het feit dat het zo geprogrammeerd is dat er vooraf geen richting wordt afgegeven maar Watson zelf op zoek gaat naar verbanden blijft uniek. Ook werd aangegeven dat het in de verwachting ligt dat Watson in de toekomst naast bestaande databronnen ook toegang tot allerlei sensor data gaat krijgen. Zo krijgt Watson eindelijk ook “oren” en “ogen”.

Helaas past Watson nog niet op een mobiele telefoon dus onderweg een vraag stellen zit er nog niet in. Tenzij Watson natuurlijk als dienst beschikbaar zou komen als cloud dienst. Welnu, die geruchten gingen er wel maar deze werden net zo hard ontkent. Wat niet wil zeggen dat het daar nooit van zal komen.