BMC Softwares Director of Solutions Marketing, Basil Faruqui, diskuterar vikten av DataOps, dataorkestrering och AI:s roll när det gäller att optimera komplex automatisering av arbetsflöden för affärsframgångar.
Vad har varit den senaste utvecklingen på BMC?
Det är spännande tider på BMC och särskilt vår produktlinje Control-M, eftersom vi fortsätter att hjälpa några av de största företagen runt om i världen att automatisera och orkestrera affärsresultat som är beroende av komplexa arbetsflöden. Ett stort fokus i vår strategi har varit på DataOps, särskilt på orkestrering inom DataOps. Under de senaste tolv månaderna har vi levererat över sjuttio integrationer till serverlösa och PaaS-erbjudanden över AWS, Azure och GCP, vilket gör det möjligt för våra kunder att snabbt föra in moderna molntjänster i sina Control-M-orkestreringsmönster. Dessutom tar vi fram prototyper på GenAI-baserade användningsfall för att påskynda utvecklingen av arbetsflöden och optimering av körtider.
Vilka är de senaste trenderna inom DataOps som du har märkt av?
Vad vi ser i datavärlden i allmänhet är fortsatta investeringar i data- och analysprogramvara. Analytiker uppskattar att utgifterna för data- och analysprogramvara förra året låg i intervallet 100 miljarder dollar plus. Om vi tittar på Machine Learning, Artificial Intelligence & Data Landscape som Matt Turck på Firstmark publiceras varje år, är det mer trångt än någonsin tidigare. Den har 2 011 logotyper och över femhundra har tillkommit sedan 2023. Med tanke på den snabba tillväxten av verktyg och investeringar står DataOps nu i centrum när företagen inser att de inte längre bara kan anställa fler ingenjörer för att framgångsrikt operationalisera datainitiativ. DataOps-metoder håller nu på att bli planen för att skala upp dessa initiativ i produktionen. Den senaste tidens boom av GenAI kommer att göra denna operativa modell ännu viktigare.
Vad bör företag tänka på när de försöker skapa en datastrategi?
Som jag nämnde tidigare är investeringarna i datainitiativ från företagsledare, VD:ar, CMO:er, CFO:er etc. fortsatt stora. Denna investering är inte bara till för att skapa stegvisa effektivitetsvinster utan även för att förändra och transformera affärsresultat. Detta innebär att tre saker blir mycket viktiga. Den första är att datastrategin tydligt anpassas till affärsmålen, så att teknikteamen arbetar med det som är viktigast för verksamheten. Det andra är datakvalitet och tillgänglighet, där datakvaliteten är avgörande. Dålig datakvalitet kommer att leda till felaktiga insikter. Lika viktigt är det att säkerställa datatillgängligheten – att göra rätt data tillgänglig för rätt personer vid rätt tidpunkt. Genom att demokratisera datatillgången, samtidigt som lämpliga kontroller upprätthålls, får team i hela organisationen möjlighet att fatta datadrivna beslut. Det tredje är att uppnå skalbarhet i produktionen. Strategin måste säkerställa att driftberedskapen är inbyggd i datateknikmetoderna, så att det inte är något som bara beaktas efter pilotprojekt.
Hur viktig är dataorkestrering som en del av ett företags övergripande strategi?
Data Orchestration är utan tvekan den viktigaste pelaren i DataOps. De flesta organisationer har data spridda över flera system – moln, lokalt, äldre databaser och tredjepartsapplikationer. Förmågan att integrera och orkestrera dessa olika datakällor till ett enhetligt system är avgörande. Korrekt datorkestrering säkerställer ett sömlöst dataflöde mellan system, minimerar dubblering, latens och flaskhalsar, samtidigt som det stöder beslutsfattande i rätt tid.
Vilka är enligt dina kunder de största svårigheterna när det gäller orkestrering av data?
Organisationer står fortfarande inför utmaningen att leverera dataprodukter snabbt och sedan skala upp dem snabbt i produktion. GenAI är ett bra exempel på detta. VD:ar och styrelser runt om i världen efterfrågar snabba resultat eftersom de inser att detta kan få stora konsekvenser för dem som inte kan utnyttja dess kraft. GenAI håller på att integrera metoder som prompt engineering, prompt chaining etc. Utmaningen är hur vi tar LLM:er och vektordatabaser, botar etc. och passar in dem i den större datapipelinen som korsar en mycket hybrid arkitektur från flera moln till lokalt inklusive stordatorer för många. Detta visar på behovet av ett strategiskt förhållningssätt till orkestrering som gör det möjligt att utveckla nya tekniker och metoder för skalbar automatisering av datapipelines. En kund beskrev Control-M som ett grenuttag för orkestrering där de kan koppla in ny teknik och nya mönster allteftersom de dyker upp utan att behöva dra nya kablar varje gång de byter ut äldre teknik mot nyare.
Vilka är dina bästa tips för att säkerställa optimal dataorkestrering?
Det kan finnas ett antal topptips, men jag kommer att fokusera på ett, interoperabilitet mellan applikations- och dataarbetsflöden, vilket jag tror är avgörande för att uppnå skala och hastighet i produktionen. Att orkestrera datapipelines är viktigt, men det är viktigt att komma ihåg att dessa pipelines är en del av ett större ekosystem i företaget. Låt oss tänka oss att en ML-pipeline används för att förutsäga vilka kunder som sannolikt kommer att byta till en konkurrent. De data som kommer in i en sådan pipeline är ett resultat av arbetsflöden som körs i ERP/CRM och en kombination av andra applikationer. Ett framgångsrikt genomförande av applikationsarbetsflödena är ofta en förutsättning för att utlösa dataarbetsflödena. När modellen identifierar kunder som sannolikt kommer att byta leverantör är nästa steg kanske att skicka ett kampanjerbjudande till dem, vilket innebär att vi måste gå tillbaka till applikationslagret i ERP och CRM. Control-M är unikt positionerat för att lösa denna utmaning eftersom våra kunder använder det för att orkestrera och hantera invecklade beroenden mellan applikations- och datalagret.
Vilka ser du som de största möjligheterna och utmaningarna när det gäller att använda AI?
AI och särskilt GenAI ökar snabbt de tekniker som är involverade i dataekosystemet. Massor av nya modeller, vektordatabaser och nya automatiseringsmönster kring prompt chaining etc. Den här utmaningen är inte ny för datavärlden, men förändringstakten ökar. Ur ett orkestreringsperspektiv ser vi enorma möjligheter för våra kunder eftersom vi erbjuder en mycket anpassningsbar plattform för orkestrering där de kan integrera dessa verktyg och mönster i sina befintliga arbetsflöden i stället för att gå tillbaka till ritbordet.
Har du några fallstudier som du kan dela med dig av till oss om företag som framgångsrikt använder AI?
Domino’s Pizza använder Control-M för att orkestrera sina stora och komplexa datapipelines. Med över 20.000 butiker globalt hanterar Domino’s mer än 3.000 datapipelines som samlar data från olika källor, t.ex. interna system för leveranskedjan, försäljningsdata och tredjepartsintegrationer. Dessa data från applikationer måste gå igenom komplexa transformationsmönster och modeller innan de är tillgängliga för att driva beslut relaterade till matkvalitet, kundnöjdhet och operativ effektivitet i hela franchisenätverket.
Control-M spelar en avgörande roll för att orkestrera dessa dataflöden och säkerställa sömlös integration mellan ett brett spektrum av tekniker som MicroStrategy, AMQ, Apache Kafka, Confluent, GreenPlum, Couchbase, Talend, SQL Server och Power BI, för att nämna några.
Utöver att bara koppla ihop komplexa orkestreringsmönster ger Control-M dem end-to-end-synlighet över pipelines, vilket säkerställer att de uppfyller strikta servicenivåavtal (SLA) samtidigt som de hanterar ökande datavolymer. Control-M hjälper dem att generera kritiska rapporter snabbare, leverera insikter till franchisetagare och skala upp utrullningen av nya affärstjänster.
Vad kan vi förvänta oss av BMC under det kommande året?
Vår strategi för Control-M på BMC kommer att vara fokuserad på ett par grundläggande principer:
Fortsätta att låta våra kunder använda Control-M som en enda kontrollpunkt för orkestrering när de använder modern teknik, särskilt i det publika molnet. Detta innebär att vi kommer att fortsätta att tillhandahålla nya integrationer till alla större offentliga molnleverantörer för att säkerställa att de kan använda Control-M för att orkestrera arbetsflöden över tre stora molninfrastrukturmodeller för IaaS, Containers och PaaS (Serverless Cloud Services). Vi planerar att fortsätta vårt starka fokus på serverless, och du kommer att se fler out-of-the-box-integrationer från Control-M för att stödja PaaS-modellen.
Vi är medvetna om att enterprise orchestration är en lagsport, som innebär samordning mellan teknik, drift och affärsanvändare. Och med detta i åtanke planerar vi att ge en användarupplevelse och ett gränssnitt som är personbaserat så att samarbetet blir friktionsfritt.
Inom DataOps tittar vi särskilt på skärningspunkten mellan orkestrering och datakvalitet med ett specifikt fokus på att göra datakvalitet till en förstklassig medborgare inom applikations- och dataarbetsflöden. Håll ögonen öppna för mer på den här fronten!
Vill du lära dig mer om AI och big data från branschledare? Kolla in AI & Big Data Expo som äger rum i Amsterdam, Kalifornien och London. Det omfattande evenemanget är samlokaliserat med andra ledande evenemang, bland annat Konferens om intelligent automation, BlockX, Veckan för digital omvandling, och Cybersäkerhet & Cloud Expo.
Utforska andra kommande evenemang och webbseminarier om företagsteknik som drivs av TechForge här.