Pod #22 – Att flytta stora datamängder över stora avstånd

När världen digitaliseras blir det allt viktigare att se över infrastrukturen och sätta rutiner för att kunna hantera flödet av all data. Filer blir större och marknaden blir allt mer global. Det kräver inte bara säkerheten från system utan även hastigheten och tillgängligheten behövs vara garanterat på topp för att kunna hantera stora datamängder. Konkurrensen är hård och marknaden växer. När vår digitala värld producerar mer data, större filer i olika format och när det dessutom måste det gå snabbare att skicka finns det inte några genvägar.

Big Data är något vi pratar mycket om här på Digitaliserat för det är ett hett ämne, nu vill vi prata om hur vi hanterar det. Växande datamängder, gigantiska filer och brådskande projekt. Allt ska snabbt och säkert flyttas och överföras långa distanser med ljusets hastighet. Ju mer digitala företag blir desto mer behövs tekniken som klarar av att hantera det digitala uppdraget. Och just nu händer det mycket när det kommer till tekniken som möjliggör digitaliseringen. Den är i ständig utveckling och med hjälp av molnet kan avancerad teknik enkelt implementeras och det blir möjligt att hantera uppdrag som kanske tidigare ansetts som omöjliga.

I det här avsnittet av Digitaliserats podd pratar vi om det allt mer prioriterade behovet för företag att flytta stora datamängder, stora filer över stora avstånd. Vi träffar Philip Söderberg, han jobbar på Cristie som är en IBM Business Partner med fokus på datahantering. Philip möter dagligen kunder som brottas med problematiken och söker lösningar som kan råda bot på deras stora utmaning att hantera stora mängder data över långa distaser. Vi pratar om möjligheterna med ny teknik, ger exempel från verkligheten och lyfter ännu ett buzzword nämligen IFFT som står för Intelligent Fast File Transfer.