Det finns MÄNGDER med texter om detta.
En jag håller med det mesta i är denna skriven av Chad Sakac på EMC:
http://virtualgeek.typepad.com/virtual_geek/2012/12/my-crystal-ball-for-2013.html
Så vad är det jag INTE håller med om då?
Chad talar ofta om riktigt stora företag. De flesta företagen i Sverige är inte så stora som han talar om så att sätta upp ett SDDC eller att börja med Software Defined Storage. Nja, det är nog en bit bort för de flesta... Att softwareDefined* är fantastikt som koncept håller jag absolut med om, men få har affärsnyttan av detta (idag).
Av samma anledning ser jag inte att Hadoop, BigData och HDFS kommer att bli alltför stort tryck under 2013.
2012-12-28
2012-12-21
Virtualisering... Vad är det som skiljer Microsoft, Citrix och VMware
Att virtualisering är en stor del inom IT-världen är det nog ingen som har missat (om man har missat det så är det dags att börja läsa på :))
Men hur väljer man vad man skall använda när man virtualserar? Ett sätt är att kika på specarna från respektive tillverkare och sedan välja den som har "bäst" specar... Men går det att jämföra specifikationer rakt av mellan olika produkter?
Ett försök på att göra detta finns exempelvis här: http://www.virtualizationmatrix.com/matrix.php
Har man lyckats? Nja.. jag tycker inte det.
Det finns så enormt mycket man måste väga in när man väljer en så viktig grundplatta som virtualiseringsplattform för en lösning.
Här är det på sin plats att säga att ibland kan det vara lämpligt att använda mer än en virtualiseringsplattform... Det kan vara licensregler, licenskostnader eller liknande som styr så att en viss tillverkares plattform passar bättre för vissa delar av lösningen men inte passar alls på andra delar.
Kontentan är att när det gäller vilken plattform som skall väljas: Det beror på!
Så här tänkte jag prata om "tänket" kring respektive plattorm och inte alls lika mycket kring speciella funktioner eller specifikationer.
Vi börjar med Microsoft.
Microsoft
"Virtualization is like TCP/IP. It's a means to an end."
Microsoft är rätt tydliga på den här punkten. Man ser inte själva Hypervisorn som mer än en tjänst i miljön. Det viktiga är hur man hanterar denna tjänst.
I och med Windows server 2012 och därmed Hyper-V 3.0 så har man en rätt bra produkt. En sak man skall betona lite är att denna skiljer sig från de andra två tillverkarna. Eftersom att Microsofts teknik bygger på Windows-tekologi så är det CIFS istället för NFS, man använder Powershell och WMI istället för bash eller XE/PowerCLI.
Detta gör att erfarna Windows tekniker kommer att känna sig rätt hemma med en gång, men är man inte lika erfaren av Powershell så kan det bli en rätt jobbig uppförsbacke i början.
För att hantera hela Microsofts ekosystem kring virtualisering är det så klart SystemCenter som skall användas. Om företaget redan har SystemCenter i drift så är detta jättebra. Men om det är en ny produkt i miljön så kan det kännas som ännu en uppförsbacke som man måste ta sig uppför.
En stor fördel med Microsofts lösning är att man har en tät integration mellan systemen. Man är inte riktigt där ännu med alla delarna i Systemcenter. Det är olika team som skriver de olika delarna och det gör att integrationen inte alltid är på topp.
En sak man skall tänka på här är också att även om de mer avancerade funktionerna finns i produkterna så krävs det en del scriptning för att få allting att fungera fullt ut. Powershell är en ruskigt viktig kunskap så fort man springer upp i en lite större miljö.
Tänker man bygga en "multi-tenant" lösning (alltså flera företag i en och samma lösning) så finns det funktionalitet för detta också (exempelvis i "Service provider Foundation web Service") men även här behövs en hel del scriptningskunskaper.
Viktiga kunskaper:
- Powershell
- Windows server 2012
- System Center familjen
Citrix
"We want a strong ecosystem. We want to enable choice."
Här skiljer sig Citrix en del från Microsoft. När Microsoft säger att "allt man behöver finns hos oss" så säger Citrix istället att "Vi är en viktig del och vi ger dig möjlighet att använda våra, och andra tillverkares produkter i din IT-miljö".
När det gäller Hypervisor så är det XenServer som är en open-source produkt från Xen.org som används som grund. Citrix lägger sedan på ett management lager ovanpå detta.
Fast det som Citrix är mest kända för är troligen XenApp som används för applikations virtualisering Även Citrix jobbar på att bygga ett enda verktyg för att hantera alla sina produkter på ett och samma ställe. Dock är man inte i närheten av Microsofts SystemCenter i integrationsmöjlighet.
En intressant sak med Citrix är att även dessa har inställningen att Hypervisorn bara är en komponent i leveransern. Man trycker inte alls på att man har en hypervisor. Istället betonar man rätt ofta att man supporterar flera olika leverantörer och att man kan levera deras produkter på XenServer/Hyper-V/vSphere.
Det märks också att Citix kommer från applikationshållet. Hela produktsviten utgår från applikationssidan och hur man skall levera/provisionera en applikation till användaren. Sedan jobbar man sig allt mer mot infrastrukturen bakom, men det är på applikationen som tyngdpunkten ligger.
XenServer är precis som VMware vSphere byggt på en Linux-kärna så för att administrera en XenServermiljö krävs Linux-kunskaper. Kommer man här från Windowsadmin-sidan så kan det vara en uppförsbacke att lära sig hur man hanterar Linux. Men samtidigt är det inte alltför ofta man behöver vara inne i konsollen. Det är mest vid tyngre felsökning.
En sak som kan vara värt att nämna här är att Citrix har en produkt som heter provisioning server som gör att om man har många exakt likadana servrar (exempelvis Citrix XenApp-servrar eller liknande) så kan man ha en enda image som samtliga bootar från.
Det intressanta med denna produkt (vi skulle ju inte prata specifika funktioner) är vad detta gör när det gäller hanteringen av servrarna. En utmaning i lite större XenApp-farmer är just att hålla samtliga servrar exakt likadana. I och med Provisioning-server så vet jag att alla servrarna alltid är exakt så som jag vill att de skall vara och skulle jag få problem med en maskin så bootar jag bara om den och då startar den från den gemensamman skrivskyddade imagen...
Även om en glad administratör skulle "råka" installera en ny version av java eller liknande så spelar det ingen roll. Så fort jag bootat om servern så ser den ut exakt så som min image ser ut och alla ändringar är borta.
Ur ett support perspektiv är detta enormt trevligt. Vi vet nämligen att alla servrar "mår lika bra". Hela tiden! Det gör att supporten snabbare kan eliminera servrarna som ett problem och istället hjälpa användaren om det är ett klientproblem.
På samma sätt kan driften ta en kopia på serverimagen (under drift) och uppdatera utan att behöva göra stora servicefönster för patchning/uppdatering av applikationer och liknande.
Det finns alltså en del bra grejjor här ur ett management perspektiv. Samtidigt så säger ju citrix att "We want to enable choice". Se till att utnyttja denna valmöjlighet!!
VMware
"Being able to virtualize everything is the number one thing that drives VMware."
Detta är en stor skillnad mot Microsoft och Citrix inställning. VMware pekar på sin Hypervisor och säger att det är grunden och det som är den viktigaste komponenten i "the Software Defined Data Center" (SDDC).
VMware kommer från infrastruktur sidan och är utan tvekan den mest kompetenta av leverantörerna när det gäller Hypervisor och man har en otrolig marknadsdominans på just hypervisor sidan.
VMware talar dock om så mycket mer än "bara" hypervisorn. Fokus har skiftat från att virtualisera hårdvaruservrar till att nu även virtualisera storage (SAN genom bla. vVOL), nätverk ("Software Defined Networking" genom VXlan och Nicira) och säkerhet (vShield för Brandväggar&Antivirus)
Här har man ett rätt bra tänk känns det som. Allting är så klart inte på plats ännu men det är på gång och nya releaser kommer hela tiden.
VMware har också tryckt en del på mangement av miljöerna. En sak man sagt flera gånger är "en administratör skall klara av att sköta 10 000 VMar"...
Skall en person klara av att sköta den mängden servrar så krävs det enormt mycket automatisering. Ett av verktygen för att göra detta är Orchestrator som används alldeles förlite i organisationer idag. :(
Ett annat verktyg jag har talat mig varm för många gånger är vCOPS (vCenter OPerations Suite).
Tillskillnad från SCOM (System Center Operations Manager från Microsoft) så utgår vCOPS från avvikelsehantering. Systemet larmar alltså om den ser saker som inte stämmer in i hur miljön brukar uppföra sig.
Jag gillar detta upplägg! Det gör att vi kan sluta sätta upp fasta mätvärden som ändå efter ett tag inte stämmer när det kommer nya releaser av produkter och liknande. Självklart ställer detta krav på att miljön mår bra från början när systemet börjar samla in information. :)
Sammanfattning
De olika lösningarna skiljer sig en del. VMware och Citrix är båda Linuxbaserade i sitt tänk och kräver därför en kunskaper som en "vanlig" windowstekniker inte har.
Samtidigt så ställer Microsoft krav på att man kan Powershell och SystemCenter sviten.
Så hur man än vänder sig så måste man ha lite speciell kunskap.
Alla leverantörerna har olika lösning för att bygga privata moln. Microsoft använder så klart System Center, Citrix använder bland annat sin produkt CloudStack och VMware använder vCloud Director.
Tyvärr verkar det som att Microsoft och VMware gör på lite olika sätt när det gäller nätverksvirtualiseringen (se mer info: http://blog.ioshints.info/2012/12/hyper-v-network-virtualization-wnvnvgre.html)
Som synes är det rätt olika hur företagen ser på det här med virtualisering. Vem som har rätt, eller vem som kommer att få rätt... det vet jag ännu inte.
Det enda jag vet är att svaret på frågan "Vilken skall jag välja?"
än så länge är: "Det beror på."
Det jag kan säga är att sannorlikheten blir allt mindre att det är teknisk funktionalitet som avgör vilken lösning som skall byggas. Istället är det saker som Licensregler, administration, flexibilitet och vilka övriga komponenter i IT-miljön som måste tas hänsyn till som istället kommer avgöra hur vi designar lösningen.
Jag avslutar med ett citat från en presentation jag varit på under hösten:
"To view a design holistically means to unerstand, at a fundamental level, that all things in the design are interconnected and interdependent"
(läs mer)
Men hur väljer man vad man skall använda när man virtualserar? Ett sätt är att kika på specarna från respektive tillverkare och sedan välja den som har "bäst" specar... Men går det att jämföra specifikationer rakt av mellan olika produkter?
Ett försök på att göra detta finns exempelvis här: http://www.virtualizationmatrix.com/matrix.php
Har man lyckats? Nja.. jag tycker inte det.
Det finns så enormt mycket man måste väga in när man väljer en så viktig grundplatta som virtualiseringsplattform för en lösning.
Här är det på sin plats att säga att ibland kan det vara lämpligt att använda mer än en virtualiseringsplattform... Det kan vara licensregler, licenskostnader eller liknande som styr så att en viss tillverkares plattform passar bättre för vissa delar av lösningen men inte passar alls på andra delar.
Kontentan är att när det gäller vilken plattform som skall väljas: Det beror på!
Så här tänkte jag prata om "tänket" kring respektive plattorm och inte alls lika mycket kring speciella funktioner eller specifikationer.
Vi börjar med Microsoft.
Microsoft
"Virtualization is like TCP/IP. It's a means to an end."
Microsoft är rätt tydliga på den här punkten. Man ser inte själva Hypervisorn som mer än en tjänst i miljön. Det viktiga är hur man hanterar denna tjänst.
I och med Windows server 2012 och därmed Hyper-V 3.0 så har man en rätt bra produkt. En sak man skall betona lite är att denna skiljer sig från de andra två tillverkarna. Eftersom att Microsofts teknik bygger på Windows-tekologi så är det CIFS istället för NFS, man använder Powershell och WMI istället för bash eller XE/PowerCLI.
Detta gör att erfarna Windows tekniker kommer att känna sig rätt hemma med en gång, men är man inte lika erfaren av Powershell så kan det bli en rätt jobbig uppförsbacke i början.
För att hantera hela Microsofts ekosystem kring virtualisering är det så klart SystemCenter som skall användas. Om företaget redan har SystemCenter i drift så är detta jättebra. Men om det är en ny produkt i miljön så kan det kännas som ännu en uppförsbacke som man måste ta sig uppför.
En stor fördel med Microsofts lösning är att man har en tät integration mellan systemen. Man är inte riktigt där ännu med alla delarna i Systemcenter. Det är olika team som skriver de olika delarna och det gör att integrationen inte alltid är på topp.
En sak man skall tänka på här är också att även om de mer avancerade funktionerna finns i produkterna så krävs det en del scriptning för att få allting att fungera fullt ut. Powershell är en ruskigt viktig kunskap så fort man springer upp i en lite större miljö.
Tänker man bygga en "multi-tenant" lösning (alltså flera företag i en och samma lösning) så finns det funktionalitet för detta också (exempelvis i "Service provider Foundation web Service") men även här behövs en hel del scriptningskunskaper.
Viktiga kunskaper:
- Powershell
- Windows server 2012
- System Center familjen
Citrix
"We want a strong ecosystem. We want to enable choice."
Här skiljer sig Citrix en del från Microsoft. När Microsoft säger att "allt man behöver finns hos oss" så säger Citrix istället att "Vi är en viktig del och vi ger dig möjlighet att använda våra, och andra tillverkares produkter i din IT-miljö".
När det gäller Hypervisor så är det XenServer som är en open-source produkt från Xen.org som används som grund. Citrix lägger sedan på ett management lager ovanpå detta.
Fast det som Citrix är mest kända för är troligen XenApp som används för applikations virtualisering Även Citrix jobbar på att bygga ett enda verktyg för att hantera alla sina produkter på ett och samma ställe. Dock är man inte i närheten av Microsofts SystemCenter i integrationsmöjlighet.
En intressant sak med Citrix är att även dessa har inställningen att Hypervisorn bara är en komponent i leveransern. Man trycker inte alls på att man har en hypervisor. Istället betonar man rätt ofta att man supporterar flera olika leverantörer och att man kan levera deras produkter på XenServer/Hyper-V/vSphere.
Det märks också att Citix kommer från applikationshållet. Hela produktsviten utgår från applikationssidan och hur man skall levera/provisionera en applikation till användaren. Sedan jobbar man sig allt mer mot infrastrukturen bakom, men det är på applikationen som tyngdpunkten ligger.
XenServer är precis som VMware vSphere byggt på en Linux-kärna så för att administrera en XenServermiljö krävs Linux-kunskaper. Kommer man här från Windowsadmin-sidan så kan det vara en uppförsbacke att lära sig hur man hanterar Linux. Men samtidigt är det inte alltför ofta man behöver vara inne i konsollen. Det är mest vid tyngre felsökning.
En sak som kan vara värt att nämna här är att Citrix har en produkt som heter provisioning server som gör att om man har många exakt likadana servrar (exempelvis Citrix XenApp-servrar eller liknande) så kan man ha en enda image som samtliga bootar från.
Det intressanta med denna produkt (vi skulle ju inte prata specifika funktioner) är vad detta gör när det gäller hanteringen av servrarna. En utmaning i lite större XenApp-farmer är just att hålla samtliga servrar exakt likadana. I och med Provisioning-server så vet jag att alla servrarna alltid är exakt så som jag vill att de skall vara och skulle jag få problem med en maskin så bootar jag bara om den och då startar den från den gemensamman skrivskyddade imagen...
Även om en glad administratör skulle "råka" installera en ny version av java eller liknande så spelar det ingen roll. Så fort jag bootat om servern så ser den ut exakt så som min image ser ut och alla ändringar är borta.
Ur ett support perspektiv är detta enormt trevligt. Vi vet nämligen att alla servrar "mår lika bra". Hela tiden! Det gör att supporten snabbare kan eliminera servrarna som ett problem och istället hjälpa användaren om det är ett klientproblem.
På samma sätt kan driften ta en kopia på serverimagen (under drift) och uppdatera utan att behöva göra stora servicefönster för patchning/uppdatering av applikationer och liknande.
Det finns alltså en del bra grejjor här ur ett management perspektiv. Samtidigt så säger ju citrix att "We want to enable choice". Se till att utnyttja denna valmöjlighet!!
VMware
"Being able to virtualize everything is the number one thing that drives VMware."
Detta är en stor skillnad mot Microsoft och Citrix inställning. VMware pekar på sin Hypervisor och säger att det är grunden och det som är den viktigaste komponenten i "the Software Defined Data Center" (SDDC).
VMware kommer från infrastruktur sidan och är utan tvekan den mest kompetenta av leverantörerna när det gäller Hypervisor och man har en otrolig marknadsdominans på just hypervisor sidan.
VMware talar dock om så mycket mer än "bara" hypervisorn. Fokus har skiftat från att virtualisera hårdvaruservrar till att nu även virtualisera storage (SAN genom bla. vVOL), nätverk ("Software Defined Networking" genom VXlan och Nicira) och säkerhet (vShield för Brandväggar&Antivirus)
Här har man ett rätt bra tänk känns det som. Allting är så klart inte på plats ännu men det är på gång och nya releaser kommer hela tiden.
VMware har också tryckt en del på mangement av miljöerna. En sak man sagt flera gånger är "en administratör skall klara av att sköta 10 000 VMar"...
Skall en person klara av att sköta den mängden servrar så krävs det enormt mycket automatisering. Ett av verktygen för att göra detta är Orchestrator som används alldeles förlite i organisationer idag. :(
Ett annat verktyg jag har talat mig varm för många gånger är vCOPS (vCenter OPerations Suite).
Tillskillnad från SCOM (System Center Operations Manager från Microsoft) så utgår vCOPS från avvikelsehantering. Systemet larmar alltså om den ser saker som inte stämmer in i hur miljön brukar uppföra sig.
Jag gillar detta upplägg! Det gör att vi kan sluta sätta upp fasta mätvärden som ändå efter ett tag inte stämmer när det kommer nya releaser av produkter och liknande. Självklart ställer detta krav på att miljön mår bra från början när systemet börjar samla in information. :)
Sammanfattning
De olika lösningarna skiljer sig en del. VMware och Citrix är båda Linuxbaserade i sitt tänk och kräver därför en kunskaper som en "vanlig" windowstekniker inte har.
Samtidigt så ställer Microsoft krav på att man kan Powershell och SystemCenter sviten.
Så hur man än vänder sig så måste man ha lite speciell kunskap.
Alla leverantörerna har olika lösning för att bygga privata moln. Microsoft använder så klart System Center, Citrix använder bland annat sin produkt CloudStack och VMware använder vCloud Director.
Tyvärr verkar det som att Microsoft och VMware gör på lite olika sätt när det gäller nätverksvirtualiseringen (se mer info: http://blog.ioshints.info/2012/12/hyper-v-network-virtualization-wnvnvgre.html)
Som synes är det rätt olika hur företagen ser på det här med virtualisering. Vem som har rätt, eller vem som kommer att få rätt... det vet jag ännu inte.
Det enda jag vet är att svaret på frågan "Vilken skall jag välja?"
än så länge är: "Det beror på."
Det jag kan säga är att sannorlikheten blir allt mindre att det är teknisk funktionalitet som avgör vilken lösning som skall byggas. Istället är det saker som Licensregler, administration, flexibilitet och vilka övriga komponenter i IT-miljön som måste tas hänsyn till som istället kommer avgöra hur vi designar lösningen.
Jag avslutar med ett citat från en presentation jag varit på under hösten:
"To view a design holistically means to unerstand, at a fundamental level, that all things in the design are interconnected and interdependent"
(läs mer)
Etiketter:
arbetssätt,
Hyper-V,
Lagring,
Moln,
VMware,
WindowsServer2012,
XenApp,
XenDesktop,
XenServer
2012-12-17
Trender inför 2013 inom "Cloud computing" och "Big Data"
Nu börjar vi närma oss årsskiftet och då är det dags för alla artiklar med spådomar om vad som kommer att bli "nästa stora grej" (tm). :)
Jag fick ett tips av @MaxBüchler om en jätteartikel där man samlat en massa olika människor och vad det tror kommer bli trenderna under 2013.
Det jag gillade är att det är mycket kortfattat från varje person och att det är många som får tycka till vilket gör att det blir en viss bredd på det hela.
Läs artikeln här: http://cloudcomputing.sys-con.com/node/2473811
Tittar vi sedan på Maturity-grafen från hur Gartner ser att olika teknologier kommer utveckas så ser vi att cloud-computing ligger i mitten av den nedåtgående kurvan...
Med andra ord, det är nu man börjar hitta svagheterna med moln och verkligheten kommer ifatt hypen...
Vi kan med utgångspunkt från detta även se fram emot ruskigt intressant utveckling inom molntjänster de närmaste tiden så det är helt klart värt att hålla koll på detta.
Men som sagt. läs artikeln den är intressant:
Läs artikeln här: http://cloudcomputing.sys-con.com/node/2473811
Jag fick ett tips av @MaxBüchler om en jätteartikel där man samlat en massa olika människor och vad det tror kommer bli trenderna under 2013.
Det jag gillade är att det är mycket kortfattat från varje person och att det är många som får tycka till vilket gör att det blir en viss bredd på det hela.
Läs artikeln här: http://cloudcomputing.sys-con.com/node/2473811
Tittar vi sedan på Maturity-grafen från hur Gartner ser att olika teknologier kommer utveckas så ser vi att cloud-computing ligger i mitten av den nedåtgående kurvan...
Med andra ord, det är nu man börjar hitta svagheterna med moln och verkligheten kommer ifatt hypen...
Vi kan med utgångspunkt från detta även se fram emot ruskigt intressant utveckling inom molntjänster de närmaste tiden så det är helt klart värt att hålla koll på detta.
Men som sagt. läs artikeln den är intressant:
Läs artikeln här: http://cloudcomputing.sys-con.com/node/2473811
Prenumerera på:
Inlägg (Atom)