Wednesday, September 28, 2011

Virtual Core in vSphere 5

ก่อนเวอชั่น vSphere 4.1 แอดมินไม่สามารถกำหนดจำนวน Core ให้กับ vCPU ของตนเองได้
ซึ่งโดยทั่วไปแล้ว (เวอร์ชั่นก่อนๆ)1 vCPU คือ 1 CPU socket สำหรับ Guest VM "ดังนั้น Windows 2003 Standard VM ก็จะใส่ได้แค่ 4 vCPU เนื่องจาก win standard support สูงสุดที่ 4 socket "

จากประโยคข้างบน หลายคนคงเริ่มบ่น เนื่องจากไม่คุ้มกับค่าlicenseอย่างมากกก เพราะถ้าเทียบกับการใช้งานบนเครื่อง physical เราสามารถใช้งาน CPUได้มากกว่า 4 โดยการซื้อ multi-core processor มาใช้งาน อาทิเช่น ใช้ 2 quad-core processor จะทำให้ Windows มองเห็นถึง 8 logical processor เลยทีเดียว
เพื่อแก้ปัญหาตรงนี้ ในเวอชั่น vSphere 4.1 จึงเพิ่ม feature ตรงนี้ขึ้นมา แต่จะต้องเข้าไปแก้ใน advance option ซึ่งบางคนอาจจะไม่ชอบใจนัก ดังนั้นใน vSphere 5 จึงมีเมนูให้กำหนด virtual core ให้ตั้งแต่แรก ดังรูป


ท้ายสุด หลายๆคนก็จะถามกลับมาว่า "ถ้างั้นระหว่าง 4 virtual socket / 1 virtual core กับ 2 virtual socket /2 virtual core ผมควรจะกำหนดอย่างไรดี เนื่องจากทั้งคู่ได้ผลลัพธ์เท่ากัน"
ผมแนะนำอย่างนี้คับ ถ้าไม่มีความจำเป็นหรือไม่ติดเรื่อง license ก็ให้ใช้ virtual core เป็น 1 ไปคับ แล้วเซ็ต virtual socket ตามความต้องการ จะเหมาะสมที่สุดคับ

Friday, September 23, 2011

VMFS5 versus VMFS3

วันนี้ผมมีโอกาสได้ลองเล่น VMFS 5 (VMware File System) ที่มากับ vSphere5
และพอดีไปเจอตารางเปรียบเทียบ ของทาง VMware มา เลยอยากจะเอามาแชร์ให้คับ


1.จะเห็นได้ว่า VMFS5 นั้นไม่มีลิมิตขนาดDatastore ไว้ที่ 2 TB อีกต่อไป เนื่องจากเปลี่ยนไปใช้ Partition Table แบบ GPT (เหมือนกับของ Windows 2008 )
2. จาก Block size 1,2,4,8 MB จะเหลือแค่ 1 MB
3. Sub-Block size จากเดิมที่เป็น 64K -----> 8K ทำให้ใช้พื้นที่disk ได้อย่างมีประสิทธิภาพมากขึ้น
4. การอัพเกรดจาก 3--->5 ไม่มี downtime คับ (อันนี้สำคัญที่สุด 55)

Thursday, September 22, 2011

New snapshot menu in vSphere 5

วันนี้ผมจะมาขอแนะนำ  เมนู snapshot ที่เพิ่มเข้ามาใน version  5 นะคับ
คนที่ลองเล่น version 5 ไปแล้วอาจจะยังไม่สังเกตุเห็นก็ได้   ไม่พุดมากละคับ ดุรุปกันเลยดีกว่า

เอออ แล้วมันมีไว้ทำอะไรละเนี่ย
เมนูนี้ทำขึ้นมาเพื่อแก้ปัญหาที่ทำให้ adminหลายๆคนปวดหัวใน vsphere4  คับ
     ใน vSphere4  ถ้ากระบวนการ merge/delete snapshot fail ขึ้นมา สิ่งที่เกิดขึ้นก้คือ ไฟล์snapshot นั้นจะยังคงค้างอยู่ใน Datastore แต่ใน snapshot manager จะไม่โชว์เลยว่ามี snapshot ค้างอยู่ ซึ่งถ้าadmin ไม่เข้าไปดุที่ Datastore หรือ ดูผ่าน Storage View จะไม่มีทางรุ้เลย  ซึงการจะลบ snapshot ที่ค้างเหล่านี้ออกไปนั้น จะต้องทำโดยใช้ command line เท่านั้น ไม่สามารถทำผ่าน snapshot manager ได้
     ดังนั้นในvSphere เวอชั่น 5 นี้ จึงได้เพิ่มเมนู consolidate ขึ้นมาเพื่อแก้ปัญหาตรงจุดนี้ คับ  เราสามารถที่จะสั่ง merge snapshot ได้จากเมนูนี้เลย โดยไม่ต้องไปพึ่ง command line  แบบ version 4 อีก 

ชีวิตสบายขึ้นอีกเยอะ ^_^

Wednesday, September 21, 2011

Virtual disk defragmentation

ควร defrag disk บน guest OS ไหม??  , แล้วบน Datastore (VMFS) ละควรจะทำด้วยไหม

     เป็นคำถามที่ หลายคนสงสัยมาก เนื่องจากเรามักจะdefrag disk กันในเครื่องPhysicalที่รัน Windows เพื่อต้องการประสิทธิภาพในการอ่านและเขียนdiskที่ดีขึ้น แล้วพอย้ายมาเป็น VM  เรายังจำเป็นต้องทำกระบวนการตรงนี้อยู่อีกไหม?


ผมจะขอแยกเป็นสองส่วน นั่นคือการทำ defragment บน Guest OS (Windows - NTFS)  กับการทำ defragment  บน Datastore (VMFS)


defragment บน Guest OS (Windows - NTFS)

ถ้าใช้ disk เป็นแบบ Thick  สามารถทำได้คับ  แต่ไม่จำเป็นมากนัก  เนื่องจาก VM disk นั้นจะอยู่บน share storage   การที่defrag guestไปเพียงเครื่องเดียวไม่ได้ทำให้ performance ของ guest เครื่องนั้นดีขึ้นเท่าไหร่ เพราะยังต้องแชร์กะคนอื่น  ซึ่งจะต่างจากกรณีเครื่องPhysical (local disk)

VM ที่ใช้ disk เป็น thin, มี snapshot,เป็น link clone,กำลัง backupอยู่ หรือกำลังทำ Storage VMotion     พวกนี้ไม่ควรทำ defrag คับจะมีแต่ผลเสีย  เนื่องจากจะไปทำให้ขนาดของ thin diskและsnapshot โตขึ้น,ส่งผลต่อ performance อย่างมาก

     เนื่องจาก disk defragment นั้นเป็นtaskที่สร้าง I/O สูงมาก ก่อนทำควรคิดให้ดีๆ เนื่องจากอาจจะไปส่งผลกระทบต่อ VM อื่นๆใน Datastore (share storage)นั้นได้

defragment  บน Datastore (VMFS)
ณ ขณะนี้ยังไม่มี tools มารองรับการทำงานนี้คับ  จบ!!
คือจิงๆแล้ว แทบไม่จำเป็นต้องทำเลยคับ   เหตุผลคือ virtual disk (vmdk) แต่ละไฟล์นั้นมีขนาดใหญ่ด้วยกันทั้งนั้น อีกทั้งจำนวนไฟล์ก็ไม่ได้ยิบย่อยเหมือนของWindows  โอกาสที่จะเกิดfragment ก็มีน้อยคับ

Concept บางอย่างสำหรับเครื่อง Physical ไม่สามารถนำมา apply ใช้ได้กับ โลก Virtual ได้เสมอไปนะคับ



Tuesday, September 20, 2011

Virtual machine nic teaming

พอดีผมไปเจอคำถามนึงน่าสนใจดีคับ หลายๆคนที่ก้มีถามคำถามนี้มาเหมือนกัน เลยคืดว่าจะมาช่วยแก้ไขความกระจ่างนี้ให้

ถาม: "เครื่อง physical ผมมี network 1Gb 4 port ทำ teaming กันอยู่ ได้ speed 4Gb , แล้วเครื่องที่เป็น VM ละคับ ผม assign 4 vNic ให้ เหมือนกัน ผมต้องทำ network teaming บน OS เหมือนกันไหม"
ตอบ :ไม่ต้องทำคับ ไปทำ teaming ที่ vswitch ทีเดียวพอคับ

ถาม:อ้าวววทำไมละคับ ก็ที่ทำไปเพื่อจะได้มี Redundancy ไง
ตอบ:virtual nic เป้นแค่ nic จำลอง เป็นแค่ driver , code เท่านั้นเอง ไม่ใช่ของจิง ที่เห็นในVMว่าspeedเป็น 1 Gb นั้น เป็นแค่เลขลวงตาจากการจำลอง network card เนื่องจากพวกนี้วิ่งกันในระดับ kernel(backpane) ,ไม่มีการ limit speed คับ
อ่านเพิ่มเติมได้ที่นี่คับ
kb.vmware.com/kb/856
อีกอย่าง ต่อให้ team vNic กันไป แต่ที่uplinkของ vswitchไม่ได้ทำ teamingไว้ VM ของคุณ network ก็หลุดอยุ่ดี ไม่ว่าจะทำ team ที่ vNic ก้ตาม

ถาม: อืมๆ งั้นถ้าจะทำ teaming เพื่อเพิ่ม speed ไง จะได้ตั้ง 4 Gb เชียวนะ
ตอบ: คำตอบก้เหมือนเดิมคับ virtual nic เป้น nic จำลองขึ้นมา โดยต่อเข้ากับ vswitch ซึ่งวิ่งอยู่ในkernel ไม่มีการlimit speed คับ ดังนั้น team เป็น 4 Gb หรือไม่backpaneก็วิ่ง speed เท่ากันอยู่ดีคับ
อีกอย่าง ถ้า uplink ของ vswitch มีแค่ 1 port จะ team vNic กันกี่ port ปลายทางก็ออกได้แค่ 1 Gb อยู่ดีละคับ

ถาม:งั้นๆถ้าเพิ่ม uplink ที่ vswitch เข้าเป็น 4port ละ
ตอบ:vSwitch ไม่รองรับ LACP (link aggregate) สำหรับ uplink port นะคับ 4 uplink ไม่สามารถเอา 1+1+1+1 ได้คับ

หวังว่า คงจะช่วยไขข้อข้องใจให้ หลายๆคนได้ไม่มากก้น้อยนะคับ


Monday, September 19, 2011

ESXi Multipathing and HCL for Storage/SAN devices

   หลายๆคนไม่มากก็น้อย คงอาจจะเคยเข้าไป  เช็คกันว่า storage ที่จะนำมาใช้งานกับ vSphere นั้นมันอยู่ใน compatibility list  หรือไม่

   ถ้าอยู่ใน VMware HCL (HW compatability list) นี้ก็จบ  นำไปใช้งานได้  ตามเวอชั่นของ ESX/ESXi นั้นๆ  ดังรุป



แต่เคยสังเกตุกันไหมคับว่า  ในหน้าเวป VMware HCL นั้น มี criteria ให้ search มากว่า แค่ รุ่น ยี่ห้อ และ fw ของ storage   ยิ่งไปกว่านั้น ณ ปัจจุบัน VMware ได้เปลี่ยนเมนู หน้าเวปนี้ใหม่   เอาแบบว่า ดุกันแล้วงงทีเดียว
ผมจะยกตัวอย่างรุปนี้ให้ดุนะคับ

ปล. ถ้าใครไม่เคยเข้าไป    ลองตามนี้เลยคับ http://www.vmware.com/resources/compatibility
 ใน drop down "What are you looking for"   เลือก Storage/SAN 
 

 ทางฝั่งซ้ายผมคงไม่ต้องอธิบายอะไรมาก  เราน่าจะรุ้ๆกันอยู่   แต่พอหันมาดุฝั่งขวา ........โหหหอะไรเนี่ยเต็มไปหมดเลยยยยยย

             ก่อนที่ผมจะมาไล่อธิบายให้ทีละตัว  อยากจะขอเกริ่นไว้ก่อนว่า รายละเอียดทางฝั่งขวาทั้งหมดมาจากโครงสร้างของ VMware ที่เรียกว่า PSA (Plugable Storage Architecture) และ VAAI (vStorage API for Array Integration) 

-PSA แปลกันตงๆเลยก็คือ โครงสร้าง storage ที่สามารถเขียน Plug-in มาเสียบใช้งานได้  โดย Plug-in เหล่านี้อาจะเป็นของ  VMware เอง หรือ ของ Third-party storage เวนเดอร์ก้ได้
-VAAI นั้นจะเป็นความสามารถในการ offload งาน storage บางอย่างจาก ESXi ไปยัง storage แทน  


เอาละมาเข้าเรื่องกันดีกว่าผมขอคุยถึง PSA ก่อนนะคับ
         จากในรูป ตัวย่อ Plugin หลักๆ3 ตัว นั่นคือ  MPP , PSP , SATP
         Plug-in เหล่านี้คืออะไร?
         พวกนี้คือ Plugin  ที่เกี่ยวข้องกับการทำ Multipath ทั้งสิ้น  ผมขออธิบายด้วยรุปละกัน
       Default Multipath Plugin ที่มากับ VMware คือ NMP (Native Multipath Plugin) มีหน้าที่หลักในการเลือกใช้ sub plugins ( VMware SATP  , VMware PSP  ) ให้ถูกต้อง



SATP (Storage Array Type Plugin) จะทำหน้าที่คอยตรวจสอบ สถานะของlink หรือ  path ระหว่าง ESXi กับ storage controller เพื่อทำการ fail over link/path ในกรณีที่เส่นทางที่ I/O วิ่งอยู่เกิด down ไป
PSP (Path Selection Policy )  ในทางกลับกัน  PSP จะเป็นคนคอยตัดสินใจว่า ควรจะ fail over ไปยัง path ไหนตามที่เรากำหนด policy ไว้

โดยที่เวนเดอร์เจ้าอื่นๆก็ สามารถเขียน plug-in เพื่อมาใช้งานแทน plug-in ของทาง VMware ได้

ในช่อง SATP Plugin ของ VMware HCL จะเห็นประเภทของSATP ต่างๆโดยพวกนี้จะขึ้นกับ Storage ที่นำมาเชื่อมต่อ , VMW_SATP_XX คือ SATP ของทาง VMware เอง โดยXX  จะแทนรูปแบบ/รุ่น ของ Storage เช่น EQL =Equal Logic , SYMM = Symmetrix

เช่นเดียวกัน  PSP Plugin ก็จะมีประเภทของ policy ที่ใช้ในการเลือกเส้นทางที่จะส่ง I/O (default policy ของ ทางVMware มีทั้งหมด สี่แบบด้วยกัน )


MRU (Most Recently Used)  จะพยายามเลือกใช้เส้นทางที่ปัจจุบันที่สุดเพียงเส้นเดียวเสมอ 
FIXED  ตรงไปตรงมาคับ   จะพยายามใช้เส้นที่เราเลือกไว้เพียงเส้นเดียวเสมอ  
Round Robin  จะสลับ I/O ไปมาระหว่างแต่ละ path ไม่ตายตัวเหมือนสองอันแรก โดยขึ้นกับสองเงื่อนไข  (จำนวน I/O ,  Bytes)
VMW_PSP_FIXED_AP    ESXi จะเป็นคนเลือกเองว่าควรจะใช้เส้นไหน

แล้วจะเลือกใช้อันไหนดีละ ?  รอดุตัวอย่างนะคับ   ต่อไปผมจะพุดถึง VAAI บ้าง
 
VAAI มีไว้ทำอะไร

VAAI จะช่วยให้ ESXi สามารถแบ่งเบาภาระงาน I/O บางอย่างออกจากตัวเองไปลงที่ storage ได้ ซึ่งไม่ใช่ทุก storage ที่จะ support ตรงนี้

โดยหลักๆแล้ว  จะมีงานสามแบบที่ VAAI offloadได้  นั้นคือ Block-Zero , Full copy , HW assist Locking ผมจะไม่ขอลงลึกนะคับ   ถ้าสนใจมากว่านี้ ไว้โพสถามมาละกัน ยกตัวอย่างเช่น
 Full copy     แทนที่จะให้ESXi เป็นคนก้อป (I/O วิ่งผ่าน VMkernel)   ESXi จะก็สั่งให้ storage copy ให้แทน  ซึ่งจะทำให้เวลาในการ copy ลดลงไป

เอาละสุดท้ายแล้ว  ผมจะให้ดุละกันคับว่า ที่กล่าวมาทั้งหมดนั้นเรานำไปประยุกต์ใช้ในการอ่าน VMware HCL ได้อย่างไร


Hello Everyone!!!
ในที่สุดก็มี blog เป็นของตัวเองซักที -__-"

 Blog นี้อุทิศให้กับงานของผม  ซึ่งเกี่ยวข้องกับ Virtualization  Technology เป็นหลัก
แหะๆ  เน้นไปทาง VMware นะคับ
ผมจะพยายามมาแชร์ ประสบการณ์การทำงาน  ปัญหาที่เจอต่างๆ รวมไปถึงการขอคำปรึกษาแนะนำกูรูทั้งหลาย บน blog นี้  เพื่อเป็นแนวทางช่วยเหลือ IT คนอื่นๆ 

มีข้อสงสัยอะไร มีไรมาแนะนำ มาแชร์กันได้คับ  ^_^