การสร้างงานมัลติมีเดีย
เปรียบเทียบอัตราส่วนการแสดงผลของจอภาพมาตรฐานต่างๆ ไม่ว่าจะเป็นจอโทรทัศน์ จอคอมพิวเตอร์ ไปจนถึงการแสดงผลแบบ HDTV ( High Definition Television ) ซึ่งการแสดงผลของภาพในปัจจุบันกำลังพัฒนาไปสู่การแสดงผลของภาพที่ให้ความคมชัดสูงมากขึ้นเรื่อยๆ เพื่อที่จะทำให้การแสดงผลของจอภาพรองรับมาตรฐานแบบ Full HD
จากรูป..เป็นการเปรียบเทียบการแสดงผล สำหรับจอภาพ ตามมาตรฐานต่างๆ ที่เรารู้จัก...
- Full HD (High Definition) 1920 x 1080
- HD (High Definition) 1280x720
- PC XGA (Extended Graphics Array) 1024x768
- SD (Standard Definition) PAL TV 768x576
- SD (Standard Definition) NTSC TV 720x480
- CIF (Common Intermediate Format) 352x288
- QCIF (Quarter Common Intermediate Format) 176x144
HDTV ( High Definition Television )
มีชื่อเรียกอย่างเป็นทางการว่า "โทรทัศน์ความคมชัดสูง" หรือ "โทรทัศน์รายละเอียดสูง" หรือเรียกสั้นๆ ว่า HDTV เป็นคำสั้นๆ ที่แสดงให้เห็นถึงการแสดงภาพวิดีโอ โดยเลข 1080 หมายถึง จำนวนความละเอียดของเส้นในแนวนอน 1,080 เส้น และตัวอักษร p ย่อมาจาก Progressive Scan หรือ non-interlaced ในขณะที่ i ย่อมาจาก interlaced ปัจจุบันทั้ง 1080i และ 1080p เป็นฟอร์แมตความละเอียดสูงสุด ที่ใช้กันทั่วไปในการแพร่ภาพโทรทัศน์และการเก็บภาพวิดีโอ
ดังนั้น 1080p จึงเป็นสัญญาณภาพแบบ HDTV โดยมีการรับส่งสัญญาณภาพในแบบจอกว้างหรือไวด์สกรีน ( Widescreen ) อัตราส่วน 16:9 นั่นหมายความว่า ความละเอียดของการแสดงจะผลอยู่ที่ 1920 จุดในแนวนอน และมีความละเอียด 1080 จุดในแนวตั้ง รวมเท่ากับ 1920 x 1080 หรือเท่ากับ 2,073,600 พิกเซล ( 2Mpixel หรือ 2 ล้านพิกเซล )
คำว่า Full HD และ HD-Ready มีความหมายอย่างไร
Full HD หมายถึงการแสดงผลของจอภาพโทรทัศน์ที่ให้รายละเอียดจำนวนของเส้นในแนวนอนเท่ากับ 1,080 เส้น ทั้งแบบ 1080i และ 1080p ถือว่าเป็นแบบ Full HD สำหรับจอแสดงภาพในแนวนอนเท่ากับ 1,080 เส้น นั่นคือเป็นคำจำกัดความของจอภาพแบบ Full HD จะแสดงผลทางแนวตั้งและแนวนอน เท่ากับ 1920x1080 จุด ซึ่งเท่ากับ 2,073,600 พิกเซล ( 2Mpixel หรือ 2 ล้านพิกเซล ) นั่นเอง
HD Ready คำนี้จะใช้สำหรับจอภาพที่มีความละเอียดต่ำกว่า Full HD ไม่ว่าจะเป็นขนาดภาพ 1366x768 หรือ 1024x768 หรือ 1280x720 สำหรับจอภาพโทรทัศน์ที่โฆษณาว่าเป็น HD Ready นั้นจะรองรับการนำเข้า input HDMI รับสัญญาณภาพจากเครื่องเล่นที่เป็น Full HD ( 1080i หรือ 1080p ) เช่น..เครื่องเล่น Blu-ray มีขนาดภาพ Full HD 1920x1080 (pixels) ส่งต่อสัญญาณภาพให้โทรทัศน์ที่มีขนาดจอภาพเป็น HD เพียง 1280x720 (pixels) เครื่องรับโทรทัศน์จะทำการ Down Scale ให้เหลือแค่ Native Resolution ให้แสดงผลเท่าที่จอภาพของมันจะทำได้เท่านั้น คือจากขนาดภาพ 1920x1080 pixels (1,080 เส้น) เหลือเพียงขนาดภาพ 1280x720 (720 เส้น) เหมือนว่ารองรับสัญญาณภาพ Full HD 1920x1080 (1,080 เส้น) แต่จริงๆแล้วแสดงผลบนจอภาพโทรทัศน์เพียง 1280x720 (720 เส้น) เท่านั้น จึงเรียกว่า HD-Ready ( แปลว่า...พร้อมสำหรับ HD แต่ไม่ใช่ Full HD )
ตามมาตรฐานของญี่ปุ่น ยอมรับว่าการแสดงผลแบบ 1080p ถือว่าเป็น Full HD แต่สำหรับการแสดงผลแบบ 1080i แค่ยอมรับได้ว่าเป็น HD แต่ทางอเมริกากำหนดว่าการแสดงผลแบบ 1080i และ 1080p เป็นแบบ Full HD ส่วนการแสดงผลแบบ 720p ที่มีจำนวนเส้นในแนวนอน 720 เส้น แบบ Progressive Scan นั้นเป็นเพียง HD ธรรมดา
ส่วนภาพขนาด 720i ( 720 เส้น แบบ interlaced ) ไม่ถือว่าเป็น HD แต่เป็นแบบ EDTV (Extended Definition Television) ระดับภาพแบบมาตรฐานของเครื่องเล่น DVD หรือ HD-DVD
สรุปตามขนาดการแสดงภาพแบบ HD ซึ่งเป็นสัญญาณภาพที่มีขนาดใหญ่ที่สุด ได้ว่า
- ขนาดภาพแบบ Full HD เท่ากับ 1,920 x 1,080 pixels = 2,073,600 พิกเซล
- ขนาดภาพแบบ HD เท่ากับ 1,280 x 720 pixels = 921,600 พิกเซล ( ไม่ใช่ Full HD )
อัตราส่วนของจอภาพ สำหรับ HD คือ ขนาดความกว้าง x ความสูง เป็น 16 ต่อ 9 (16:9) ซึ่งเปรียบเทียบค่าได้จากการนำค่าของความกว้างกับความสูงมาหารกัน ดังนี้ 1,920/1,080 เท่ากับ 16/9 และ 1,280/720 เท่ากับ 16/9 เหมือนกันนั่นเอง
XGA ( Extended Graphics Array )
คือคำที่เรียกการแสดงผลของจอภาพคอมพิวเตอร์ ( Monitor Computer ) ย่อมาจาก Extended Graphics Array (แปลว่าขบวนปรับภาพแบบขยาย) เป็นชนิดจอ LCD หรือ LED มีหลายมาตรฐาน คือ
มีความละเอียดตั้งแต่
แล้วยังมีขนาดอัตราส่วนอื่นๆ อีก ที่ขึ้นต้นด้วย W เรียกว่า Wide Screen (จอกว้าง) คือ
เสริมความรู้
Full HD 1080p กับ 1080i แตกต่างกันอย่างไร ? อย่างไหนดีกว่ากัน ?
หลายๆท่านอาจจะเคยได้ยินและสงสัยกันมานานแล้วว่าความละเอียดระดับ Full High Definition ที่เราใช้งานกันในปัจจุบัน ทำไมถึงมีอักษรต่อท้ายด้วยตัว "P" และบางอันก็เป็นตัว "i" เช่น 1080p , 1080i , 720p, 720i ตัวเลขเหล่านี้แตกต่างกันอย่างไร อย่างไหนดีกว่ากัน ? เรามีคำตอบให้ครับ
1. อย่างแรกคือความละเอียดของภาพเท่ากันหรือไม่ ?
สำหรับความละเอียดของภาพ "Full HD" แบบ 1080p และ 1080i นั้นคือ 1920 x 1080 = 2.073 ล้านพิกเซล เท่ากันครับ
2. แล้วตัวอักษร "P" ที่ต่อท้าย 1080p มันคืออะไรล่ะ ?
P ในที่นี้ย่อมาจาก Progressive Scan หรืออธิบายอย่างย่อๆว่าเป็นการแสกนภาพ เริ่มตั้งแต่เส้นที่ 1,2,3,4,5,6,7.... ไปจนถึงเส้นที่ 1080 เพื่อให้เกิดมาเป็น 1 เฟรมภาพ แสดงอยู่บนหน้าจอทีวี
3. ตัวอักษร "i" ที่ต่อท้าย 1080i มันคืออะไร ?
สำหรับ i นั้นย่อมาจาก Interlaced Scan ซึ่งเป็นการสแกนภาพแบบ "สลับฟันปลา"
โดยเริ่มจากเส้นเลขคี่ก่อน คือ 1,3,5,7,9,11,13.... จนถึงเส้นที่ 1,079 รวมเป็น Field ที่ 1
และสลับมาเป็นเส้นเลขคู่คือ 2,4,6,8,10,12,14.... จนถึงเส้นที่ 1,080 รวมเป็น Field ที่ 2
จากนั้นนำ Field ที่ 1 รวมกับ Field ที่ 2 = 1 เฟรมภาพ บนหน้าจอทีวี
4. สรุปแล้วอย่างไหนดีกว่ากัน ?
ในด้านคุณภาพของภาพ ขอตอบอย่างฟันธงว่า "1080p" ดีกว่า "1080i" แน่นอนครับ แต่ถ้าเป็นในด้าน "Bandwith" นั้น 1080i จะกิน Bandwith น้อยกว่า จึงนิยมนำมาใช้ในการออกอากาศทางโทรทัศน์ ซึ่งก็ถือว่ามีความคมชัดมากๆแล้ว หากเทียบกับ Standard Definition ที่เราเคยรับชมกันมา
ที่มา
http://4k.com/resolution/
http://dtv.mcot.net/data/up_show.php?id=1308457157&web=epost
https://www.lcdtvthailand.com/topic_detail.php?id=554