หน้า: [1]
  พิมพ์  
ผู้เขียน หัวข้อ: ศัพท์พื้นฐานสำหรับงาน DigitalAudio  (อ่าน 28646 ครั้ง)
Lamsing
Administrator
Hero Member
*****
เพศ: ชาย
กระทู้: 805


> Stylus RMX Library <

dj_lamsing_13@hotmail.com
ดูรายละเอียด
| |
« เมื่อ: มีนาคม 20, 2008, 09:37:04 PM »

สำหรับผู้ที่เพิ่งเข้ามาสัมผัสเทคโนโลยีทางดนตรี อาจ 'งง' กับศัพท์เทคนิคมากมายที่ใช้ ลองทำความเข้าใจได้จากกระทู้นี้ครับ

Frequency Modulation Synthesis [Synthesis]

Frequency Modulation Synthesis หรือ FM Synthesis ใช้หลักการเดียวกับวิทยุ FM ที่เราฟังกันนั่นแหละครับ แต่จะกระทำในย่านความถี่ที่มนุษย์เราได้ยิน (Audio) ไม่ใช่ในย่านความถี่วิทยุ (Radio) หลักการของมันก็คือการที่แหล่งกำเนิดความถี่หนึ่ง ไปทำการเปลี่ยนแปลง (Modulate) ความถี่ของอีกแหล่งกำเนิดความถี่นึง คิดค้นโดย John Chowning ที่มหาวิทยาลัยสแตนฟอร์ดในช่วงปี 1967-68 และได้รับสิทธิบัตรในปี 1975 ซึ่งต่อมาภายหลัง Yamaha ได้สิทธิ์ไปผลิตจำหน่าย ความได้เปรียบของมันก็คือการที่เราสามารถสร้างรูปคลื่นที่ซับซ้อน (Complex Waveform) ได้จากรูปคลื่นอย่างง่าย (Simple Waveform) อย่างเช่น Sine Wave, Sawtooth Wave ฯลฯ FM Synth นั้นจะนิยมสร้างด้วยระบบดิจิตอลครับ เพราะการใช้วงจรอนาลอคนั้นจะให้ Pitch ไม่คงที่ และเทคนิคนี้ก็ได้กลายเป็นเทคนิคพื้นฐานของดิจิตอลซินธ์ในยุคเริ่มต้นของ Yamaha โดยเฉพาะ Yamaha DX7 นั้น ถือว่าโด่งดังสุด ๆ ในยุค 80 เลยทีเดียวครับ ปัจจุบันเราสามารถสัมผัสเสียงของ DX7 ได้จากซอฟต์แวร์ FM7 ของ Native Instruments ซึ่งต่อมาทาง Casio ได้พัฒนาเทคนิคที่คล้ายคลึงกันอย่าง Phase Distortion (Phase Modulation) Synthesis เพื่อใช้กับซินธ์ในตระกูล CZ series ซึ่งจะให้เสียงคล้ายคลึงกันกับ DX7 ครับ ปัจจุบันสิทธบัตรของ FM Synthesis ได้หมดลงแล้ว (ตั้งแต่ปี 1995) เราจึงมีโอกาสได้สัมผัสมันได้อย่างง่าย  ๆ จากซอฟต์แวร์ที่มีทั้งฟรีและทั้งไม่ฟรีครับ

RCA Connector



มากันทีละ 3 หัวแบบนี้ พอจำกันได้ใช่ไหม ว่าใช้กับอะไร?

น่าจะเป็นหัวต่อที่คุ้นเคยกันดีครับ เพราะเครื่องใช้ไฟฟ้าทั่ว ๆ ไปในหมวด Audio/Video ก็ใช้หัวต่อนี้กัน คำว่า RCA ย่อมาจาก Radio Corporation of America ครับ ใช้ครั้งแรกในยุค 1940 สำหรับต่อเครื่องเล่นแผ่นเสียงไปเข้าวิทยุ หัวต่อหนึ่งชุดคือสัญญาณหนึ่งช่อง ดังนั้นหากเราต้องการใช้มันแบบสเตอริโอก็ต้องมีคู่หนึ่ง นอกจากส่งสัญญาณอนาลอกแล้ว สัญญาณเสียงดิจิตอลก็ยังใช้มันในการส่งด้วยครับ (ดูรายละเอียดในหัวข้อ S/PDIF) แต่นิยมใช้หัวต่อสีส้ม เพื่อแยกความแตกต่างกับหัวต่อแบบอื่น

S/PDIF [Connector]



เป็นมาตรฐานการเชื่อมต่อดิจิตอลออดิโอที่จะว่าไป มันก็คือ AES/EBU เวอร์ชันสำหรับคอนซูมเมอร์โปรดักท์ครับ S/PDIF มาจากคำว่า Sony/Phillips Digital Interface Format ที่บอกว่ามันคือ AES/EBU ก็เพราะว่ามันใช้โปรโตคอล* (Protocol) เดียวกันเลย หากแต่ต่างการที่ระบบการเชื่อมต่อ เช่นเปลี่ยนจากหัวต่อแบบ XLR มาเป็นสายโคแอ๊กเชี่ยลและหัวต่อแบบ RCA หรือหัวต่อแบบ TOSLINK ด้วยสายออพติกไฟเบอร์ (แต่ชาว Mac นิยมเรียกว่าออพติกคอลกันมากกว่า)

ADAT [Connector]

เครื่องบันทึกเสียงระบบดิจิตอล 8 แทรคของ Alesis ปัจจุบันเลิกผลิตไปแล้ว

หรือเรียกกันเต็ม ๆ ว่า Alesis Digital Audio Tape นอกจากจะเป็นชื่อเครื่องเล่น-บันทึกเทป 8 แทรคในระบบดิจิตอลแล้ว มันยังย่อมาจากโปรโตคอลสำหรับรับส่งดิจิตอลออดิโอ “ADAT Lightpipe” หรือ “ADAT Optical” มีความสามารถในการส่งสัญญาณเสียง 8 ช่องสัญญาณด้วยสายไฟเบอร์ออพติกเส้นเดียว ปัจจุบันนี้มาตรฐานเดียวกันนี้ยังถูกนำไปใช้กับ Analog-to-Digital Converters หรือบนออดิโออินเตอร์เฟซก็มีให้ใช้กัน ซึ่งข้อดีของมันที่เหนือกว่า S/PDIF หรือ AES/EBU ก็คือการที่มันส่งสัญญาณเสียงได้ทีละ 8 ช่องสัญญาณนี่ล่ะครับ แต่มาตรฐานนี้ก็จะถูก MADI มาแทนที่ในไม่ช้า เพราะสามารถส่งสัญญาณเสียงได้ถึง 64 ช่องสัญญาณด้วยสายไฟเบอร์ออพติกเพียงเส้นเดียวครับ

Additive Synthesis [Synthesis]

Additive Synthesis หรือการสังเคราะห์เสียงโดยใช้พื้นฐานจากการบวกกันนั่นเองครับ นี่คงเป็นเทคนิคที่พื้นฐานที่สุดแล้ว เหมือนกับการวาดภาพที่เราค่อยๆบรรเลงสีลงกระดาษขาวทีละส่วนจนเต็ม การสังเคราะห์เสียงด้วยการบวก คือการที่เรานำองค์ประกอบของเสียงเล็กๆ (Partials) มาบวกกัน ซึ่ง Partials แต่ละชิ้นจะมีความถี่ไม่เหมือนกัน เมื่อบวกกันเข้าไป จะทำให้เราได้เสียงที่มีแบนด์วิธขนาดใหญ่ขึ้น ตัวอย่างของซินธ์ที่ใช้เทคนิคนี้คือ “ออร์แกน” หรือซอฟต์แวร์อย่าง Cameleon5000 ซึ่งจะใช้เทคนิคที่ต่อยอดมาจาก Additive Synthesis อีกทีหนึ่ง เรียกว่า Spectral Modeling Synthesis ทำให้มีความยืดหยุ่นมากขึ้น

AES/EBU [Connector]

AES/EBU

เป็นมาตรฐานที่กำหนดขึ้นโดยสององค์กรครับ คือ AES หรือ Audio Engineering Society กับ EBU หรือ European Broadcasting Union (EBU) เราจะเห็นการเชื่อมต่อ AES/EBU บนออดิโออินเตอร์เฟซระดับโปรจริง ๆ เท่านั้น และใช้หัวต่อแบบ XLR เป็นตัวเชื่อมต่อโดยใช้สายเคเบิ้ลแบบเกลียวคู่ 110 ohm ครับ แต่ถ้าเราเห็นว่ามันเป็นหัวต่อแบบ RCA ใช้สายโคแอ็กเชี่ยล (Coaxial Cable) 75 ohm มันคืออินเตอร์เฟซแบบ S/PDIF ซึ่งเลียนแบบมาสำหรับใช้ในคอนซูมเมอร์โปรดักท์ ครับ ออดิโออินเตอร์เฟซระดับกลางหลายรุ่นก็มักจะให้การเชื่อมต่อแบบ S/PDIF มากกว่า AES/EBU ครับ

AIFF [File Format]

AIFF ย่อมาจาก Audio Interchange File Format เป็นรูปแบบที่ใช้กันมากกับ โปรแกรมบน Mac เพราะ Apple เป็นผู้ริเริ่ม เป็นได้ทั้ง Mono และ Stereo ความละเอียดเริ่มต้นที่ 8 Bit/22 kHz ไปจนถึง 24 bit/96kHz และมากกว่านั้น

ASIO [Driver]

ASIO (Audio Streaming Input and Output) เป็นที่นิยมมากตัวหนึ่งครับ คนดนตรีคุ้นเคยกันมาช้านาน พัฒนาโดยบริษัท Steinberg ผู้พัฒนาซอฟต์แวร์คู่แข่งของ Logic Pro อย่าง Cubase SX/Nuendo ใช้ได้ทั้งบน Mac และ Windows ข้อดีของมันคือการที่เราสามารถใช้อินพุทและเอาท์พุทได้หลายช่องสัญญาณพร้อมกัน โดยให้ค่าความหน่วงที่ต่ำมากโดยเฉพาะกับการใช้งานซอฟต์แวร์ซินธีไซเซอร์เพราะจุดประสงค์ของมัน
คือออกแบบมาเพื่อนักดนตรีกับซาวน์เอนจิเนียร์อยู่แล้วครับ

Audio Units [Plug-in]

Audio Units คือรูปแบบของ Virtual Instrument แบบหนึ่ง และรวมถึงการประมวลผลสัญญาณดิจิตอล (DSP) ที่ใช้บน Mac OSX โดยเฉพาะ ซึ่งเป็นอีกหนึ่งความหวังของแอปเปิลเหมือนกับ Core Audio ที่จะให้เป็นมาตรฐานสำหรับ Application ทางด้านเสียงบนเครื่องแมค แต่ผู้ผลิตบางรายก็ยังไม่เล่นด้วย เนื่องจากได้พัฒนามาตรฐานของตัวเองมาก่อนหน้าแล้วนั้นเอง

DAE [Driver]

DAE (Digidesign Audio Engine) จะไม่เหมือนไดร์เวอร์ทั่วไปครับ เพราะมันจะใช้กับออดิโออินเตอร์เฟซ ของทาง Digidesign เท่านั้น โดยเป็นทั้ง Multi-channel Driver และ Audio Engine โดยจะใช้กับโปรแกรมที่สนับสนุนเช่น Pro Tools, Logic และ Digital Performer และเมื่อเราใช้ DAE แล้วเรายังสามารถใช้ Plug-in แบบ RTAS และ TDM ได้ด้วย

Direct I/O [Driver]

Direct I/O ใช้กับออดิโออินเตอร์เฟซของทาง Digidesign เท่านั้น เหมือนกับ DAE แต่มันเป็นเพียงแค่ Multi-Channel Driver เท่านั้นครับ ไม่มี Audio Engine เราจึงไม่สามารถใช้งาน RTAS และ TDM บนระบบที่มีแต่ Direct I/O ได้

Direct Sound [Driver]

Direct Sound มีคุณสมบัติเดียวกับ SoundManager แต่พัฒนาโดย Microsoft เพื่อใช้กับ Windows ใช้ได้กับออดิโออินเตอร์เฟซแทบทุกรุ่น (โดยเฉพาะกับตระกูล SoundBlaster) ซึ่งก็เอาไว้บันทึกและเล่นเสียง แต่มีความหน่วงสูงจนไม่เหมาะสำหรับงานดนตรีเหมือนกับ Driver แบบ SoundManager ครับ

DirectConnect [Virtual Patching]

กล่าวถึงฝั่ง DirectConnect บ้าง สามารถเชื่อมต่อสัญญาณเสียงได้ 32 ช่องสู่โปรแกรมที่สนับสนุนอย่าง

Pro Tools แต่มีข้อเสียอยู่คือไม่มีการสนับสนุนการทำงานแบบ Synchronization ระหว่าง 2 โปรแกรม แต่การควบคุมเวลาและการ Playback จะทำโดย OMS**** และก็ฟรีเหมือน Rewire แต่ใช้บน Mac OS เท่านั้น

ในการเชื่อมต่อของ DirectConnect ก็เลือกสัญญาณออกจาก Synth ที่ Insert Slot บน Mono หรือ Stereoแทรค การเล่น Synth แบบ DirectConnect ก็ทำแบบเดียวกับ Rewire

 โปรแกรม Sequencer ส่วนใหญ่จะสนับสนุน Rewire ในการเชื่อมต่อเข้ากับ Stand-Alone Synth แต่ถึงอย่างนั้นแล้ว มันก็ไม่ใช้ Plug-in Synth ที่เราสามารถที่จะปรับแต่งหรือสร้าง Patch ใหม่ ๆ ขึ้นมาบน Sequencer ในการปรับแต่งหรือสร้าง Patch ขึ้นมาเราต้องกระทำที่ Stand-alone Synth เท่านั้นครัับ

DirectX และ DXi [Plug-in]

DirectX และ DXi เป็นสับเซตของเทคโนโลยี DirectX ที่พัฒนาขึ้นมาโดย Microsoft เพื่อ Application สำหรับ Multimedia บน PC เราสามารถใช้ Effect แบบ DirectX ได้ทั้งแบบเวลาจริงและแบบ Off-line ครับ DXi ก็คือ ก็มาจาก DirectX instrument นั้นเอง

Ethernet [Connector]

เหตุผลสำคัญที่เราจะส่งเสียงผ่าน Ethernet ก็ตรงที่อินเตอร์เฟซราคาไม่แพง และหาได้ง่าย เครื่อง Mac ทุกเครื่องจะมีมาให้อยู่แล้ว

เป็นโปรโตคอลที่ใช้กับ LAN หรือ Local Area Network ซึ่งหมายถึงการเชื่อมต่ออุปกรณ์เป็นโครงข่ายภายในพื้นที่หนึ่ง หรือบ้านหลังหนึ่ง เราสามารถเชื่อมโยงคอมพิวเตอร์หลาย ๆ เครื่องหรือทั้งพรินเตอร์หรืออุปกรณ์ต่าง ๆ เข้าด้วยกันภายใต้โปรโตคอลนี้ และแน่นอนครับ หลาย ๆ บริษัทได้พัฒนาระบบการส่งสัญญาณเสียงบนโปรโตคอลนี้ด้วย การเชื่อมต่อจะใช้สายแบบ Category 3 หรือ 5 และหัวต่อ RJ-45 ถ้าเราวางแผนจะใช้มันในการส่งเสียงก็ควรจะใช้แบบ 100base-T (100 Mbps) ขึ้นไป หรือจะให้ดีที่สุดก็ใช้แบบ 1000base-F (1 Gbps) ครับ

FireWire [Connector]



FireWire ที่ชาว Mac แทบทุกคนหลงรักมัน ใช้ส่งสัญญาณเสียงได้ดีเช่นกัน

การที่มันมีความเร็วในการส่งข้อมูลถึง 400 Mbps ทำให้มันเหมาะสมมากในการส่งสัญญาณเสียงระหว่างซอฟต์แวร์ DAW (Digital Audio Workstation) อย่าง Logic Pro ไปยังฮาร์ดไดร์วหรือออดิโออินเตอร์เฟซครับ เรายังใช้มันส่งข้อมูลในระยะ 4.5 เมตร และเชื่อมต่อกับอุปกรณ์ได้ถึง 63 ชิ้นภายในบัสเดียวกัน คอมพิวเตอร์ยังส่งไฟไปยังอุปกรณ์ต่าง ๆ ผ่าน FireWire ได้ถึง 45 W อีกด้วยครับ อุปกรณ์ส่วนใหญ่จึงไม่ต้องการไฟจากภายนอก

ในตอนนี้มาตรฐานใหม่ของ FireWire คือ FireWire 800 (IEEE 1394b) ซึ่งสนับสนุนการส่งข้อมูลได้เร็วถึง 800 Mbps ได้ไกลถึง 100 เมตร และยังทำงานร่วมกับ FireWire รุ่นก่อนได้อีกด้วย แม้ว่ามันจะใช้พอร์ทคนละแบบ แต่เราก็ยังสามารถใช้งานผลิตภัณฑ์ที่เป็น FireWire 400 ร่วมกับ FireWire 800 ได้ผ่านสายแปลงครับ แต่ความเร็วก็อาจตกไปบ้าง

Granular Synthesis [Synthesis]

Granular Synthesis เป็นวิธีการสังเคราะห์เสียงที่เล่นกันใน Microsound Time Scale ครับ หลักการพื้นฐานของมันก็เหมือนกับ Sampling Synthesis แต่จะไม่ใช้ Sample เสียงโดยตรง เพราะมันจะแบ่งเสียงออกเป็นชิ้นสั้น ๆ ชิ้นหนึ่งมีความยาวประมาณ 1 ถึง 50 ms (milliseconds) หรือสังเคราะห์เสียงที่สั้นมาก ๆ โดยจะเรียกชิ้นเสียงเหล่านี้ว่า ‘Grains’ หรือ ‘เม็ดเสียง’ ซึ่งเราสามารถนำเม็ดเสียงแต่ละเม็ด มาวางซ้อนกันได้หรือจะนำมา Playback ที่ความเร็ว, เฟส, ความดังต่างกันก็ยังได้ ซึ่งผลของมันจะไม่ใช่แค่เสียงเรียบ ๆ โทนเดียว แต่จะออกมาเป็น soundscape หรือบางครั้งก็เป็น cloud ซึ่งเราไม่สามารถรับฟังได้จากธรรมชาติหรือแม้แต่เทคนิคการสังเคราะห์เสียงอื่น ๆ ครับ หากสนใจเรื่องราวของ Granular Synthesis อย่างลึกซึ้งแล้วล่ะก็ ผู้เขียนขอแนะนำหนังสือ Microsound ของ Curtis Roads ซึ่งมีเรื่องราวตั้งแต่ประวัติศาสตร์ การทดลอง และสายพันธุ์ของ Granular Synthesis อย่างละเอียดยิบเลยทีเดียวครับ หรือถ้าอยากสัมผัสเสียงของ Granular Synthesis ก็ขอแนะนำซอฟต์วแวร์ Crusher-X หรือโปรแกรมอย่าง Absynth, Ableton Live ก็จะมี Engine ที่เป็น Granular Synthesis เช่นกันครับ

GSIF [Driver]


GSIF พัฒนาโดยบริษัท TASCAM สำหรับใช้กับโปรแกรม GigaStudio (ซอฟต์แวร์แซมเปลอร์ยอดนิยมอีกตัวหนึ่ง) ครับ ไดร์เวอร์ตัวนี้มีจุดมุ่งหมายเพื่อให้ได้ค่าความหน่วงที่ต่ำมาก ในตอนที่เราทำการสตรีมมิ่ง (Streaming) ข้อมูลเสียงจากฮาร์ดไดร์ว


Jack Plug [Connector]

Jack - Plug - Jack Plug


Jack plug ขนาดต่าง ๆ จากซ้าย 2.5 mm, 3.5 mm แบบโมโนและสเตอริโอ และขวาสุด 6.3 mm (1.4”) แบบสเตอริโอ

ในความหมายทั่ว ๆ ไป Jack หรือ Socket คือเต้าเสียบ ขณะที่ Plug คือตัวเสียบครับ ส่วน Jack Plug หรือที่มือกีตาร์เรียกแจ็ค ก็คือปลั๊ก (อย่าพึ่งสับสนนะ) หลายขนาดที่นิยมใช้กันในการเชื่อมต่อระหว่างกีตาร์กับแอมป์ (ขนาด 1/4”) หรือจากหูฟังเข้า iPod (ขนาด 1/8”) ที่อเมริกาจะเรียก “Phone Plug” เพราะถูกนำมาใช้ครั้งแรกบนสวิตซ์บอร์ดของระบบโทรศัพท์นั่นเองครับ (เกิดทันกันหรือเปล่าครับ?) เรามาเริ่มที่หัวเชื่อมต่อแบบอนาลอกกันก่อน

MADI [Connector]



การ์ดที่มีหัวเชื่อมต่อแบบ MADI

เป็นมาตรฐานใหม่ที่กำลังอุ่นอยู่เลยครับ ชื่อเรียกเต็ม ๆ คือ Multichannel Audio Digital Interface มาตรฐานนี้กำลังทำการพัฒนาอยู่เรื่อย ๆ โดย AES/EBU เจ้าเก่า นอกจากจะสนับสนุนการส่งสัญญาณเสียง 2 ช่องสเตอริโอทั่ว ๆ ไปแล้ว มันยังสนับสนุนได้สูงสุดถึง 64 ช่อง โดยมี Sample Rate สูงสุดถึง 96 kHz และ Bit Depth สูงสุดถึง 24 บิตต่อหนึ่งช่องสัญญาณโดยใช้สายไฟเบอร์ออพติกหรือสายโคแอ๊กเชี่ยลเพียงเส้นเดียว (สามารถเพิ่มความละเอียดได้อีก) เริ่มมีการนำมาใช้บนงาน Live แล้ว เพราะลดต้นทุนได้อย่างมากโดยเฉพาะในส่วนของสายสัญญาณครับ

นอกจากนี้แล้ว ยังมีการเชื่อมต่ออื่น ๆ ที่ไม่ได้ออกแบบมาเพื่อส่งสัญญาณเสียงโดยเฉพาะ แต่ก็ถูกนำมาใช้ในการส่งสัญญาณเสียงได้ครับ

MAS [Driver]

MAS (MOTU Audio System) จากค่าย Mark of the Unicorn (MOTU) ที่เรารู้จักกันดีครับ มันคือไดร์เวอร์สำหรับการบันทึกเสียงลงฮาร์ดดิสค์ บนโปรแกรม Digital Performer โดยสามารถใช้ได้กับเสียงที่มีความละเอียด 24 Bit/96kHz และก็ใช้ input/output ได้หลายช่องสัญญาณพร้อมกัน และตัวมันเองก็เป็น plug-in architecture สำหรับการประมวลผลเสียงแบบเรียลไทม์อีกด้วยครับ

MAS [Plug-in]

MAS ย่อมาจาก MOTU Audio System ซึ่งเป็นทั้งมาตรฐานของ Plug-in และ Driver ที่ใช้กับ Software ของ MOTU เท่านั้น Plug-in ที่เป็น MAS จะใช้ได้บน Digital Performer และ Audio Desk

mLAN [Connector]



เป็นการเชื่อมต่อที่ค่อนข้างจะเอนกประสงค์เช่นเดียวกันครับ พัฒนาโดยยามาฮ่า จุดมุ่งหมายแรกคือเพื่อการส่งข้อมูลเสียงดิจิตอลระหว่างเครื่องดนตรี-เครื่องบันทึกเสียง-คอมพิวเตอร์โดยใช้สาย FireWire ซึ่งภายในเนตเวิร์กเดียวกันจะเชื่อมต่ออุปกรณ์ได้สูงสุด 127 ชิ้นด้วยกัน โดยได้ความเร็วในการส่งข้อมูลสูงสุด 200 Mbps เราสามารถเปิดหรือปิดการทำงานของอุปกรณ์ภายใน mLAN จากคอมพิวเตอร์ได้เลย โดยไม่ต้องดึงสายออกจากตัวอุปกรณ์ นอกจากดิจิตอลออดิโอแล้ว mLAN ยังใช้ส่งข้อมูล MIDI, Serial Data หรือแม้แต่วิดีโอระหว่างอุปกรณ์ได้อีกด้วยครับ

MP3 [File Format]

MP3 เป็นรูปแบบที่รู้จักกันดีในปัจจุบันในฐานะที่คุณภาพเสียงที่ดีในขณะที่ข้อมูลน้อยมาก ประมาณ 1MB ต่อ เพลงความยาว 1 นาทีแบบ Stereo ซึ่งเป็นการบีบอัดโดยลดความซ้ำซ้อนของข้อมูลเสียงและตัดเสียงที่หูของมนุษย์ไม่สามารถได้ยินโดยอ้างอิงจากงานวิจัย Psychoacoustic แต่ไม่สามารถให้คุณภาพเสียงที่ดีกว่าเสียงแบบ Full Bandwidth หรือ Hi-fi ได้ เพราะมันเป็นการบีบอัดที่สูญเสียหรือเรียกว่า “Lossy Technology” ถึงแม้ว่าเจ้าของค่ายเพลงในเมืองไทยหรือทั่วโลกไม่ชอบมัน แต่ในเมื่อมันคุ้มค่าสำหรับเก็บไว้ฟังหรือส่งต่องานให้เพื่อน โปรแกรมดนตรีส่วนใหญ่ก็ให้เราสามารถ import/export งานเป็น MP3 ได้ครับ

OMS

**** OMS ---Open Music System คือมาตรฐานของการจัดการ MIDI ซึ่งพัฒนาโดย Opcode ซึ่งจะช่วยให้การทำงานบนระบบ MIDI มีความสะดวกสบาย คล่องตัวมากยิ่งขึ้น ใช้กับ Mac OS เท่านั้น

Physical Modeling Synthesis [Synthesis]

Physical Modeling Synthesis เทคนิคนี้จะแตกต่างจากเทคนิคอื่นๆที่กล่าวมาทั้งหมดเลยครับ ในโลกของการสังเคราะห์เสียง เราสามารถแบ่งวิธีการออกเป็น 3 วิธีใหญ่ๆ วิธีแรกคือการที่เรามององค์ประกอบทางความถี่ของแต่ละเสียง แล้วพยายามสร้างเลียนแบบมันให้ได้ อย่าง Additive Synthesis หรือ FM Synthesis วิธีการแบบนี้เราจะได้เสียงที่มีโครงสร้างทางความถี่เหมือนกัน แต่พารามิเตอร์ต่างๆจะไม่มีความข้องเกี่ยวกับกับพารามิเตอร์ทางฟิสิกส์ของเสียงนั้นจริงๆ วิธีที่สองคือ Sampling เสียงจริงมาใช้เป็น Wavetable ตรงๆ ซึ่งทั้งสองวิธีทีกล่าวมานั้นช่วยให้เราสร้างเสียงได้โดยที่ไม่ต้องสนใจว่าแท้จริงแล้ว เครื่องดนตรีสร้างเสียงนั้นมาได้อย่างไร ด้วยเหตุนี้จึงเกิด Physical Modeling Synthesis ครับ เป็นเทคนิคที่นิยามกันง่ายๆว่า “Modeling Sound as it Source” (สร้างเสียงอย่างที่มันเป็น) แต่รายละเอียดในเชิงเทคนิคนั้นมีเยอะมาก เพราะจะใช้แบบจำลอง (สมการ) หรืออัลกอรึทึ่มทางคณิตศาสตร์ในการจำลองเสียงการดีดสาย เสียงเป่าฟลุ๊ต ฯลฯ ซึ่งแต่ละแบบก็ใช้การจำลองแตกต่างกันไป เวลาที่เราเห็นผลิตภัณฑ์ที่ใช้เทคนิคนี้ เราก็ต้องมาดูรายละเอียดกันอีกที ว่ามันใช้โมเดลอะไรบ้าง ซินธ์ที่ใช้เทคนิคนี้ก็มีหลายตัวครับ ที่เป็นฮาร์ดแวร์ก็อย่าง Alesis Fusion หรือซอฟต์แวร์อย่าง waveTERA จาก Virsyn, ASS String Studio VS-1 จำลองโมเดลเครื่องสาย, Steampipe บน Reaktor จำลองโมเดลเครื่องเป่า

Protocol


*** โปรโตคอล (Protocol) คือ… กฎของการสื่อสาร อย่างเช่นกฎของการโทรศัพท์หากัน เราต้องยกหูก่อน เพื่อฟังว่ามีสัญญาณที่เราสามารถโทรออกได้หรือไม่ จากนั้นจึงกดเบอร์โทรศัพท์ปลายทาง แล้วรอฟังสัญญาณว่าง เพื่อรอปลายทางรับสาย การสื่อสารของระบบดิจิตอลออดิโอ หรือ MIDI ก็จัดว่าเป็นโปรโตคอลเช่นกันครับ มีความซับซ้อนมาก เพราะมันเป็นเรื่องของตัวเลขล้วน ๆ เรื่องแบบนี้ถ้าเราเป็นนักดนตรีก็ทำความเข้าใจวิธีใช้กันอย่างเดียวก็พอ ปล่อยให้นักวิทย์ วิศวกรเค้าเป็นคนปวดหัวแทนดีกว่า...

QuickTime [File Format]

QuickTime แม้ไม่ได้เป็นรูปแบบของการเก็บข้อมูลเสียง โดยเป็นโปรแกรมเล่น media ที่พัฒนาโดย Apple แต่โปรแกรมดนตรีบางตัวก็สามารถ Save หรือ Load ข้อมูลเสียง, Video, MIDI เป็น File ของ QuickTime ได้ สิ่งสำคัญที่ควรรู้อีกอย่างก็คือข้อมูลเสียงที่ save มาจาก QuickTime หรือโปรแกรมที่ Compatible กับ QT อย่าง TC Works Spark อาจจะเป็นไฟล์ Extension อย่าง .mov, .aif หรือ .WAV ก็ได้ แต่ไม่ต้องเป็นห่วงเรื่องนี้ครับ เนื่องจากโปรแกรมดนตรีส่วนใหญ่จะสามารถเล่นไฟล์ QT โดยไม่สนใจว่าจะเป็นไฟล์ Extension แบบไหนก็ตาม

RealAudio [File Format]

RealAudio คนชอบฟังเพลงบน Internet คงรู้จักกันดี ไฟล์ RealAudio จะแสดง Extension เป็น .ra หรือ .rm ซึ่งเป็นส่วนหนึ่งของระบบ RealSystem G2 ไว้สำหรับการเล่น multimedia จาก RealNetworks ซึ่งจะมี Tools ในการเล่น, encode รวมไปถึง tools ในการทำ server ให้ใช้ฟรี ๆ ในการส่ง Audio, Video, Animation ผ่านเวป แต่แม้ว่าโปรแกรมดนตรีส่วนใหญ่จะไม่ใช้ RealAudio ในการบันทึก แต่กับบางโปรแกรม เราสามารถเก็บงานของเราเป็น RealAudio เพื่อใช้บนเวป ซึ่งแน่นอนครับว่า RealAudio ก็เป็น Lossy Format เหมือนกับ MP3

Rewire [Virtual Patching]

Rewire สามารถเชื่อมต่อช่องสัญญาณเสียงได้ถึง 64 ช่อง จาก Synth ไปยัง Sequencer ซึ่งมากเหลือเฟือจริง ๆ หากเราใช้ไม่พอจริง ๆ ก็ รวมสัญญาณเข้า Mix ใน Soft Synth อย่าง Reason หรือ Ableton Live ก่อน แล้วจึงนำสัญญาณเข้า Sequencer ซึ่งก็อย่างที่บอกครับ มากเหลือเฟือจริง ๆ Rewire ยังสนับสนุนการควบคุมผ่านโปรแกรม Sequencer ที่สนับสนุนอย่าง Pro Tools ของ Digidesign หรือ ReBirth ของ Propellerhead เองอีกด้วย ที่สำคัญคือฟรีครับ ผู้ผลิต Software ทั่วโลกสามารถนำ Rewire เข้าใส่ในสินค้าของตัวเองได้โดยไม่เสียค่าลิขสิทธิ์ อย่าง Ableton Live ,Cakewalk Project 5 และยังมีที่ตามมาอีกแน่นอนเนื่องจากความฟรีของมันเอง   

โปรแกรมที่ใช้ Rewire โดยทั่วไปจะมีความแตกต่างกันบ้างเล็กน้อยในแต่ละโปรแกรม แต่จะมีหลักการทำงานที่เหมือนกันคือ สัญญาณ Output ที่ออกจาก Soft Synth (หรืออาจเป็น Sampler) จะแสดงเป็น Audio Input สำหรับโปรแกรม Sequencer หรือบน Mixer ของโปรแกรมนั้น จะเป็น Mono หรือ Stereo ขึ้นอยู่กับว่าเราเลือกที่จะให้ Output จาก Synth เราสามารถที่จะใส่ Effect Plug-in ให้สัญญาณเสียงที่ออกจาก Stand-alone Synth ได้

และหากเราจะเล่น Synth ผ่าน MIDI Keyboard ก็แค่กำหนด Synth ตัวนั้นให้เป็น MIDI out ใน MIDI Track ก็จะเล่นพร้อมกับบันทึกได้ทันที 

REX [File Format]

REX เป็นไฟล์เสียงของโปรแกรม Propellerhead Recycle ซึ่งเป็นโปรแกรมที่แบ่งไฟล์เสียงประเภท Loop (เป็นวลีดนตรีหรือจังหวะที่สามารถเล่นซ้ำไปเรื่อย ๆ ต่อเนื่องกันได้) ออกเป็นชิ้น ๆ เช่นเสียงกระเดื่อง กลองสแนร์ หรือ ไฮ-แฮท ซึ่งไฟล์ที่ถูกแบ่งเหล่านี้สามารถนำไปใช้กับ Sampler แล้ว Trigger โดย MIDI Sequence ที่สร้างขึ้นมาโดย Recycle เช่นกัน ทำให้เราสามารถที่จะเร่งหรือลดความเร็วโดยที่ pitch ของเสียงไม่มีการเปลี่ยนเลย ซึ่งเป็นหลักการเดียวกันกับ Technology Groove Control จาก Spectrasonics และ ILIO ครับ แต่ต่างกันตรงที่ Groove Control นั้นมีการเตรียมไฟล์ที่หั่นไว้แล้วกับ MIDI โดยทาง Spectrasonics เอง ไม่รู้ว่า ทาง Spectrasonics จะใช้ Recycle ทำรึเปล่านะครับ ไฟล์ REX เองมี Extension อยู่หลายอันเลยอย่าง .rx2 (Recycle 2.0 หรือสูงกว่า).ryc และ .rex ซึ่งสร้างมาจากเวอร์ชันแรก

RTAS [Plug-in]

RTAS ย่อมาจาก Real Time Audio Suit เป็นมาตรฐาน Plug-in ของ Digidesign ต่างจาก Effect แบบ TDM ตรงที่ RTAS ใช้พลังของคอมพิวเตอร์ในการประมวลผล แต่ TDM ใช้ Build-in DSP หรือ TDM Card ในการประมวลผล

Sampling Synthesis [Synthesis]

 Sampling Synthesis (หรือ Wavetable Synthesis) เป็นมาตรฐานของซินธ์ไปแล้วล่ะครับ เวลาที่นักดนตรีพูดว่า “Sampling (เสียง) เครื่องดนตรี” ก็จะหมายถึงการบันทึกเสียงเครื่องดนตรีนั้นด้วยเงื่อนไขของการเล่นต่างๆกันไป ยกตัวอย่างเช่นการ Sampling เสียงเปียโน เราก็จะทำการบันทึกโน้ตทุกตัว (หรือบางตัว) ที่ไดนามิก (ความหนักเบา) ต่างๆกัน จากนั้นเราจะนำเสียงที่บันทึกไว้นั้นมา (Re) Synthesis ใหม่ได้ ไม่ว่าเราจะ Sampling โน้ต C5 มาเพียงตัวเดียว เราก็ยังสามารถนำมา Resynthesis ที่โน้ต D5 ได้ เนื่องจากเทคนิคนี้กลายเป็นมาตรฐานในปัจจุบัน จึงสามารถยกตัวอย่างได้เยอะมาก แม้แต่ในซาวน์การ์ดทั่วๆไปตามบ้าน ก็ยังมีระบบนี้สำหรับ Playback ไฟล์ MIDI Sequence ผู้ผลิตซาวน์ไลบรารี่ก็ต่างพร้อมใจกันผลิตซาวน์แวร์ประเภทนี้ออกมา ทำให้นักดนตรีอย่างเราๆ ไม่ต้องเสียเวลาทำกันเอง แต่ใช้ซอฟต์แวร์ Sampler (หรือ Sample Player) ยอดนิยมอย่าง Kontakt2, HALion3, Giga Studio 3 มาเล่นกับซาวน์ไลบรารี่เหล่านี้ครับ หรือถ้าต้องการจะทำใช้เอง ก็มีระบบ Emulator X ซึ่งซอฟต์แวร์ของมัน ช่วยอำนวยความสะดวกได้มากเลยครับ ข้อดีของ Sampling Synthesis ที่ทำให้มันกลายเป็นมาตรฐานก็คือความสมจริงของเสียง (ไม่นับระบบ Wavetable บนซาวน์การ์ดแบบคอมซูมเมอร์) เพราะความที่บันทึกมาจากของจริง ส่วนข้อด้อยก็คือใช้เมโมรี่เยอะมาก และถ้าต้องการให้มันเล่นได้อย่างสมจริง (Playability) ก็ต้องพัฒนากันอย่างหนักซึ่งดูเหมือนทำเท่าไร ก็ไม่มีทางเหมือนของจริง 100% ครับ (แต่ก็ใกล้เคียงล่ะนะ)

Sound Designer II [File Format]

Sound Designer II โด่งดังมาจาก โปรแกรม Sound Designer Stereo Editing จาก Digidesign และใช้กับ Pro Tools ด้วย Sound Designer II หรือ SD II สนับสนุนไฟล์เสียงที่ความละเอียดต่าง ๆ เหมือนกับ WAV และ AIFF โปรแกรมดนตรีส่วนใหญ่ก็จะมีคุณสมบัติในการแปลงไฟล์ WAV หรือ AIFFมาเป็น SD II ด้วยครับ

SoundManager [Driver]

SoundManager เป็นไดร์เวอร์แบบเก่าที่ใช้บน Mac ก่อนการถือกำเนิดของ Core Audio มีความสามารถในการบันทึกเสียงและเล่นเสียงทั้งแบบโมโน-สเตอริโอ แต่สนับสนุนความละเอียดแค่ 16 Bit/44.1kHz เท่านั้น

Spectral Modeling Synthesis [Synthesis]

Spectral Modeling Synthesis หนึ่งในผู้คิดค้นเทคนิคนี้ Julius O. Smith IIIได้ให้คำนิยามไว้อย่างน่ารักว่ามันคือ “Sampling Synthesis Done Right” หรือทำมาเพื่อลดข้อด้อยของ Sampling Synthesis นั่นเองครับ (อยู่ในฟอร์มของ Additive Synthesis) ด้วยการแทนที่ช่วงเวลาสั้นๆใน Time-Domain ด้วย Short-Time Fourier Transform คือลดจำนวนข้อมูลลงไป เอาแต่เฉพาะข้อมูลที่สมองยังรับรู้ว่าเสียงนั้นคือเสียงต้นแบบ (ที่ยังไม่ได้ลดข้อมูล) มากที่สุด เพราะมีงานวิจัยรายงานว่าเสียงส่วนใหญ่นั้นจะมีข้อมูลส่วนที่สมองไม่ได้รับรู้ถึงเกือบ 90% ยกตัวอย่างเช่น ไฟล์ mp3 ซึ่งเป็น Audio Compression Format ที่ได้รับความนิยมมาก ซึ่งสามารถลดข้อมูลเสียงได้หลายเท่า โดยที่เรายังได้ยินคุณภาพเสียงที่ลดลงไปเพียงเล็กน้อย ก็เพราะว่ามันใช้ Short-Time Fourier Transform เพื่อวิเคราะห์หาองค์ประกอบทางความถี่ว่าส่วนใดถูกบดบัง (Masked) ด้วยความถี่ใกล้เคียงที่ดังกว่า ก็จะตัดส่วนที่บดบังทิ้งไป เพราะไม่จำเป็นต้องใช้ครับ ตัวอย่างซอฟต์แวร์ที่ใช้เทคนิคนี้ก็คือ Vocaloid, Cameleon5000

Subtractive Synthesis [Synthesis]

Subtractive Synthesis จะตรงกันข้ามกับ Additive Synth ซึ่งก็คือการสังเคราะห์เสียงโดยใช้พื้นฐานจากการลบออกนั่นเองครับ เหมือนกับการแกะสลักก้อนหิน ที่เราค่อยๆตอกหินก้อนใหญ่ออก เพื่อสร้างประติมากรรมอย่างที่เราต้องการ ซึ่งการแกะสลักหินคือการลบออกนั่นเอง การสังเคราะห์เสียงด้วยการลบออกนั้น เราจะส่งเสียงที่มีแบนด์วิธกว้างๆ (เปรียบเหมือนหินก้อนใหญ่) ไปผ่านฟิลเตอร์หรือตัวกรองเสียงเพื่อกรองเอาความถี่ที่ไม่ต้องการออกไป ตัวอย่างของซินธ์ที่ใช้เทคนิคนี้คือการออกเสียงของมนุษย์นั่นเองครับ เส้นเสียง ช่องคอและช่องท้องของเราคือแหล่งกำเนิดเสียง และช่องปากของเราคือฟิลเตอร์นั่นเอง (Formant Filter) ซึ่งเราจะใช้ช่องปากเป็นตัวกำหนดว่าจะออกเสียงออกมาเป็นคำไหนนั่นเองครับ ซอฟต์แวร์ซินธ์ที่ใช้เทคนิคนี้ มีเยอะเหลือเกินครับ ถ้าให้แนะนำสำหรับการเริ่มต้น Subtractor บน Reason ก็เหมาะสมที่สุดครับ

TDIF [Connector]


หัวเชื่อมต่อแบบ TDIF จากภาพจะเห็นว่ามี 2 ชุด เราจึงสื่อสารแบบไปกลับได้ทีละ 16 ช่องสัญญาณ

TDIF (TASCAM Digital Interface) พัฒนาโดย TASCAM ใช้สำหรับส่งสัญญาณเสียงดิจิตอลทีละ 8 ช่อง แต่จะต่างจากแบบอื่น ๆ หน่อย ก็ตรงที่ว่าสายเส้นหนึ่งจะสามารถสื่อสารได้แบบไป-กลับสองทางเลยครับ (Bi-Directional) กล่าวคืออินพุทและเอาท์พุททั้งหมด 8 x 2 ช่อง จะอยู่บนสายและหัวต่อเดียวกันเลยเพื่อความง่ายในการเชื่อมต่อ สนับสนุนความละเอียดได้สูงสุด 16 บิต 48 kHz แต่ก็มีผู้ผลิตบางเจ้าหัวหมอครับ พัฒนาให้ TDIF สามารถส่งเสียงที่ความละเอียด 24 บิต 96 kHz แต่ส่งได้ทีละ 4 ช่องสัญญาณเท่านั้น ลดลงมาครึ่งหนึ่ง

TDM [Plug-in]

TDM มาจาก Time Division Multiplexing เป็นเทคโนโลยีของ Digidesign ที่ทำให้ข้อมูลเสียงทำการประมวลผลที่Pro Tools PCI Card โดยใช้ DSP ที่อยู่ในการ์ด Effect ที่เป็น TDM จะต้องโหลดเข้าไปใน DSP chipก่อนซึ่งจะช่วยประหยัด CPU ไปได้เยอะเลยครับ

TOSLINK [Connector]


TOSLINK                                   
เครื่อง Macintosh ในปัจจุบันจะมีการเชื่อมแบบ Optical มาให้อยู่แล้ว เรายังสามารถใช้มันในการส่งข้อมูลเสียงให้กับออดิโออินเตอร์เฟซหรืออุปกรณ์อื่น ๆ ในระบบของเราได้ หรือชื่อเต็มคือ “Toshiba Link” เพราะ Toshiba เป็นผู้กำหนดมาตรฐานนี้ขึ้นมาครับ ใช้ส่งสัญญาณเสียงดิจิตอลได้ทีละ 2 ช่องสัญญาณ โดยใช้โปรโตคอล S/PDIF ส่งผ่านสายไฟเบอร์ออพติก เรายังสามารถต่อเอาท์พุทของ TOSLINK เข้ากับ ADAT ได้ด้วย โดยสัญญาณจะแสดงแค่ 2 ช่องแรกของอินพุทที่ ADAT สามารถรับได้ทั้งหมด 8 ช่องครับ

TRS (Tip Rings Sleeve) Connector [Connector]


TRS (Tip Rings Sleeve) Connector
                       
อันที่จริงแล้วมันก็คือ Jack Plug ที่มีแถบสีดำ 2 แถบตรงตัว Plug (ถ้ามีแถบเดียวจะเรียก "TS" เพราะมันไม่มีส่วนที่เรียกว่า Rings ที่อยู่ตรงกลาง) เราอาจเคยเห็นการใช้ TRS Connector ในการเชื่อมต่อระหว่างหูฟังกับเครื่องเสียงระบบสเตอริโอ แต่ในออดิโออินเตอร์เฟซแบบมืออาชีพ นิยมใช้ในการส่งสัญญาณแบบ Balanced ครับ ซึ่งตัวมันจะมีการรองรับการส่งแบบ Unbalanced ด้วยเช่นกัน เรารองมาทำความเข้าใจการใช้หัวต่อ TRS ในโหมดต่าง ๆ กันครับ


1. Sleeve - ปกติจะใช้เป็น Ground
2. Ring - ใช้ส่งสัญญาณช่องขวาในโหมดสเตอริโอ หรือเป็นเฟสลบในโหมด Balanced (สัญญาณจะเป็นโมโน) หรือใช้เป็นตัวส่งกำลังไฟในกรณีที่ปลายทางต้องการใช้
3. Tip - ใช้ส่งสัญญาณช่องซ้ายในโหมดสเตอริโอ หรือใช้เป็นเฟสบวกในโหมด Balanced (สัญญาณจะเป็นโมโน) หรือใช้เป็นตัวส่งสัญญาณโมโนในโหมด Unbalanced
4. Insulating Rings หรือแถบสีดำ จะใช้เป็นตัวกั้นระหว่าง T-R-S

USB [Connector]


แม้ USB 2.0 จะมีโหมด Hi-Speed ที่ให้ความเร็วถึง 480 Mbps แต่มืออาชีพก็ไม่นิยมใช้มันส่งสัญญาณเสียงเท่าไรนัก

Vector Synthesis [Synthesis]

Vector Synthesis เป็นเทคนิคที่ต่อยอดออกมาจาก Wavetable Synthesis อีกทีหนึ่งครับ ใช้บนซินธ์ชื่อดังอย่าง Sequential Circuits Prophet-VS และ Korg Wavestation (มีเวอร์ชันซอฟต์แวร์) แนวคิดง่าย ๆ ก็คือเราสามารถควบคุมการเล่นเสียงระหว่าง Wavetable 2 ตัวขึ้นไป (ส่วนใหญ่จะใช้ 4 ตัว) ด้วย Joystick เพื่อสร้างเนื้อเสียงที่มีไดนามิกต่างจากเดิมครับ ซอฟต์แวร์ซินธ์รุ่นใหม่ ๆ อย่าง Steinberg Xphraze ต่างก็ติดแนวคิดของ Vector Synthesis ไว้ด้วยครับ

VST [Plug-in]

VST-Virtual Studio Technology เป็นอีกหนึ่งมาตรฐานที่นิยมมากเนื่องจากเริ่มมา 2-3 ปีแล้วโดย Steinberg ซึ่งเป็นทั้ง Effect, Instrument (VSTi), รวมไปถึง Audio Sequencer ด้วย มี Effect ที่รองรับมาตรฐานนี้อยู่มากพอสมควร ปัจจุบันนี้ก็เป็นเวอร์ชัน 2 แล้ว

WAVE [File Format]

WAVE พัฒนาขึ้นมาโดยความร่วมมือของ Microsoft และ IBM สนับสนุนความละเอียดต่าง ๆ เหมือนกับ AIFF แต่จะใช้กับโปรแกรมของ Windows เป็นส่วนใหญ่ ในขณะที่ AIFF ใช้กับโปรแกรมของ Mac เป็นส่วนใหญ่เช่นกัน แต่การจะใช้ข้าม Platform กันก็ไม่ผิดอะไรครับ และก็มี WAV แบบที่เป็นไฟล์ Acidized WAVE ซึ่งนิยมกันมากเช่นกัน โดยจะต่างกับ WAVE แบบปกติตรงที่ไฟล์ Acidized WAVE จะมีการเพิ่ม Information เกี่ยวกับ Pitch และ  Tempo ลงไปด้วย และไฟล์ Acidized WAVE จะอ่านโดยโปรแกรม Sonic Foundry (Sony) Acid ซึ่งปัจจุบันก็โดนควบโดย Sony ไปแล้ว

WDM [Driver]

WDM (Windows Driver Model) ให้เปรียบเทียบก็คงเหมือน ASIO ที่สนับสนุนการบันทึกและเล่นพร้อมกันทีละหลายช่องสัญญาณ เรายังสามารถใช้ซอฟต์แวร์อินสตรูเมนต์แบบ DXi เพื่อให้ได้ความหน่วงต่ำ (แต่ก็ยังมากกว่า ASIO อยู่นิดหน่อย) รวมไปถึงการใช้งาน DirectX Audio Effect ได้แบบเรียลไทม์ ไม่ต้องทำการประมวลผลล่วงหน้า นั้นคือเราสามารถให้เครื่องคอมพิวเตอร์ของเราเป็น Effect ที่ใช้งานได้บนเวทีแสดงสดเลยล่ะครับ

XLR Connector [Connector]

ออดิโอคอนเนกเตอร์แบบ XLR นิยมใช้กันมากในระดับอาชีพ ทั้งการเชื่อมต่อเพื่อส่งสัญญาณอนาลอกและสัญญาณดิจิตอล (AES/EBU)ออกแบบมาเพื่อใช้งานในระดับอาชีพอยู่แล้วครับ บริษัท Cannon เป็นผู้ริเริ่มเป็นรายแรก คำว่า XLR มีที่มาแปลกกว่าคำย่อตัวอื่นเสียหน่อย โดยเริ่มมาจากหัวต่อซีรีย์ “Cannon X” แล้วรุ่นต่อมาเป็นรุ่น Latch ต่อท้ายเป็น “Cannon XL” ส่วน R มาจาก Rubber คือยางที่อยู่รอบ ๆ หน้าสัมผัส ในการเชื่อมต่ออุปกรณ์ด้านเสียง นิยมใช้หัวต่อ XLR แบบ 3 Pin ครับ ซึ่งจะเป็น Balanced Audio Connector (อ่านรายละเอียดในหัวข้อถัดไป) เพื่อการใช้งานในระดับอาชีพจริง ๆ ออดิโออินเตอร์เฟซที่มีการเชื่อมต่อแบบ XLR จะเป็นแบบ Combo Jack ครับ คือสามารถเสียบปลั๊กแบบ TRS ขนาด 1/4” ได้ด้วย ซึ่งบริษัท Neutrik เป็นผู้พัฒนาขึ้นมา และนอกจากจะส่งสัญญาณอนาลอกทั่วไปแล้ว มาตรฐาน AES/BEU ที่ใช้สำหรับส่งสัญญาณเสียงแบบดิจิตอลในระดับโปร ก็จะใช้หัวต่อแบบ XLR อีกด้วย


ที่มา : http://www.passionsound.com
« แก้ไขครั้งสุดท้าย: มีนาคม 20, 2008, 09:41:00 PM โดย lamsing » บันทึกการเข้า


NARUK_2532
บุคคลทั่วไป
| |
« ตอบ #1 เมื่อ: ตุลาคม 20, 2008, 11:12:30 AM »

ขอบคุณครับ ได้ความรู้อีกแล้วเรา
บันทึกการเข้า

CamKrist
Newbie
*
กระทู้: 2


ดูรายละเอียด อีเมล์
| |
« ตอบ #2 เมื่อ: เมษายน 26, 2013, 08:03:55 PM »

Similar matter has already been discussed at yahoo answers. I can post the link if needed
บันทึกการเข้า

I'm on Twitter and my essay

Aegisgodfear
Newbie
*
กระทู้: 1


ดูรายละเอียด เว็บไซต์ อีเมล์
| |
« ตอบ #3 เมื่อ: กรกฎาคม 29, 2016, 11:09:58 AM »

ขอบคุณมากๆนะครับ ^^
บันทึกการเข้า

สวัสดีครับทุกคน ผมเป็นเดกอุบลราชธานี คนกินก๋วยเตี๋ยว เส้นเล็กเป็นชีวิตจิตใจ ยินดีที่ได้รู้จักครับ

asiath6
Newbie
*
เพศ: ชาย
กระทู้: 3



ดูรายละเอียด เว็บไซต์ อีเมล์
| |
« ตอบ #4 เมื่อ: สิงหาคม 23, 2016, 01:31:45 PM »

ลองกลับไปดูสายที่บ้านดีกว่า homdark
บันทึกการเข้า


ร้านดอกไม้วิไล
Newbie
*
กระทู้: 2


ดูรายละเอียด เว็บไซต์
| |
« ตอบ #5 เมื่อ: ตุลาคม 06, 2016, 08:53:49 PM »

ขอบคุณมากคะ สำหรับความรู้
บันทึกการเข้า


หน้า: [1]
  พิมพ์  
 
กระโดดไป: