เอ็นจิ้นวิดีโอเกมช่วยสร้างเอฟเฟ็กต์ภาพในชุดภาพยนตร์แบบเรียลไทม์ได้อย่างไร

เอ็นจิ้นวิดีโอเกมช่วยสร้างเอฟเฟ็กต์ภาพในชุดภาพยนตร์แบบเรียลไทม์ได้อย่างไร

โดนัลด์ โกลเวอร์ถูกปลิวไป “นี่เป็นสิ่งที่เจ๋งที่สุดที่ฉันเคยทำมา” อาจได้ยินเขาพึมพำใส่ไมค์สุดฮอตหลังจากที่เขาใส่ Millennium Falcon ลงในไฮเปอร์ไดรฟ์เป็นครั้งแรกในกองถ่าย “Solo: A Star Wars Story”สิ่งที่ทำให้ Glover ประทับใจมากก็คือฉากนี้ไม่ได้ถ่ายทำด้วยหน้าจอสีเขียว ซึ่งโดยปกติแล้วจะเป็นกรณีของภาพยนตร์ที่ต้องใช้เอฟเฟ็กต์ภาพเป็นหลัก แต่ หน่วย Industrial Light & 

MagicของLucasfilmได้สร้างการติดตั้งเครื่องฉายเลเซอร์ 4K 5K อย่างละเอียดรอบห้องนักบินของ 

Falcon ซึ่งแสดงแอนิเมชั่นไฮเปอร์ไดรฟ์อันเป็นเอกลักษณ์ในแบบเรียลไทม์ การตั้งค่านี้ไม่เพียงแต่ทำให้ Glover และเพื่อนนักแสดงของเขาแสดงในสภาวะสุญญากาศน้อยลงเท่านั้น แต่โปรเจ็กเตอร์ยังใช้เป็นแหล่งกำเนิดแสงเพียงแหล่งเดียว ส่งผลให้เกิดการสะท้อนแสงสีน้ำเงินที่กระพริบในดวงตาของนักแสดงอย่างน่าทึ่งฉากการกระโดดด้วยไฮเปอร์ไดรฟ์เป็นเพียงตัวอย่างหนึ่งของกระบวนทัศน์การผลิตใหม่ที่กลายเป็นส่วนหนึ่งของภาพยนตร์ “Star Wars” ของ Lucasfilm ที่เติบโตขึ้น แทนที่จะเพิ่มเอฟเฟ็กต์ภาพในขั้นตอนหลังการถ่ายทำ สตูดิโอกลับพึ่งพาเทคโนโลยีแบบเรียลไทม์มากขึ้น และลูคัสฟิล์มไม่ได้เป็นเพียงรายเดียวในแนวทาง: จากสตูดิโอภาพยนตร์รายใหญ่ไปจนถึงผู้ผลิตอิสระ ทุกคนหันมาใช้เครื่องมือการผลิตแบบเรียลไทม์มากขึ้น ซึ่งจะเปลี่ยนวิธีสร้างภาพยนตร์และรายการทีวี — และทำให้โครงการที่อาจไม่เคยมีมาก่อน 

ในช่วงไม่กี่ปีที่ผ่านมา ILM ได้พัฒนาชุดเครื่องมือการผลิตเสมือนจริงที่รวบรวมเทคโนโลยีเรียลไทม์ไว้มากมาย เรียกว่า Stagecraft เครื่องมือเหล่านี้ครอบคลุมกระบวนการผลิตทั้งหมดตั้งแต่การออกแบบชุดแรกด้วยความช่วยเหลือของชุดหูฟัง VR ไปจนถึงเอฟเฟ็กต์ภาพที่ใช้สำหรับ “Solo”

สิ่งที่รวมเครื่องมือหลายอย่างเข้าด้วยกันคือให้ผลลัพธ์ในทันที ซึ่งก่อนหน้านี้จะใช้เวลาหลายชั่วโมงหรือแม้แต่เป็นวัน Rob Bredow หัวหน้าและผู้อำนวยการฝ่ายสร้างสรรค์ของ ILM อธิบาย “เรียลไทม์คือการเปลี่ยนแปลงพื้นฐานของเวิร์กโฟลว์” เขากล่าว “วิชวลเอฟเฟ็กต์และเทคนิคดิจิทัลถูกรวมไว้ก่อนหน้านี้มากในกระบวนการนี้”

ตัวอย่างหนึ่ง: ฉากเสมือนจริงที่ก่อนหน้านี้จะถูกเพิ่มลงในภาพยนตร์หลายสัปดาห์ต่อมาสามารถดู

ตัวอย่างได้แบบเรียลไทม์ ขณะที่ภาพกำลังถูกจัดเฟรม ILM ใช้เทคโนโลยีนี้สำหรับฉากอื่นใน “Solo” ซึ่งเป็นฉากการปล้นรถไฟที่รวมนักแสดงที่แสดงหน้าจอสีเขียวเข้ากับฟุตเทจที่ถ่ายทำในเทือกเขาแอลป์ของอิตาลี “คุณสามารถเข้าใจได้ว่าสิ่งนี้มารวมกันได้อย่างไร” Bredow กล่าว “นี่คือตัวเปลี่ยนเกมในแง่ของตัวเลือกสร้างสรรค์ที่คุณสามารถทำได้”

การเดินทางของ ILM เพื่อเปิดรับเทคโนโลยีเรียลไทม์เริ่มต้นขึ้นอย่างจริงจังด้วย “AI” ของสตีเวน สปีลเบิร์กเมื่อ 20 ปีก่อน เมื่อมันช่วยผู้กำกับสร้าง Rogue City ซึ่งเป็นภาพยนตร์ที่ดึงดูดใจและมีเพศสัมพันธ์ในลาสเวกัส ให้มีชีวิตขึ้นมาในกองถ่าย “เห็นได้ชัดว่าเมืองนี้ใหญ่และไม่สามารถสร้างได้” John Knoll หัวหน้าฝ่ายสร้างสรรค์ของ ILM เล่า แต่ ILM ได้สร้างระบบติดตามเฉพาะสำหรับกล้องบนเวทีที่อนุญาตให้คอมพิวเตอร์เพิ่มการแสดงตัวอย่างฉากเสมือนจริงแบบเรียลไทม์ สิ่งนี้ทำให้สปีลเบิร์กสามารถจัดองค์ประกอบภาพเบื้องหน้าฉากสีน้ำเงิน และในขณะเดียวกันก็แสดงตัวอย่างด้วยการแสดงภาพเสมือนของเมืองทั้งเมือง

ในการทำเช่นนี้ ILM ใช้เครื่องมือเกม ซึ่งเป็นซอฟต์แวร์ที่เป็นแกนหลักของวิดีโอเกมที่ทันสมัยและเต็มไปด้วยกราฟิก ซึ่งแสดงภาพในทันทีเพื่ออธิบายการเคลื่อนไหวที่คาดเดาไม่ได้ของเครื่องเล่นวิดีโอเกม “นั่นเป็นหนึ่งในครั้งแรกๆ ที่ใช้เอนจิ้นของเกมสำหรับการถ่ายทอดสดในฉาก” เบรโดว์อธิบายถึงกระบวนการสร้างภาพล่วงหน้า ซึ่งช่วยให้ผู้สร้างภาพยนตร์เห็นว่าฉากที่ขับเคลื่อนด้วยเอฟเฟกต์ในภาพยนตร์จะมีลักษณะอย่างไรก่อนที่จะเกิดขึ้น ยิง

เริ่มแรกได้รับการพัฒนาให้เป็นระบบประปาพื้นฐานสำหรับวิดีโอเกม เอ็นจิ้นเกมได้กลายเป็นเครื่องมือยอดนิยมสำหรับผู้สร้างภาพยนตร์ที่ต้องการเพิ่มภาพแบบเรียลไทม์ให้กับส่วนต่างๆ ของกระบวนการผลิต

ในตอนแรก การใช้เอนจิ้นเกมในฮอลลีวูดส่วนใหญ่จำกัดอยู่แค่ประเภทการสร้างภาพล่วงหน้าที่สปีลเบิร์กและไอแอลเอ็มเป็นผู้บุกเบิก แต่เมื่อชิปเซ็ตประมวลผลกราฟิกที่ได้รับการปรับให้เหมาะสมสำหรับการประมวลผลแบบเรียลไทม์ประเภทนี้มีประสิทธิภาพมากขึ้น เอ็นจิ้นเกมจึงมีบทบาทมากขึ้นในเวิร์กโฟลว์ทั้งหมด ไปจนถึงสิ่งที่คนวงในเรียกว่าพิกเซลสุดท้าย ภาพที่ดูดีจนสามารถแสดงได้จริง ในโรงภาพยนตร์หรือในทีวี

credit : เกมส์ออนไลน์แนะนำ >>> UFABET