شرکت Runway از مدل جدید موشن کپچر خود با نام «Act-Two» رونمایی کرد. این مدل به کاربران امکان میدهد تا فقط با استفاده از ویدیویی ساده از یک بازیگر، هر نوع شخصیتی را، از انسان گرفته تا موجودات فانتزی، با جزئیات کامل و واقعگرایانه متحرک کنند.
ابزارهای هوش مصنوعی به سرعت درحال تغییر صنعت ویدیو هستند، شرکت Runway نیز با معرفی Act-Two گامی بزرگ در حوزه موشن کپچر برداشته است. این فناوری بهجای استفاده از لباسهای مخصوص و سنسورهای گرانقیمت، تنها به دو ورودی نیاز دارد: یک ویدیوی عادی از یک فرد که درحال صحبتکردن، حرکت و ابراز احساسات است و یک تصویر یا ویدیوی ثابت از شخصیتی که میخواهید آن را متحرک کنید. سپس، هوش مصنوعی Act-Two بهطور خودکار، تمام حرکات، حالات چهره، حرکات دست و حتی نحوه صحبتکردن را از ویدیوی اول به شخصیت دوم منتقل میکند.
فناوری موشن کپچر سنتی، فرایندی بسیار پرهزینه و پیچیده است که نیازمند استودیوهای مجهز و تجهیزات گرانقیمت است. Act-Two پتانسیل آن را دارد که این فرایند را در اختیار همه بگذارد و به فیلمسازان مستقل، استودیوهای کوچک و حتی تولیدکنندگان محتوای معمولی اجازه دهد تا با کیفیتی نزدیک به تولیدات بزرگ، شخصیتهای خود را متحرک کنند.
مدل جدید Runway که برپایه مدل ویدیویی Gen-4 ساخته شده، دارای بهبودهای قابل توجهی است:
قابلیت Act-Two هماکنون برای کاربران اشتراکهای Standard و بالاتر در پلتفرم Runway در دسترس است. هزینه استفاده از آن ۵ کردیت به ازای هر ثانیه خروجی است و حداقل طول ویدیو باید ۳ ثانیه باشد. این سیستم قادر به تولید ویدیوهایی تا سقف ۳۰ ثانیه با رزولوشنهای مختلف و با نرخ ۲۴ فریم بر ثانیه است.