تخيل أن بإمكانك إنتاج شخصيات متحركة بأداء واقعي ومعبر دون الحاجة إلى معدات التقاط الحركة (Motion Capture) باهظة الثمن أو خبرة تقنية معقدة. هذا القدر الذي يبدو خياليًا أصبح واقعًا مع Act-One، التي تحول فيديو بسيطًا لأداء بشري إلى شخصية رقمية حية، محافظة على كل التفاصيل العاطفية والحركية الدقيقة.
نقل الأداء بالكامل إلى عالم الرسوم المتحركة
Act-One، المدمجة في نموذج Gen-3 Alpha المتقدم، تتيح نقل الأداء البشري – من حركة العيون والتعبيرات الدقيقة إلى إيقاع الكلام وحركة الرأس – إلى أي شخصية رقمية، سواء كانت صورة ثابتة أو فيديو متحرك. النتيجة هي رسوم متحركة تتمتع بعمق وواقعية غير مسبوقة، حيث يبدو الشخصية الرقمية كأنها تتفاعل حقًا مع الصلصال العاطفي البشري. هذا التحويل يعتمد على خوارزميات التعلم العميق المتخصصة في تحليل التعابير الوجهية (Facial Landmark Detection)، مما يضمن دقة تصل إلى 95% في نقل الحركات الدقيقة، مثل الرمش الطبيعي أو الابتسامة الخفيفة، دون أي تشويه.
ثورة بلا معدات معقدة: تبسيط عملية الإنتاج
تقليديًا، يتطلب إنتاج الرسوم المتحركة معدات متقدمة مثل حساسات MoCap، غرف استوديو مجهزة، وفرق من المتخصصين لترجمة الحركات إلى نماذج ثلاثية الأبعاد. هذه الطرق كانت تكلف عشرات الآلاف من الدولارات وتستغرق أسابيع، مما يحد من الوصول إليها للاستوديوهات الكبرى فقط.
لكن Act-One تتجاوز هذه الحواجز تمامًا، مستخدمة فيديوهات عادية يمكن تسجيلها حتى بكاميرا هاتف محمول (مع التركيز على إضاءة جيدة ووجه واضح). هذا النهج يزيل التعقيد التقني، مما يمكّن المبدعين المستقلين – سواء هواة يصنعون فيديوهات يوتيوب أو فنانين يطورون قصصًا قصيرة – من الوصول إلى أدوات احترافية كانت حكرًا على هوليوود. كما يوفر الوقت بشكل هائل، حيث يمكن إنتاج مشهد كامل في دقائق بدلاً من أيام.
خطوات إنشاء الرسوم المتحركة بالذكاء الاصطناعي: دليل عملي وفقًا لـ Runway
وفقًا لدليل Runway الرسمي (help.runwayml.com)، العملية مبسطة لكنها تتطلب انتباهًا للتفاصيل للحصول على نتائج احترافية. إليك الخطوات المفصلة:
المتطلبات الأساسية:
- حساب نشط على Runway (الأداة متاحة في الخطط المدفوعة، مثل Standard أو Pro، بسبب اعتمادها على Gen-3 Alpha/Turbo؛ التجربة المجانية محدودة).
- فيديو "Driving Performance" (الأداء البشري): يُفضل إضاءة طبيعية، وجه واضح من الكتفين إلى الأعلى، وتعبيرات مبالغة قليلاً للدقة.
- صورة أو فيديو مرجعي للشخصية الرقمية (مثل نموذج 2D أو 3D).
كيفية استخدام أداة Act-One من Runway خطوة بخطوة:
رفع فيديو الأداء البشري (Driving Performance):
- قم بتسجيل الدخول إلى لوحة التحكم في Runway وانتقل إلى "Generative Session".
- اختر النموذج المناسب: Gen-3 Alpha أو Turbo من القائمة السفلية للحصول على سرعة ودقة متوازنة.
- افتح أيقونة Act-One من شريط الأدوات الجانبي الأيسر.
- أضف فيديو الأداء عبر:
- رفع فيديو موجود من مكتبة الأصول (Assets).
- سحب وإفلات ملف جديد.
- تسجيل فيديو مباشر من تطبيق Runway على الويب.
تذكير هام: اجعل الوجه دائمًا في مواجهة الكاميرا. قلّل حركة الرأس إذا كنت ستستخدم صورة شخصية، بينما الحركة الأكبر ممكنة مع فيديو شخصية. النظام سيجري كشفًا للوجه قبل السماح بالتوليد.
اختيار المرجع (Character Reference):
- في النصف السفلي من نافذة Act-One، اختر:
- صورة شخصية (Character Image): لنتائج أكثر ثباتًا وقلة في التشويهات والحركة.
- فيديو شخصية (Character Video): لدعم مرونة وحركات أوسع وتفاعل أفضل.
خيارات إضافية: غير بين التنسيق Portrait (عمودي) أو Landscape (أفقي). إذا كان فيديو الأداء أطول من المرجع، سيطبق تأثير Boomerang (تكرار ذهابًا وإيابًا) تلقائيًا – لتجنبه، مدد فيديو المرجع مسبقًا باستخدام أدوات تحرير بسيطة.
ضبط شدة الحركة (Motion Intensity):
- افتح الإعدادات (Settings) في النافذة.
- القيمة الافتراضية هي 3 (متوازنة بين الثبات والتعبير).
- اختر من 1 إلى 5:
- 1: هادئ وثابت (مثالي للحوارات الدرامية).
- 3: متوازن (لمعظم الاستخدامات).
- 5: أكثر حيوية وتعبيرًا (للكوميديا أو الإعلانات الديناميكية).
توليد الفيديو (Generate):
- تحقق من تكلفة الاعتمادات (Credits) عبر نافذة المدة (Duration) – ستُحسب بناءً على الطول.
- اضغط على زر Generate لبدء المعالجة (تستغرق 1-5 دقائق حسب الطول والنموذج).
- بعد اكتمال المعالجة، سيكون الفيديو متاحًا في جلستك الحالية للمراجعة والتنزيل أو التعديل الإضافي.
نظام التسعير:
- 10 اعتمادات/ثانية.
- الحد الأدنى = 5 ثوانٍ = 50 اعتمادًا.
- الأجزاء تُحسب وتُقرّب للأعلى؛ مثال: 5.6 ثانية = 56 اعتمادًا.
- الخطط المدفوعة تبدأ من 15 دولارًا شهريًا (مع 1250 اعتمادًا)، وتزيد حسب الحجم، مما يجعلها اقتصادية للمشاريع الكبيرة.
لمحة عن Gen-4 و Act-Two: المستقبل القريب
Gen-4 (مارس 2025):
- تحسين الاتساق البصري للشخصيات في مشاهد طويلة (لا تغيّر الملامح بين اللقطات).
- معالجة أسرع وأكثر سلاسة.
- دعم أكبر للـ Camera Motion Simulation (تحريك الكاميرا داخل المشهد).
Gen-4 Turbo (أبريل 2025):
- نفس مميزات Gen-4 لكن بوقت إنتاج أسرع بكثير.
- موجه للمبدعين الذين يريدون توليد فيديوهات بكميات كبيرة أو بسرعة في مراحل الاختبار.
Act-Two (متوقع بعد Act-One):
- توسيع القدرات لتشمل:
- حركات الجسد الكاملة (وليس الوجه فقط).
- التحكم بالخلفيات والعناصر البيئية.
- دعم أكثر مرونة للمشاهد التفاعلية (مثل حوار بين عدة شخصيات في بيئة متغيرة).
- حركات الجسد الكاملة (وليس الوجه فقط).
- التحكم بالخلفيات والعناصر البيئية.
- دعم أكثر مرونة للمشاهد التفاعلية (مثل حوار بين عدة شخصيات في بيئة متغيرة).
مع Act-One، يصبح الإبداع الرقمي متاحًا للجميع، محولاً الرسوم المتحركة من حرفة تقنية إلى فن سهل الوصول. جربها اليوم على Runway وشاهد كيف تغير مسار إنتاجك البصري! لمزيد من التفاصيل، زر runwayml.com.

