¿Qué proceso / software debo tomar si quiero crear y hacer un seguimiento de los personajes de música para esqueletos en 3D que están asignados a software como Fastmocap, con un plazo de menos de un mes?

Es probable que pueda hacer esto con una solución de software mocap lista para usar y un equipo de caracteres estándar, siempre que reduzca la complejidad de la grabación del movimiento y utilice un modelo existente, como un equipo mixamo y una opción de modelo.

El catálogo de mixamo es extenso y les encanta vender paquetes de animación increíblemente caros, pero deberían / ​​podrían aprender rápidamente a través de todo este proceso que las animaciones de mixamo terminarán siendo más baratas que hacerlo usted mismo.

Dependiendo del presupuesto, puede regresar y comprar animaciones según sea necesario, como sentarse o pavonearse, etc. Es más rápido si lo sabe con anticipación, pero las cosas no funcionan de esa manera con frecuencia.

Luego vería si el software y el hardware mocap podrían admitir el modelo mixamo que se compró rápidamente, y luego importaría el equipo y el modelo en la solución mocap, y pasaría entre 5 y 10 horas grabando sesiones.

Es posible que pueda usar una solución diferente, algunas personas han estado utilizando estudios de cámara kinect, es decir, una habitación con un kit kinect para Windows v2 e iclone 5 pro, y necesitaría combinar y ajustar el movimiento de baile para cada personaje, a un personaje 3D.

http://www.reallusion.com/iclone…

Esa es la parte fácil. $ 500 por equipo de plataforma, carácter y mocap es relativamente barato.

Sin embargo, mixamo a menudo puede cobrar mucho por los modelos (fusible, es absolutamente caro) algunas de las características de exportación de mixamo lo ayudarán a incluir una animación inactiva estándar para importar a Maya, 3ds Max o incluso Blender.

La siguiente parte es donde el dinero y el tiempo vienen junto con el presupuesto masivo.

Animadores

Luego debe sincronizar y configurar los modelos 3D en un escenario o entorno (estos son más difíciles de comprar en el estante), sincronizar el baile o la rutina a la longitud del segmento usando los fotogramas clave de animación,

y opcionalmente, renderícelo con un video en vivo usando chromakey o una aplicación de producción de video como estreno o efectos posteriores.

Hay soluciones alternativas, pero un estudio podría hacer una plataforma simple en 2 semanas, con las plataformas 3D, el entorno y sincronizar bailarines reales con bailarines 3D en la tercera semana para su revisión y exportación.

Puede tomar 4 personas en el equipo, dependiendo de la complejidad del personaje y el posicionamiento de los personajes reales y sustitutos.

El software como iclone le permite reducir la cantidad de ajustes a la animación de la plataforma, pero aún tiene que exportar e integrar la plataforma y la animación a otro entorno y escena modelada,

o, si la velocidad es preocupante, un videojuego. donde puede configurar la escena con accesorios y contenido mundial interactivo, es decir, configurar la animación para jugar con música, colocar a los personajes en un modelo de entorno de juego comprado y usar unity 3D 4.5 para renderizar, reproducir la música y reproducir el animación, luego grabe la pantalla, ajuste la posición de la animación, agregue efectos de partículas como polvo, lluvia, niebla y muchas otras opciones.

Hay muchas opciones para elegir, y puede hacerlo todo dentro de un fin de semana si sabe lo que quiere hacer con anticipación y tiene experiencia en la importación / exportación de aparejos y animación.

Sin la experiencia, aproximadamente 2 semanas, quizás menos si tiene videos y puede aprender lo esencial sobre cómo funciona un equipo y cómo se almacena y captura la animación rápidamente.

Sin embargo, si desea algo personalizado, ya sea los personajes, la rutina o los movimientos de baile para acompañamiento y vocalista, bateristas, conjuntos y productores / audiencias, debe grabar de 5 a 12 escenas animadas diferentes y quizás 4 rutinas por tipo de personaje, como esperar, escuchar, bailar, saltar / aplaudir / girar. Luego combinarías y combinarías esos 4 en la rutina que querías en iclone 5.

Lo que puede ayudar a distraer la falta de expresiones faciales, si puede mover la cámara hacia atrás y los grupos de películas.

Entonces necesita un entorno modelado y establecer piezas para que los personajes interactúen, posiblemente.

Nuevamente, eso puede tomar 3 meses o más.

Depende significativamente del dinero para gastar y de los recursos o animadores y modelos que tenga.

El uso de la ruta del videojuego ahorrará una cantidad considerable de tiempo IMO, y puede comprar herramientas de animación para usar en el entorno del juego para organizar la música, el rendimiento y la cámara para moverse por el mundo.

También permite a las personas ver el videoclip como una escena de juego de alta resolución a través de la exportación web, si es necesario.

Eche un vistazo a http://www.youtube.com/?feature=… para ver las muestras de trabajo existentes, debería haber suficientes ejemplos de personas que utilizan iclone 5 mocap e importan la animación a otras aplicaciones.

Debo advertirle que no tengo experiencia de primera mano en este campo, pero sé más o menos de lo que estoy hablando. En segundo lugar, debería advertirte que no sé cuál es el software que mencionaste y que solo tengo una idea general de lo que quieres, pero seguiré adelante y trataré de ayudarte.

Parece que quieres modelar y animar a algunos personajes. Esto se puede hacer con cualquier software de modelado como Maya, 3DS Max, Houdini o Blender. 3DS Max y Maya son las mejores opciones, pero también las más caras para el trabajo comercial. 3DS Max puede ser mucho más fácil de usar para un animador en solitario, pero Maya es mucho más poderoso en muchas áreas. Houdini es más barato y muy bueno para efectos visuales complejos. Blender es gratuito y de código abierto, pero nunca lo he usado ampliamente y no puedo comentarlo.

Una vez que haya modelado, animado y renderizado los personajes, debe componerlos en el metraje de acción en vivo. Las dos piezas de software que conozco que pueden hacer esto mejor son Boujou y Adobe After Effects, ambas tienen las capacidades de seguimiento de movimiento que necesita. No he usado ninguno y no tengo experiencia combinando imágenes CG y de acción en vivo, así que buena suerte.

ACTUALIZACIÓN: Investigué un poco sobre el software que mencionaste. Es compatible con todas las suites de software de modelado y animación que mencioné, excepto Houdini. También vale la pena mencionar que Autodesk, el creador de 3DS Max y Maya, tiene su propio software mocap que estoy seguro de que funcionará mejor con 3DS Max y Maya; Sin embargo, entiendo si esa no es una opción. Mi tercer párrafo sigue en pie.

No sé si esto ayudará, pero creo que el Kinect 2 para Xbox One puede rastrear todas las articulaciones en un cuerpo humano, por lo que podría haber una aplicación que le permita simplemente tomar los datos en bruto y convertirlos para representarlos Un esqueleto o algo.