Cara Menjalankan HunyuanVideo-1.5 di Comfyui GPU Modal.com (Backup)

Cara Menjalankan HunyuanVideo-1.5 di Comfyui GPU Modal.com - Halo para pembaca, hari ini saya mau share cara menjalankan model Ai hunyuanVideo 1.5 yang baru di release oleh tencent dan di bagikan modelnya di huggingface. Tepatnya pada tanggal 20 November 2025.

Sepertinya model hunyuanVideo 1.5 ini merupakan model baru ai video yang tencent relese setelah sebelumnya mereka pernah juga merelease model HunyuanVideo namun belum di labeli dengan versinya.

Model Ai HunyuanVideo 1.5 juga sudah support untuk di jalankan di comfyui, sepertinya dulu waktu awal model HunyuanVideo (yang beluam ada versinya) release saya sempat coba untuk mencobanya menjalankan di comfyui, namun karena ada masalah node yang belum support yang membuat saya mengurungkan niat untuk mencoba model Ai nya

Berbeda dengan model Ai t2i (text to image) model Ai t2v (text to video) seperti HunyuanVideo-1.5 ini memerlukan waktu yang cukup panhang pada proses pembuatan hasil nya ya, karena video merupakan kumpulan dari frame gambar jadi model ai video akan menghasilkan gambar per frame nya dan merangkainya kedalam urutan waktu (time).

Untuk dapat menghasilkan video durasi 5 detik, maka model ai memerlukan sekitar 120 frame sesuai resolusi video yang di inginkan.

Sepengalaman saya dalam mencoba model Ai HunyuanVideo-1.5 untuk dapat menghasilkan video durasi 5 detik resolusi 720p memerlukan waktu 1148 detik atau sama dengam 19 menitan lah

Dengan menggunkan bantuan GPU A100-80GB vram 80GB dari modal.com yang mana saat prosesnya penggunkan vram di kisaran 43%.

Hasil video nya saya katakan juga sangat baik (tidak jahat), hanya waktu prosesnya ini yang lumayan lama ya. mungkin nanti bisa lebih ngebut lagi prosesnya di model yang baru atau ada metode menjalankan Ai nya yang versi baru.

Seperti artikel sebelum-sebelumnya, karena saya tidak punya GPU di laptop saya, saya akan menjalankannya menggunkan layanan dari modal.com yang memberikan kredit bulanan yang bisa digunkan untuk menyewa GPU yang sampai dengan GPU Nvidia B200.

Saya juga menjalankan model ini menggunkan bantuan dari comfyui sebagai web ui nya, karena comfyui sudah support menjalankan model HunyuanVideo-1.5 ini di update terbarunya. sebelum lanjut ke step dibawah, silahkan kalian baca-baca cara install comfyui di modal.com pada artikel saya sebelumnya ini: Cara Menjalankan Comfyui di Modal.com

Cara Menjalankan model Ai HunyuanVideo-1.5 di Comfyui GPU Modal.com

  • Tentu saja kalian perlu menginsatall kan atau mengupdate ComfyUI nya dulu ya ke versi baru agar support model ai ini, saya menggunkan comfyui stable version: v0.3.72 dan comfyui manager version: V3.37
  • Kemudian kalian perlu mendownload dan memasukkan workflow berikut ini ke comfyui nya, klik file > open > cari video_hunyuan_video_1.5_720p_t2v.json yang sudah kalian download
  • Mungkin akan ada pemberitahuan jika ada node yang belum terinstall di comfyui kalian, kalian tinggal menginstall kan missing node nya melalui Manager > Install Missing Custom Nodes > lalu install node yang belum terinstall dan restart comfyuinya jika diminta saat sudah selesai.
  • Pasangkan juga node ComfyUI Model Downloader yang akan kita gunakan hf downloader nya untuk mendownload model dan lainnya, lalu restart comfyui nya
  • Selanjutnya adalah mendownload file weight model ai nya, 2 file Text encoder, dan VAE nya ke comfyui. kita buat workflow baru > klik Node Library > cari node HF Download dan masukkan ke dalam workflow barunya.
  • Repo untuk mendownload file-file nya ada disini: https://huggingface.co/Comfy-Org/HunyuanVideo_1.5_repackaged
  • Pertama kita download model ai nya, ini url repo hf untuk model ai
  • Atur seperti ini, repo id: Comfy-Org/HunyuanVideo_1.5_repackaged, filename: split_files/diffusion_models/hunyuanvideo1.5_720p_t2v_fp16.safetensors, dan local_path: diffusion_models kemudian klik Run
  • kemudian kita download text_encoders 1 nya, pertama menggunakan qwen_2.5_vl_7b_fp8_scaled.safetensors reponya masih sama
  • Atur seperti ini, repo id: Comfy-Org/HunyuanVideo_1.5_repackaged, filename: split_files/text_encoders/qwen_2.5_vl_7b_fp8_scaled.safetensors, dan local_path: text_encoders kemudian klik Run
  • Lalu download text_encoder 2 nya, yakni byt5_small_glyphxl_fp16.safetensors reponya masih sama
  • Atur seperti ini, repo id: Comfy-Org/HunyuanVideo_1.5_repackaged, filename: split_files/text_encoders/byt5_small_glyphxl_fp16.safetensors, dan local_path: text_encoders kemudian klik Run
  • Terakhir kita download vae hunyuanvideo15_vae_fp16.safetensors nya: ini reponya masih sama
  • Atur seperti ini, repo id: Comfy-Org/HunyuanVideo_1.5_repackaged, filename: split_files/vae/hunyuanvideo15_vae_fp16.safetensors, dan local_path: vae kemudian klik Run
  • Setelah file-file sudah didownload kemudian reload browser untuk comfyui nya agar file yang sudah selesai di download dapat terbaca di workflownya
  • muat ulang lagi workflow video_hunyuan_video_1.5_720p_t2v.json yang sudah kalian download di awal tadi, jika workflownya di tutup oleh comfyui
  • Atur workflownya mengarah ke file-file yang sudah kalian download tadi.
  • Masukkan prompt text nya dan coba test generate video Ai nya dengan klik Run
  • Tunggu hingga selesai karena ini akan memakan waktu.

Output Hasil:

Catatan :

  • Saya menggunkan model gguf 8-bit, karena dari beberapa sumber yang saya baca model gguf 8-bit lebih cepat prosesnya dan lebih kecil ukuran modelnya
  • jika sudah selesai menggunkan comfyui, saya sarankan untuk mematikan service agar menghemat credit kalian. Caranya: masuk ke dashboard modal.com > klik menu Logs > klik Stop now

Referensi artikel ini:

https://github.com/Tencent-Hunyuan/HunyuanVideo-1.5

Trimakasih kepada:

Tencent ai lab untuk model ai yang bisa diakses publik secara gratis

Comfy untuk NodeUI open source nya

Modal.com untuk credit komputasi GPU nya

Previous Post
No Comment
Add Comment
comment url