19/03/2025 32
LoRA (Low-Rank Adaptation) là một phương pháp huấn luyện mô hình AI hiệu quả, giúp tối ưu bộ nhớ và tốc độ mà không làm mất đi chất lượng mô hình. LoRA đặc biệt hữu ích trong việc tạo nhân vật, phong cách vẽ riêng biệt trong các ứng dụng AI như Stable Diffusion.
🔹 Lợi ích của LoRA:
Step là số lần AI cập nhật kiến thức từ dữ liệu huấn luyện. Mỗi step AI sẽ học thêm một chút về dữ liệu, do đó số step ảnh hưởng trực tiếp đến chất lượng mô hình.
Step=Soˆˊ ảnh×Repeat×Epoch\text{Step} = \text{Số ảnh} \times \text{Repeat} \times \text{Epoch}Step=Soˆˊ ảnh×Repeat×Epoch
Ví dụ, với 30 ảnh, repeat = 5, epoch = 20:
30×5×20=3000 step30 \times 5 \times 20 = 3000 \text{ step}30×5×20=3000 step
🔹 Số step lý tưởng: 3k - 5k. Nếu quá cao (ví dụ 10k) mà ảnh không đủ đa dạng, dễ bị overfitting.
🔹 Số lượng lý tưởng: 30 - 50 ảnh.
🔹 Độ đa dạng: Biểu cảm, góc nhìn, tư thế khác nhau.
🔹 Chất lượng ảnh: Tránh ảnh có filter, background phức tạp.
🔹 Tỉ lệ ảnh phù hợp:
📌 Lưu ý: Crop ảnh vuông (512x512 hoặc 1024x1024) để tránh mất chi tiết.
🔹 Overfitting là gì?
AI học quá sâu vào dữ liệu huấn luyện, khiến ảnh tạo ra bị “quá giống” một cách bất thường.
🔹 Cách tránh overfitting:
Nếu số ảnh ít, có thể tạo thêm ảnh bằng AI với Character Reference.
📌 Lưu ý:
🔹 Khi nào cần retrain?
🔹 Nguyên tắc retraining:
Nhiều nền tảng cho phép lưu nhiều phiên bản LoRA theo từng giai đoạn train.
📌 Nên chọn LoRA nào?
Nếu một LoRA chưa đủ tốt, có thể kết hợp với LoRA khác.
🔹 Ví dụ LoRA hỗ trợ:
💡 Cách kết hợp: Dùng LoRA merging trong Auto1111 hoặc LyCORIS.
Tùy vào độ phân giải, nhưng 8GB VRAM là tối thiểu.
Có, nhưng cần kiểm tra dung lượng bộ nhớ.
Do overfitting hoặc ảnh đầu vào không đủ đa dạng.
Có, nhưng cần chọn ảnh chất lượng cao.
Có, bằng cách dùng LoRA merging hoặc tinh chỉnh weight.
Train LoRA không chỉ là "càng nhiều step càng tốt" mà cần cân bằng giữa số step, chất lượng ảnh đầu vào và kỹ thuật train hợp lý. Hãy thử nghiệm và chia sẻ kinh nghiệm của bạn! 🚀