สวัสดีครับ ผม Poipoi เอง วันนี้ผมจะมาแชร์ประสบ ลองจริง สำหรับใครที่อยากรัน Local LLM (AI ส่วนตัวในเครื่อง) แต่ไม่อยากกระเป๋าฉีกไปซื้อการ์ดจอตัวท็อปอย่าง RTX 3090 หรือ 4090
โจทย์ของผมคือ "งบประหยัด แต่ต้องรันโมเดลใหญ่ได้" วันนี้เลยจะมาลองของใหม่กับ RTX 5060 Ti 16GB และสูตรลับ "การ์ดจอผสม" ให้ได้ VRAM 24GB ในราคาที่จับต้องได้ครับ
ทำไมต้องแคร์เรื่อง VRAM? (VRAM is King)
จากการทดสอบของผม กฎเหล็กของวงการ Local LLM คือ:
รันได้ vs รันไม่ได้: อยู่ที่ปริมาณ VRAM ล้วนๆ ถ้า VRAM พอ มันจะรันบนการ์ดจอได้ลื่นๆ แต่ถ้า VRAM ไม่พอ มันจะล้นไปใช้ RAM เครื่อง ผลคือ "เต่าคลาน" (ช้าลง 6-7 เท่า!)
ความเร็ว: เป็นเรื่องรอง ขอแค่รันโมเดลขึ้นก่อนครับ
สเปกที่ใช้ทดสอบ (สูตรสายประหยัด)
แทนที่จะซื้อการ์ดเทพใบเดียวแพงๆ ผมใช้วิธี Mixed GPU ครับ
พระเอก: RTX 5060 Ti (16GB) - ราคาประมาณ 15,000 - 16,000 บาท (ของใหม่ มือ 1) ตัวนี้คือคุ้มค่าที่สุดในงบกลาง
พระรอง: RTX 3070 (8GB) - การ์ดจอตัวเก่าที่มีอยู่แล้ว (หรือใครจะใช้รุ่นอื่นก็ได้ขอแค่มี VRAM มาช่วยเติม)
รวมร่าง: เมื่อใช้โปรแกรมจัดการ เราจะได้ VRAM รวม 24GB เทียบเท่า RTX 3090/4090 ในราคาที่ถูกกว่าครึ่ง!
สรุปผลการทดสอบ: เจ็บแต่จบไหม?
1. การ์ดเดี่ยว RTX 5060 Ti (16GB)
โมเดลขนาดเล็ก-กลาง (12B - 13B): รันได้สบายมาก ลื่นหัวแตก Speed อยู่ที่ 40-50 Tokens/s
โมเดลขนาดใหญ่ (30B - 70B): "ไม่รอด" ครับ VRAM 16GB ไม่พอ มันจะล้นไปกิน RAM เครื่อง ความเร็วร่วงเหลือแค่ 1-2 Tokens/s แทบจะคุยกันไม่รู้เรื่อง
2. การ์ดคู่ RTX 5060 Ti + RTX 3070 (Total 24GB)
ผลลัพธ์: นี่คือจุดเปลี่ยน! โมเดลที่เคยรันไม่ได้ หรือรันแล้วช้าเต่าคลาน กลับมารันได้แบบใช้งานจริงได้ครับ
ความเร็ว: แม้จะไม่ได้เร็วเท่าการ์ดเดี่ยวตัวท็อป (เพราะต้องส่งข้อมูลข้ามการ์ด) แต่ได้ความเร็วระดับ 6-10 Tokens/s ซึ่งเพียงพอสำหรับการใช้งานโต้ตอบทั่วไปแล้ว
ข้อสังเกต: การใส่การ์ดใบที่ 2 เข้าไป ไม่ได้ช่วยให้โมเดลเล็กทำงานเร็วขึ้น (เผลอๆ ช้าลงนิดหน่อย) แต่มันมีไว้เพื่อ ขยายพื้นที่ ให้รันโมเดลใหญ่ๆ ได้ต่างหาก
สรุปส่งท้าย: คุ้มไหม?
สำหรับผม สูตร RTX 5060 Ti 16GB คือ "เพชรในตม" สำหรับสาย Budget ครับ
ถ้าคุณมีงบจำกัด: ซื้อตัวนี้ตัวเดียว จบโมเดลระดับกลางได้ครบ
ถ้าคุณมีการ์ดเก่าเหลือ: เอามาเสียบเพิ่ม ทำ Mixed GPU คุณจะก้าวข้ามขีดจำกัดไปรันโมเดลระดับเทพ (30B+) ได้โดยไม่ต้องเสียเงินแสน
ใครที่ลังเลอยู่ หวังว่าผลเทสบ้านๆ ของผมจะช่วยประกอบการตัดสินใจได้นะครับ ดูคลิปทดสอบเต็มๆ ได้ที่ลิงก์ด้านล่างเลย!
https://poipoi-test.blogspot.com/2025/12/local-llm-vram-24gb-rtx-5060-ti.html

