AI Bootcamp: LLM Finetuning & Deployment

เมื่อวันศุกร์ที่ 4 กรกฎาคม 2025 ที่ผ่านมา Float16 ร่วมกับทีม Typhoon SCB 10X จัดงาน AI Bootcamp: LLM Finetuning & Deployment ขึ้นที่ DistrictX ตึก FYI ซึ่งถือเป็นก้าวสำคัญในการส่งเสริมการพัฒนาเทคโนโลยี AI ในประเทศไทย งานนี้ได้รับความสนใจอย่างล้นหลาม และสำเร็จลุล่วงไปด้วยดีเกินคาดหวัง
ภาพรวมงาน
AI Bootcamp เป็นงานอบรมเชิงปฏิบัติการแบบเต็มวันที่ออกแบบมาเพื่อนำผู้เข้าร่วมจากการเข้าใจพื้นฐานไปสู่การใช้งาน Large Language Models (LLMs) จริง ผ่านกระบวนการ finetuning และ deployment โดยใช้เครื่องมือและ GPU
Highlight
🔧 ช่วงเช้า: How to Finetune Typhoon Open-Source LLMs
วิทยากร: คุณสุรพล โนนสูง (Surapon Nonesung), Research Scientist at SCB10x
👉Key Takeaway จากทีม Typhoon: 5 Tips ในการ Fine Tune ให้ได้โมเดลที่มีประสิทธิภาพ
- ใช้เวลากว่า 80% ไปกับ การเตรียมข้อมูล (เพราะคุณภาพของข้อมูล คือรากฐานของโมเดลที่ดี)
- สร้างชุดข้อมูลสำหรับประเมินผลอย่างน้อย 2 ชุด โดยต้องมีอย่างน้อย 1 ชุดที่เป็นข้อมูลที่ไม่เคยถูกเทรนมาก่อน
- ระหว่าง Fine-Tuning ใช้ train set และ eval set เพื่อตรวจสอบการเกิด overfitting
- ควรประเมินโมเดล ก่อนและหลัง Fine-Tuning เพื่อดูว่าโมเดลพัฒนาขึ้นจริงหรือไม่
- ตรวจสอบและปรับ Chat Template ที่ใช้ เช่น system prompt, instruction format ฯลฯ Template ที่ดีช่วยให้โมเดลตอบได้แม่นยำและ performance ดีมากขึ้น
🚀 ช่วงบ่าย: How to Deploy Your Finetuned Typhoon Model on Float16 ServerlessGPU
วิทยากร: คุณมติชน มณีกาศ (Matichon Maneegard), Founder at Float16
👉Key Takeaway จากทีม Float16: แนะนำ 3 เทคนิคการปรับปรุง LLM ให้นำไปใช้ในงาน Software Development ได้จริง
- เลือกใช้ LLM file formats ให้ถูกจุดประสงค์ ได้แก่
- .safetensors → สำหรับ HuggingFace, แยกไฟล์ model-weight, tokenizer, architecture
- .gguf → สำหรับ llama-cpp, Ollama, LM-studio ใช้งานง่าย
- เลือกฟอร์แมตให้เหมาะกับงาน
- safetensors สำหรับ fine-tuning
- gguf สำหรับ inference
- ทำให้รองรับ OpenAI API Compatibility
- ทำให้โค้ดเดิมใช้ได้ โดยไม่ต้องเขียนใหม่
- เปลี่ยน endpoint จาก OpenAI มาใช้โมเดลของเราเอง
- ประหยัดค่าใช้จ่าย และควบคุมได้เต็มที่
- Structured Output (Grammar) ทำให้คำตอบดีขึ้น
- ใช้ xgrammar, outlines, guidance ควบคุมรูปแบบคำตอบ
- JSON mode สำหรับ function calling ที่แม่นยำ
- กำหนด grammar rules สำหรับ SQL, การเลือกตัวเลือก, หรือฟอร์แมตเฉพาะ
ผลตอบรับที่ยอดเยี่ยม
จากการประเมินผลหลังงาน เราได้รับผลตอบรับที่ดีเกินคาดหวัง:
💬 ส่วนหนึ่งของความคิดเห็นที่น่าประทับใจ
"ประทับใจกับภาพรวมกิจกรรมนะครับ ถือเป็นการออกมาเรียนรู้จากคนที่ทำงานจริง" - ผู้เข้าร่วม
"ทีมงาน SCB10X และ Float16 ใส่ใจในการให้ความรู้ดีมาก การบริหารจัดการดีแล้ว คุณเค มติชน Float16 จัดรูปแบบ Lecture & Workshop ได้ดีมาก" - ผู้เข้าร่วม
"I really enjoyed the event. Especially how smooth and well-streamlined the event was." - ผู้เข้าร่วม
สิ่งที่ผู้เข้าร่วมได้รับ
🎯 ความรู้เชิงปฏิบัติ
- ประสบการณ์ hands-on ในการ fine-tune และ deploy LLMs
- การใช้งาน Typhoon open-source models
- เทคนิคการปรับปรุง LLM ให้เหมาะกับงาน Software Development
💰 สิทธิประโยชน์
- ฟรี 100% ไม่มีค่าใช้จ่าย
- GPU Credits จาก Float16 มูลค่า 1,000 บาท
- ใบประกาศนียบัตร ดิจิทัล
- Free Lunch
🤝 เครือข่าย
ได้พบปะและแลกเปลี่ยนประสบการณ์กับ:
- อาจารย์ นักศึกษา นักวิจัย และ Data Scientists
- Engineers และ Developers
- Startup founders และผู้ประกอบการ
ขอขอบคุณทุกท่านที่มาร่วมงาน รวมถึง:
- ทีมงาน SCB 10X และ NVIDIA ที่ให้การสนับสนุนอย่างเต็มที่
- DistrictX ที่ให้สถานที่จัดงาน
- ผู้เข้าร่วมทุกท่านที่ให้ feedback และแนวคิดดีๆ
Float16 มุ่งมั่นที่จะเป็นส่วนหนึ่งในการผลักดันให้ประเทศไทยเป็นผู้นำด้าน AI ในภูมิภาค งานนี้เป็นเพียงจุดเริ่มต้นของการสร้างชุมชน AI practitioners ที่แข็งแกร่งและยั่งยืน
#AIBootcamp #LLMFinetuning #Float16 #SCB10X #NVIDIA #MachineLearning #AIThailand