Self-Hosted LLMs for Enterprise #1

Self-Hosted LLMs for Enterprise #1

ในยุคที่ Generative AI กลายเป็นผู้ช่วยประจำวันของใครหลายคน ไม่ว่าจะเขียนโค้ด ตอบคำถาม หรือสรุปรายงาน หลายองค์กรเริ่มสนใจจะ ติดตั้งและใช้งาน LLM ภายในเอง เพื่อความเป็นส่วนตัว ความยืดหยุ่น และควบคุมต้นทุน ซีรีส์นี้จะพาไปตั้งค่าระบบทีละขั้น ตั้งแต่ติดตั้งไดรเวอร์ ไปจนถึงรัน LLM ผ่าน API ได้ในเครื่อง Ubuntu ของคุณเอง

Infrastructure ที่เลือกใช้ในบทความนี้จะเป็นของ AWS ซึ่งเราจะเลือกใช้ EC2 เป็นเครื่องสำหรับการทำ Demo กันนะครับ

สำหรับ Instance Type ที่เลือกใช้จะเป็น g5g.xlarge ที่มี GPU ให้ใช้งาน

1.หาค่า $distro และ $arch ให้ตรงกับระบบของเรา

เปิดตารางเทียบได้จาก Official Document
📄 NVIDIA Supported Linux Distributions Table

จากตัวอย่างเครื่อง demo ของเราเป็น:

  • Ubuntu 24.04 LTS
  • Architecture: arm64

เราจะได้ค่า:

  • $distro = ubuntu2404
  • $arch = sbsa
  • $arch_ext = sbsa

ถ้าใช้งานกับเครื่อง spec อื่นต้องเช็คให้ค่าให้ตรงกับเครื่องที่ใช้ด้วยนะ

2.ติดตั้ง keyring ของ NVIDIA ด้วยค่า $distro และ $arch ที่ได้จากขั้นตอนที่แล้ว

# ตัวอย่าง: ถ้าใช้ Ubuntu 24.04 + ARM64 (จากขั้นตอนที่ 1) 
wget  https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2404/sbsa/cuda-keyring_1.1-1_all.deb  
# ติดตั้ง keyring 
sudo dpkg -i cuda-keyring_1.1-1_all.deb  
# อัปเดต 
apt index sudo apt update

3.ติดตั้ง NVIDIA Proprietary Driver และ CUDA Toolkit

sudo apt install cuda-drivers
sudo apt install cuda-toolkit

4.ตรวจสอบการทำงานของ Driver

nvidia-smi

สรุป Part 1

ในบทนี้สิ่งที่จะได้:

  • ตรวจสอบข้อมูลระบบเพื่อใช้เลือกเวอร์ชัน driver ให้ถูกต้อง
  • เชื่อมต่อ Ubuntu กับ NVIDIA Repository
  • ติดตั้ง NVIDIA proprietary GPU driver แบบง่ายด้วยคำสั่ง apt
  • ตรวจสอบการทำงานของ GPU ด้วย nvidia-smi

หากทำตามนี้เครื่องก็จะพร้อมสำหรับการใช้งาน GPU แล้ว ✅


Next: ใช้ GPU ร่วมกับ Docker Container

ในตอนต่อไป เราจะมาดูวิธี:

  • ตั้งค่าให้ Docker ใช้ GPU ได้อย่างถูกต้อง
  • ติดตั้ง nvidia-container-toolkit
  • และเตรียม environment สำหรับรัน LLM API แบบ Work-from-Home หรือภายในองค์กร

อย่าลืมติดตามตอนต่อไปครับ! 🙌

Read more

GPU monitoring dashboard

GPU monitoring dashboard

บทความนี้ผมจะพาทุกคนมาเรียนรู้การทำ monitoring dashboard ของ GPU ด้วย grafana กันนะครับ โดยจะเริ่มกันตั้งแต่วิธีการติดตั้ง grafana จนไปถึงการตั้งค่าให้รับค่าการทำงานจาก gpu โดยใช้ dcgm-exporter ผ่าน prometheous จนสามารถสร้างเป็น dashboard ที่ดูการทำงานต่างๆของ GPU ได้ และทั้งหมดเราจะทำการ

By matichon maneegard
ทำ E2E Test ด้วย AI โดยใช้ Midscene.js ร่วมกับ Playwright

ทำ E2E Test ด้วย AI โดยใช้ Midscene.js ร่วมกับ Playwright

E2E testing แบบที่ไม่ต้องเขียน selector ในโพสต์นี้เราจะมาลองใช้ Midscene.js สำหรับควบคุบ UI แบบที่สั่งด้วย Natural language ร่วมกับ Playwright ซึ่งเป็น framework ยอดนิยมสำหรับการทำ automated browser test Midscene.js คืออะไร? Midscene.js เป็น JavaScript SDK ที่ใช้โมเดล

By matichon maneegard, Thanawat Kittichaikarn
Nvidia GPU Driver Setup: Essential Steps for LLM Developers

Nvidia GPU Driver Setup: Essential Steps for LLM Developers

ยุคนี้ที่ AI มาแรงแบบสุดๆ LLM น่าจะเป็นสิ่งที่ทุกบริษัทพูดถึงกัน หลายๆที่อยากให้ LLM Solution เข้ามามีบทบาทในบริษัทมากขึ้น ไม่ว่าจะเป็นการทำ Chatbot, RAG เป็นต้น สิ่งที่ตามมาก็คือ Solution เหล่านั้นต้องอยู่ใน Infrastructure ของบริ

By matichon maneegard
ทำ Data Extraction จาก image โดยใช้ LLM Multimodal

ทำ Data Extraction จาก image โดยใช้ LLM Multimodal

ในการทำ Data Extraction จากรูปภาพ เช่น สลิปใบเสร็จ, บัตรประชาชน, หรือแบบฟอร์มกระดาษ วิธีดั้งเดิมมักใช้ OCR (Optical Character Recognition) ร่วมกับการเขียน rule หรือ regex เพื่อแยกข้อมูลออกมา ซึ่งยุ่งยากหรือเมื่อรูปแบบข้อมูลเปลี่ยน ซึ่งจริงๆแล้วเรามี

By matichon maneegard