ทาง Microsoft ปล่อย Foundry Local ออกมาให้ใช้งาน เป็น public preview version
ใช้สำหรับการ run AI model บนเครื่องของเราเอง (Local LLM)
เหมือนกับ Ollama นั่นเอง
โดยได้เตรียมเครื่องมือสำหรับการใช้งานมาให้ดังนี้

  • มี REST API ให้ใช้งาน ซึ่ง compatability กับ OpenAI
  • มี CLI และ SDK มาให้ใช้งาน
  • ใช้ ONNX runtime สำหรับการ run model ซึ่งสามารถงานหลากหลาย hardware และ device (CPU, GPU และ NPU)

แสดงดังรูป

มาลองใช้งานกัน

ขั้นตอนแรก ทำการติดตั้งก่อน

โดยจะมี model ที่สนับสนุนคือ

  • Phi
  • Qwen
  • Mistral

ขั้นตอนที่สอง มาลอง Download และ Run model

ขั้นตอนที่สาม ทำการเขียน code ใช้งานนิดหน่อย

ทำการ generate code ด้วยภาษา Go ดังนี้

ผลการทำงานเป็นดังนี้

เพียงเท่านี้ก็สามารถใช้งานแบบง่าย ๆ ได้แล้ว