
คำถาม จากการแบ่งปันเรื่องการใช้งาน LLM มาช่วยเขียน code คือ
จะ config อย่างไรใน VS Code ให้มาใช้งานพวก Local LLM ได้บ้าง ?
เช่นการใช้งาน Ollama เป็นต้น
คำตอบที่แนะนำไปเป็นดังนี้
ถ้าใช้งาน GitHub Copilot อยู่แล้ว
สามารถเลือก provider เพิ่มเติมด้วย Ollama ได้เลย
แต่ต้องทำการเพิ่ม config ของ Ollama endpoint ไปยัง server ของเราเอง
- github.copilot.chat.byok.ollamaEndpoint

จากนั้นก็สามารถเลือก model ที่ทำการติดตั้งไว้ใน Ollama server
ยกตัวอย่างดังรูป

ทำการเลือก model และใช้ได้เลย

แต่ว่า server หรือ เครื่องที่ใช้ติดตั้งต้องแรงหน่อยนะครับ
มิเช่นนั้น ช้าเป็นเต่ากันเลย
ถ้าใช้งานผ่าน Continue ก็ง่ายเข้าไปอีก
ถ้าใช้งาน Ollama อยู่แล้ว ให้ทำการติดตั้ง extension ใน VS Code

จากนั้นก็ config model ใน config fileได้
มีขั้นตอนให้เรียบร้อย

จากนั้นก็ใช้งานแบบชิว ๆ

ลองใช้กันดูครับ config ง่าย ๆ
แต่การใช้นั้น ไม่ง่าย ถ้าจะให้ได้ผลดี
ขอให้สนุกกับการ coding ครับ !!