
หลังจากที่ใช้งาน Dagger สำหรับการสร้าง workflow และ CI/CD ด้วยการเขียน code
โดยทำงานใน container-based เป็นหลัก
แต่มีอีก feature ที่น่าสนใจคือ LLM Bindings
ที่ทำงานร่วมกับ LLM provider ต่าง ๆ
จากนั้นทำการเลือก tool/function ที่จะ run ใน dagger ให้เองเลย
มันคือ AI Agent ตัวหนึ่งนั่นเอง
มาลองใช้งานกัน
โดย LLM provider ที่สนับสนุนประกอบไปด้วย
- OpenAI
- Anthropic
- Google Gemini
- Azure OpenAI
- Ollama
ตัวอย่างการใช้งานผ่าน Dagger shell
เป็นการติดตั้ง Python และ library ต่าง ๆ ใน Alpine container
ตัวอย่างการเขียน Dagger ให้เป็นเป็น Agent สำหรับ Generate code เป็นภาษา Go
จากนั้นทำการ run ใน Dagger shell เหมือนเดิม
สิ่งที่น่าสนใจคือ มีการจัดการ caching ของ prompt ที่ส่งไปยัง LLM provider ให้อีกด้วย
ตรงนี้ช่วยลด cost ไปเยอะเหมือนกัน
ลองเล่นกันดู สนุกดีครับ
เพิ่มอีกนิด ลอลให้สร้าง REST API ด้วยภาษา Go + Echo fromework ได้ดังนี้
ลองดูตัวอย่างการใช้งานเพิ่มเติมได้ที่ AI Agent Examples