
ทาง Google เพิ่งเปิดตัวการใช้งาน Gemini model ผ่าน OpenAI library ได้แล้วทำให้นักพัฒนาไม่ต้องแก้ไข code เดิมเพียงแต่เพิ่ม config เข้าไปนิดหน่อย เช่น มาลองใช้งานกันดู
Prompt caching เป็นอีกหนึ่ง feature ที่น่าสนใจที่ provider ต่าง ๆ เพิ่มเข้ามา ทั้ง OpenAI, Gemini, Anthropic และ DeepSeekซึ่งจะทำ caching ของ prompt + context ต่าง ๆ ให้เราเพื่อช่วยลดค่าใช้จ่ายลงไป รวมทั้งช่วยให้สามารถ share context ได้และเพิ่ม performance ของการทำงานอีกด้วย นั่นคือ ลด response time ลงไป
เพิ่งเห็น library ที่พัฒนาด้วยภาษา Python ชื่อว่า ell เป็น library สำหรับ prompt engineering แบบง่าย ๆให้เขียน prompt ด้วย code แบบง่าย ๆ ผ่าน API ของ OpenAI และ Anthropicรวมทั้งมีเครื่องมือสำหรับการจัดการ versioning, tracing และ monitoring ให้รวมทั้งการ visualization แบบสวย ๆ ผ่าน ell studioมาลองใช้งานกันดู