Prompt caching เป็นอีกหนึ่ง feature ที่น่าสนใจที่ provider ต่าง ๆ เพิ่มเข้ามา ทั้ง OpenAI, Gemini, Anthropic และ DeepSeekซึ่งจะทำ caching ของ prompt + context ต่าง ๆ ให้เราเพื่อช่วยลดค่าใช้จ่ายลงไป รวมทั้งช่วยให้สามารถ share context ได้และเพิ่ม performance ของการทำงานอีกด้วย นั่นคือ ลด response time ลงไป
Read More…
ทาง Anthropic ซึ่งเป็นเจ้าของ Claude.AI นั่นเองได้เขียนบทความเรื่อง Introducing Contextual Retrievalอธิบายเรื่องของการปรับปรุงความสามารถของ AI Model ต่าง ๆด้วยแนวคิด Retrieval-Augmented Generation (RAG)
Read More…
หลาย ๆ คนที่ใช้ Claude AI อยู่ น่าจะใช้งาน feature Artifacts กันหมดแล้วเพราะว่าไม่ได้อยู่ใน preview feature อีกต่อไปแล้วซึ่งจะทำการแสดงผลหรือ preview ข้อมูลต่าง ๆ ออกมาให้เห็นเลย เช่น ซึ่งอำนวยความสะดวกอย่างมากแถมเราสามารถ chat เพื่อปรับปรุงส่วนต่าง ๆ หรือ ให้อธิบายส่วนต่าง ๆ ได้อีกด้วย
Read More…