หนึ่งในการ review การทำงานของ AI Agent ต่าง ๆ
และหลัง ๆ มี Agent Skills ที่ได้รับความนิยมออกมาเยอะมาก ๆ
ซึ่งช่วยลดงานเดิม แต่เพิ่มงานใหม่ ๆ มาอีกเพียบ !!
แต่ปัญหาที่เจอเยอะมาก ๆ คือ

มี tool หรือเครื่องมือใน AI Agent ที่ต้องไปดึงข้อมูลจาก web ต่าง ๆ
มาเพื่อทำการสรุป วิเคราะห์ ใน LLM provider ต่าง ๆ ต่อไป
แต่มีขนาดหรือจำนวน token ที่ส่งไปจำนวนมาก ๆ
ก่อให้เกิดการติด limit และ ทำงานได้ช้า

ดังนั้นเราน่าจะต้องหาวิธีการลดจำนวน token ลงมา
แต่ยังไม่คุณภาพสูงเช่นเดิม
มาลองแก้ไขกันดูดีกว่า
มาเริ่มกันเลย

ยกตัวอย่างเช่นใน Github Copilot Chat ใน VS Code

การทำงานหนึ่งต้องการทำการดึงข้อมูลจาก web แล้ว
ในชุดของเครื่องมือมักจะมี fetch tool ให้อยู่แล้ว
ยกตัวอย่างเช่น

สิ่งที่ได้รับกลับมาจากเครื่องมือนี้คือ HTML !!
แต่จากความต้องการนั้น
เราต้องการข้อมูลมาเพื่อส่งไปให้ LLM provider สรุปให้
นั่นหมายความว่า ถ้าส่ง HTML แบบนี้ไปทั้งหมด มันจะดีหรือ ?
รวมทั้งขนาดของข้อมูลใหญ่ แถวใช้ token เยอะมาก ๆ
แบบนี้จึงควรต้องปรับปรุงการ fetch ดีกว่า

แนวทางที่ใช้งานนั้นขึ้นอยู่กับเป้าหมาย แต่จะผ่าน command line tool ทั้งหมด เช่น

  • ถ้าต้องการเอาข้อมูลมาใช้งานต่อ เช่นการสรุป จะใช้งาน markitdown เป็นต้น
  • ถ้าต้องการทำงานควบคุม web application จะใช้งานผ่าน Agent browser CLI และ Playwright CLI เป็นต้น

ตัวอย่างผลการทำงานก่อนและหลัง

หรือถ้าใครมีเครื่องมืออื่น ๆ แนะนำได้ครับ
และสิ่งที่ได้รับคือ การเตรียมข้อมูลให้พร้อมในการใช้งานนั้นเอง
โดยที่ช่วยลดค่าใช้จ่าย เพิ่มความเร็ว
แถมยังต้องได้คุณภาพที่ดีด้วย
เป็นอีกเรื่องของ Context engineering ที่ดี