2 ต.ค. เวลา 10:45 • วิทยาศาสตร์ & เทคโนโลยี

Prompt engineering หลบไป ได้เวลาของ context engineering

งานที่ AI ทำได้ มันเริ่มซับซ้อนขึ้นทุกที การถามโดยใช้ prompt มันเริ่มไม่พอเพียง Anthropic จึงเริ่ม coin คำใหม่ว่า context engineering ที่ใช้ประโยชน์จาก context window ที่ใหญ่ขึ้น และความสามารถในการจดจำข้อมูลระหว่างการเรียกที่ดีขึ้นในการใช้ประโยชน์จาก LLM ให้ได้มากขึ้น
อย่างไรก็ตาม Context เป็น “ทรัพยากรที่จำกัด”
- โมเดล LLM มี “attention budget” — เมื่อจำนวน token ในบริบทเพิ่มขึ้น โมเดลเริ่มลืมหรือ “สับสน” กับข้อมูลที่ไกลออกไป (คือ โฟกัสลดลง)
- โดยเฉพาะในระบบตัวแทน (agents) เราไม่สามารถโยนข้อมูลทั้งหมดเข้าไปได้ทุกครั้ง เราจึงจะโดนจำกัดด้วยขนาด context window และประสิทธิภาพ
- ดังนั้น เราต้อง “คัดเลือก / บีบ / รื้อถอน” ข้อมูลใน context เพื่อให้โมเดลทำงานได้ดี
1
Context engineering จึงไม่ใช่ว่า มีอะไรก็ยัดใส่เข้าไป แต่มันเป็นศาสตร์ และศิลป์ของการใช้ context window ที่มีจำกัดให้มีประโยชน์สูงสุด
โดยองค์ประกอบของของที่สามารถป้อนเข้าไปเป็นส่วนหนึ่งของ context window ใน Context Engineering นั้นมีหลากหลายกว่าที่เราคิด
- System prompts: เขียนให้ชัดเจน ใช้ภาษาง่าย ตรงประเด็น ให้โมเดลเข้าใจ “กรอบการทำงาน” ได้ แต่ไม่ควรใส่ logic ซับซ้อน ถ้าใส่มากเกินไปจะกลายเป็น brittle (ขี้แตก)
- Tools: ตัวแทนมักจะมี “เครื่องมือ” (tools) ที่มันเรียกใช้ (เช่น ดึงข้อมูล, ประมวลผลไฟล์ ฯลฯ) เครื่องมือควรออกแบบให้ตรงและไม่ซ้อนไปมา ให้โมเดลใช้ได้สะดวก และตอบข้อมูลที่ประหยัด token
- Examples (few-shot): ให้โมเดลเห็นตัวอย่างพฤติกรรมที่ต้องการ แต่อย่าอัดกรณีขอบเขตเยอะเกินไป คัด “ตัวอย่างประจำ” ที่ครอบคลุมแนวคิดหลักพอ 
- Message history / ประวัติการสนทนา: ไม่ควรโยนทุกข้อความเก่าเข้าไปโดยไม่ไตร่ตรอง บางส่วนอาจสำคัญ บางส่วนเป็นขยะ
โฆษณา