จากหนังสือเรื่อง Learn Prompting นั้น
มีเรื่องที่น่าสนใจเยอะมาก ๆ
หนึ่งในนั้นคือ เรื่องการ Prompt hacking ประกอบไปด้วย

  • Prompt Injection
  • Prompt Leaking
  • Jailbreaking
  • Defensive Measures

ชื่อที่คุ้น ๆ คือ Prompt Injection !!

ซึ่งเคยได้ยินจากเรื่องของ web security เช่น

  • SQL Injection
  • Command Injection

นั่นคือ เราสามารถส่งชุดคำสั่งเข้าไปยังระบบ
เพื่อให้ทำงานตามที่เราต้องการ
หรือเข้าไปยังช่องโหว่ที่เปิดไว้ทั้งตั้งใจและไม่ตั้งใจ

โดยที่ Prompt Injection ก็เช่นกัน
นั่นคือ อาศัยความเข้าใจขั้นตอนการทำงานของ ChatGPT
จากนั้นก็ส่งชุดคำสั่ง หรือ การพูดคุย เข้าไป
ทำให้ตัว ChatGPT ทำการ hack หรือ โจมตีตัวเองได้เลย
เป็นเรื่องที่น่าสนใจมาก ๆ

และยังมี Indirect Prompt Injection อีก

ต่อไปอาจจะมีตำแหน่ง Prompt Security Engineering อีกไหมนะ

Reference Websites