เผยแพร่เมื่อ : พฤหัสบดี 2 เมษายน 2569 โดย สุพิชฌาย์ ถาวรลิมปะพงศ์ จำนวนผู้เข้าชม 4 คน

ปัจจุบันหลายคนใช้ AI อย่าง ChatGPT เพื่อช่วยทำงาน ไม่ว่าจะเป็นสรุปเอกสาร วิเคราะห์ข้อมูล หรือเขียนข้อความต่าง ๆ
และบ่อยครั้ง…เรามัก “คัดลอกข้อมูลจริง” ใส่ลงไป เช่น ข้อมูลส่วนตัว เอกสารงาน หรือข้อมูลขององค์กร
ซึ่งดูเหมือนไม่มีอะไรน่ากังวล แต่ความจริงแล้ว นี่อาจเป็น “จุดเสี่ยง” ที่หลายคนไม่รู้ตัว
มีเทคนิคหนึ่งที่เรียกว่า Prompt Injection คือการแฝงคำสั่งอันตรายไว้ในข้อความธรรมดา
เช่น Prompt สำเร็จรูป หรือคำแนะนำจากอินเทอร์เน็ต ที่ดูเหมือนช่วยให้ AI ทำงานเก่งขึ้น
เมื่อคุณนำมาใช้
AI อาจถูกหลอกให้:
แล้วส่งข้อมูลเหล่านั้นออกไป…โดยที่คุณไม่รู้ตัว
ปัญหานี้ ไม่ได้เกิดจากการโดนแฮกเครื่อง แต่เกิดจาก “ข้อมูลที่คุณใส่เข้าไปเอง”
ทุกครั้งที่คุณใส่ข้อมูลลงใน AI
เท่ากับ คุณกำลังเปิดโอกาสให้ข้อมูลนั้นถูกนำไปประมวลผล และอาจมีความเสี่ยง
AI ไม่ได้อันตราย…
แต่ “วิธีที่เราใช้” อาจทำให้ข้อมูลหลุดได้
ในยุคนี้
ภัยไม่ได้เริ่มจากระบบเสมอไป
แต่อาจเริ่มจาก…
สิ่งที่คุณพิมพ์เข้าไปเอง
----
แหล่งอ้างอิง
ออกแบบและพัฒนาโดย สำนักวิทยบริการและเทคโนโลยีสารสนเทศ มหาวิทยาลัยเทคโนโลยีราชมงคลล้านนา