ผศ.ดร.นพดล กรรณิกา ผู้เชี่ยวชาญด้านความปลอดภัยไซเบอร์ ในฐานะอาจารย์รับเชิญบรรยายพิเศษ หลักสูตรการบริหารการรักษาความสงบเรียบร้อยของสังคมภาครัฐร่วมเอกชน (บรอ.) วิทยาลัยตำรวจ และที่ปรึกษาคณะทำงานเพื่อป้องกันและปราบปรามอาชญากรรม ในส่วนของภาคประชาชน ของสำนักงานตำรวจแห่งชาติ เขียนวิเคราะห์เชิงนโยบาย : ภัยคุกคามจาก AI ต่อความมั่นคงปลอดภัยทางไซเบอร์ของประเทศไทยและประชาชน
บทนำ: AI สองด้านของเหรียญและภัยคุกคามที่มาถึงตัว
บนเส้นทางแห่งความก้าวหน้าทางเทคโนโลยี ปัญญาประดิษฐ์ (AI) ถูกสร้างขึ้นด้วยความหวังที่จะนำพามนุษย์ไปสู่อนาคตที่ชาญฉลาดและปลอดภัยยิ่งขึ้น แต่เช่นเดียวกับทุกเหรียญที่มีสองด้าน AI ก็มี “เงามืด” ที่กำลังคืบคลานเข้าสู่โลกไซเบอร์อย่างเงียบเชียบ ขณะที่ผู้คนส่วนใหญ่หลับใหล อัลกอริทึม AI บางตัวกำลังสร้างอีเมลปลอม เสียงปลอม และใบหน้าปลอม เพื่อหลอกลวงให้ผู้คนต้องสูญเสียจริง ภัยจาก AI ไม่ใช่เรื่องในภาพยนตร์ไซไฟอีกต่อไป แต่เป็นภัยเงียบที่แนบเนียนและเกิดขึ้นจริงแล้วในหน่วยงานความมั่นคงของรัฐ ธนาคาร โรงเรียน บริษัท และแม้แต่ในบ้านของเราเอง
จากประสบการณ์การศึกษาด้าน Data Science, ระเบียบวิธีวิจัยเชิงสำรวจ และ Cybersecurity รวมถึงการจัดการความเสี่ยงจากมหาวิทยาลัยชั้นนำอย่าง University of Michigan และ Georgetown University รวมถึงประสบการณ์ในแวดวงความมั่นคงทั้งในและนอกประเทศ ทำให้ ผศ.ดร.นพดล กรรณิกา เห็นว่าปัญหาใหญ่ไม่ได้อยู่ที่ “AI น่ากลัว” แต่คือ “คนส่วนใหญ่ยังไม่รู้ว่า AI ทำอะไรได้บ้าง…และภัยเหล่านี้มาทางไหนไปทางไหน” ในฐานะที่ปรึกษาคณะทำงานของสำนักงานตำรวจแห่งชาติ ท่านได้เห็นความมุ่งมั่นของตำรวจไทยที่ก้าวสู่ยุคดิจิทัล เพื่อปกป้องประชาชนในสมรภูมิที่เต็มไปด้วยโค้ด ซึ่งตำรวจไม่ได้เพียงแค่เฝ้าถนน แต่ยังเฝ้าประตูไซเบอร์ของประเทศและอุปกรณ์ดิจิทัลในมือของประชาชนด้วย

ข้อเท็จจริง: เมื่อความฉลาดกลายเป็นเครื่องมือของอาชญากร
เมื่อ “ความฉลาด” กลายเป็นเครื่องมือของอาชญากร ความปลอดภัยในโลกดิจิทัลก็สั่นคลอนอย่างไม่เคยเป็นมาก่อน AI ที่พัฒนามาเพื่ออำนวยความสะดวกกำลังถูกพลิกใช้เป็นอาวุธล้ำยุคในการโจมตีที่ซับซ้อนและแนบเนียนยิ่งขึ้น ภัยคุกคามจาก AI ไม่ใช่เรื่องไกลตัวอีกต่อไป เพราะเกิดขึ้นจริงแล้วในประเทศไทย ทั้งในระบบธนาคาร การค้าขายออนไลน์ ไปจนถึงระบบงานภาครัฐที่ยังขาดเกราะป้องกันที่เพียงพอ ลักษณะของภัยคุกคามจาก AI ที่พบได้บ่อยขึ้นและต้องเฝ้าระวังอย่างใกล้ชิดมี 4 รูปแบบหลัก:
- Credential Stuffing และ Brute Force Attacks ด้วย AI: AI ถูกนำมาใช้วิเคราะห์ข้อมูลล็อกอินที่รั่วไหล และสุ่มเดารหัสผ่านเพื่อเจาะเข้าสู่บัญชีผู้ใช้งาน โดยเฉพาะในระบบที่ไม่มี Multi-Factor Authentication (MFA) ที่เข้มแข็ง ยิ่งไปกว่านั้น การพัฒนา ควอนตัมคอมพิวเตอร์ ซึ่งเปรียบเสมือน “กล้อง X-ray” ที่มองทะลุระบบเข้ารหัสเดิมได้ทั้งหมด ยิ่งทำให้ความจำเป็นในการพัฒนาระบบ MFA ที่รองรับโลกหลังควอนตัมเป็นเรื่องเร่งด่วน
- AI-Generated Phishing Emails: แฮกเกอร์ใช้ Generative AI สร้างอีเมลที่มีเนื้อหาสมจริงทั้งในเชิงภาษาศาสตร์และการเลียนแบบรูปแบบธุรกิจ ทำให้ประชาชนตกเป็นเหยื่อได้ง่ายขึ้น โดยเฉพาะกลุ่มเป้าหมายที่ไม่ชำนาญเทคโนโลยี
- Adversarial AI และ Data Poisoning: ภัยคุกคามนี้เกิดจากการจงใจใส่ข้อมูลเท็จหรือบิดเบือน เพื่อทำให้ระบบ AI ที่ใช้ในการตรวจจับภัยหรือวิเคราะห์พฤติกรรมทำงานผิดพลาด เช่น การป้อนข้อมูลเทียมให้ระบบกล้อง AI ไม่สามารถจดจำใบหน้าอาชญากรได้
- AI-Enhanced Reconnaissance และ Deepfake Impersonation: มิจฉาชีพใช้ AI สืบค้นข้อมูลเป้าหมายจากหลายแหล่ง เช่น โซเชียลมีเดีย แล้วสร้างวิดีโอหรือเสียงปลอม (Deepfake) เพื่อแอบอ้างเป็นผู้บริหาร ส่งอีเมลไปยังฝ่ายบัญชีให้โอนเงิน หรือหลอกขอรหัสผ่านผ่านการโทรด้วยเสียงปลอม
ข้อพิจารณา: ความท้าทายของสังคมไทยต่อภัย AI
การนำ AI มาใช้ในอาชญากรรมมีแนวโน้มเติบโตอย่างรวดเร็วและแฝงตัวอยู่ในทุกภาคส่วนของสังคม ไม่ว่าจะเป็นภาครัฐ เอกชน หรือประชาชนทั่วไป ปัญหาหลักคือ “ความเร็วของเทคโนโลยีที่นำหน้ากฎหมายและมาตรการป้องกัน” โดยเฉพาะเมื่อ AI สามารถเรียนรู้ ปรับปรุง และเลี่ยงการตรวจจับได้เองโดยอัตโนมัติ ทำให้ความสามารถเชิงลึกของ AI เปลี่ยนอาชญากรธรรมดาให้กลายเป็นภัยคุกคามระดับสูงได้อย่างรวดเร็ว
ประเทศไทยยังขาดการบูรณาการฐานข้อมูลภัยคุกคามจาก AI อย่างเป็นระบบและมีประสิทธิภาพ และการรับรู้ของประชาชนต่อภัยที่เกิดจากการโจมตีด้วยข้อมูลปลอม หรือ Deepfake ยังอยู่ในระดับต่ำ นอกจากนี้ ระบบรักษาความปลอดภัยในบางหน่วยงานยังไม่รองรับภัยยุค AI อย่างเพียงพอ ซึ่งเสี่ยงต่อการถูกแทรกแซงโดยไม่รู้ตัว

ข้อเสนอแนะเชิงนโยบาย: สร้าง “ตำรวจยุคดิจิทัล” และภูมิคุ้มกันให้สังคม
สิ่งที่น่าพิจารณาคือ สำนักงานตำรวจแห่งชาติในยุค AI และหน่วยงานรัฐที่เกี่ยวข้องจำเป็นต้องแปลงบทบาทจากผู้ควบคุมพื้นที่สาธารณะ ไปสู่การเป็น “ผู้ควบคุมภัยคุกคามในพื้นที่ข้อมูล” โดยมีเครื่องมือคือปัญญาประดิษฐ์ มีพันธมิตรคือประชาชน และมีเป้าหมายคือความมั่นคงของชาติในโลกดิจิทัล การลงทุนในความรู้ การปฏิรูปเชิงโครงสร้าง และการเชื่อมโยงสู่สากล จะเป็นรากฐานสำคัญในการสร้าง “ตำรวจยุคดิจิทัล” ที่ไม่เพียงแต่รักษากฎหมาย แต่ยังสามารถคาดการณ์ ป้องกัน และตอบโต้ภัยคุกคามทางไซเบอร์ได้อย่างทันท่วงที โดยมีข้อเสนอแนะดังนี้:
1.การสืบสวนและบังคับใช้กฎหมายเชิงลึก: พัฒนา “กองบังคับการปราบปรามอาชญากรรมทางเทคโนโลยี” ให้เป็นหน่วยงานที่ใช้ AI อย่างเต็มรูปแบบ เจ้าหน้าที่ควรสามารถวิเคราะห์พฤติกรรมของอาชญากรดิจิทัลด้วยเครื่องมือใหม่ รวมถึงการบูรณาการกับ “ศูนย์ AI Cyber Threat Intelligence” ที่ควรจัดตั้งโดยกระทรวงดิจิทัลฯ เพื่อเข้าถึงข้อมูลภัยคุกคามแบบเรียลไทม์ และเชื่อมโยงฐานข้อมูลผู้กระทำความผิดข้ามพรมแดน
2.การป้องกันและสร้างภูมิคุ้มกันทางไซเบอร์: ในสงครามไซเบอร์ การรับมือเพียงอย่างเดียวไม่เพียงพอ แต่จำเป็นต้อง “สร้างภูมิคุ้มกันเชิงรุก” ให้กับองค์กรตำรวจเอง สำนักงานตำรวจแห่งชาติควรวางรากฐานให้เจ้าหน้าที่ทุกระดับมีความรู้เกี่ยวกับภัยยุคใหม่ รวมถึงการสร้าง “เครือข่ายตำรวจไซเบอร์ภาคประชาชน” หรือ Cyber Police – Community Partnership เพื่อเปิดพื้นที่ให้ประชาชนมีส่วนร่วมในการแจ้งเบาะแสและเรียนรู้ไปพร้อมกับตำรวจ
3.การผลักดันนโยบายและกฎหมายที่เท่าทันเทคโนโลยี: ภัยจาก AI เกิดขึ้นเร็วกว่ากระบวนการตรากฎหมาย กรอบนิติบัญญัติจึงจำเป็นต้องปรับให้สอดรับกับบริบทใหม่ เช่น การร่าง พระราชบัญญัติควบคุม Deepfake สำนักงานตำรวจแห่งชาติควรทำหน้าที่ “ผลักดันนโยบายเชิงรุก” โดยเสนอแนะแก่ฝ่ายนิติบัญญัติอย่างต่อเนื่อง เพื่อให้กฎหมายไทยสามารถยืนหยัดได้ในสนามรบไซเบอร์
4.การสร้างความร่วมมือระหว่างประเทศ: ภัยไซเบอร์ไม่ได้หยุดอยู่ที่พรมแดน การมีตัวแทนจากสำนักงานตำรวจแห่งชาติเข้าร่วมในเวทีสากลจะช่วยให้ประเทศไทยสามารถแลกเปลี่ยนข้อมูลทางเทคโนโลยี แบ่งปันแนวปฏิบัติที่ดีที่สุด และเสริมเขี้ยวเล็บในการติดตามจับกุมผู้กระทำความผิดข้ามชาติ

คำเตือนจากสนามรบดิจิทัล: ภัย AI คือภัยของ “วันนี้”
เพราะภัย AI ไม่ใช่เรื่องของอนาคตที่ไกลตัวอีกต่อไป ในโลกที่ข้อมูลเคลื่อนที่เร็วกว่าแสงและเทคโนโลยีพัฒนาเร็วกว่ากฎหมาย ปัญญาประดิษฐ์ (AI) ได้เปลี่ยนสถานะจาก “เครื่องมือ” สู่ “อาวุธ” อย่างแนบเนียน ด้วยความสามารถในการปลอมเสียง ปลอมภาพ และปลอมตัวตน จนยากที่มนุษย์จะรับรู้ทัน ความท้าทายของสังคมไทยจึงไม่ใช่เพียงการสร้างระบบป้องกันที่แข็งแกร่ง แต่คือการสร้าง “คนที่รู้เท่าทันภัยดิจิทัล”
ประชาชนทั่วไป จำเป็นต้องมี “ภูมิคุ้มกันดิจิทัล” รู้จักตั้งค่า MFA หลีกเลี่ยงการเปิดเผยข้อมูลบนแพลตฟอร์มที่ไม่น่าเชื่อถือ และตั้งข้อสงสัยกับสิ่งที่ดูสมจริงเกินไป เช่น วิดีโอหรือข้อความจากบุคคลใกล้ชิดที่ไม่แน่ใจแหล่งที่มา
นักธุรกิจและผู้บริหารองค์กร ต้องระมัดระวังภัยแฝงในรูปแบบใหม่ เช่น CEO Fraud และ Business Email Compromise ที่ใช้ AI สร้างคำสั่งปลอมมาหลอกให้โอนเงิน พร้อมลงทุนในระบบ Defensive AI และนำนโยบาย “Zero Trust” มาใช้เพื่อสร้างกระบวนการตรวจสอบที่เข้มงวด
เจ้าหน้าที่รัฐและหน่วยงานความมั่นคง ควรเร่งปรับระบบ IT ให้รองรับภัย AI สร้างวัฒนธรรมความตระหนักรู้ในองค์กร และร่วมมือกับสำนักงานตำรวจแห่งชาติในการเฝ้าระวัง วิเคราะห์ และตอบโต้ภัยคุกคาม พร้อมพัฒนาทักษะด้าน Cyber Threat Intelligence และ AI Threat Hunting อย่างต่อเนื่อง
ฝากไว้พิจารณา เพราะโลกไม่ย้อนกลับ ระบบความมั่นคงปลอดภัยต้องก้าวไปข้างหน้า ภัยจาก AI ไม่ใช่เรื่องไกลตัว และไม่ใช่เรื่องของวันพรุ่งนี้ แต่มันคือภัยของ “วันนี้” ที่อาจจะมาถึงก่อนที่เราจะรู้ตัว สิ่งที่สังคมไทยต้องทำ จึงไม่ใช่เพียงการสร้างระบบป้องกันที่แข็งแรง แต่คือการสร้าง “คนที่รู้เท่าทันภัยดิจิทัล” ดังนั้น ความรู้คือวัคซีน และความร่วมมือคือเกราะเหล็ก ที่จะทำให้ประเทศไทยสามารถยืนหยัดอยู่ท่ามกลางกระแสของโลกดิจิทัลที่เปลี่ยนแปลงอย่างไม่หยุดยั้ง
ดังที่ พล.ต.อ.ดำรงศักดิ์ กิตติประภัสร์ อดีต ผบ.ตร. เคยกล่าวไว้ว่า “ความมั่นคงของชาติในวันนี้ ไม่ได้อยู่ในเขตแดนทางภูมิศาสตร์เท่านั้น แต่อยู่ในความปลอดภัยของข้อมูล ความเข้าใจของประชาชน และความเร็วของการปรับตัวของสถาบันรัฐ”