Skip to main content
News

สคส. ออกร่างแนวปฏิบัติคุ้มครองข้อมูลส่วนบุคคลสำหรับ AI — องค์กรที่ใช้ AI ต้องปรับตัวอย่างไร

สคส. เปิดร่างแนวปฏิบัติคุ้มครองข้อมูลส่วนบุคคลสำหรับ AI ฉบับแรกของไทย กำหนดให้องค์กรที่ใช้ AI เป็น Data Controller และต้องจัดการข้อมูลตาม PDPA อย่างเข้มงวด

3 Mar 20265 minMondaq
PDPAAI Governanceสคส.Data Protection

PDPA กับ AI — เริ่มเชื่อมกันอย่างเป็นทางการแล้ว

เดือนกุมภาพันธ์ 2026 สำนักงานคณะกรรมการคุ้มครองข้อมูลส่วนบุคคล (สคส.) ปล่อย ร่างแนวปฏิบัติการคุ้มครองข้อมูลส่วนบุคคลสำหรับการพัฒนาและการใช้งานปัญญาประดิษฐ์ ออกมาให้ภาคส่วนต่างๆ แสดงความคิดเห็น

ฟังดูเหมือนเรื่องทางเทคนิค แต่จริงๆ แล้วมันส่งผลกระทบโดยตรงกับ ทุกองค์กรที่ใช้ AI อยู่ในปัจจุบัน ไม่ว่าจะเป็น chatbot ใน customer service ระบบวิเคราะห์ข้อมูลลูกค้า หรือแม้แต่ HR tool ที่ใช้ AI คัดกรองใบสมัคร

ประเด็นหลักที่ต้องทำความเข้าใจ

1. องค์กรที่ deploy AI คือ Data Controller

ร่างแนวปฏิบัตินี้กำหนดชัดเจนว่า องค์กรที่นำ AI มาใช้งานกับข้อมูลส่วนบุคคล มีสถานะเป็นผู้ควบคุมข้อมูลส่วนบุคคล ซึ่งหมายความว่ามีความรับผิดชอบครบตามที่ PDPA กำหนด ทั้งเรื่อง consent, data minimization และ transparency

ไม่ใช่แค่บริษัท tech ที่สร้าง AI — แต่รวมถึงทุกองค์กรที่นำ AI ไปประยุกต์ใช้

2. Vendor ที่นำข้อมูลไปฝึก AI อาจถูกจัดเป็น Data Controller

ประเด็นนี้สำคัญมากสำหรับองค์กรที่ใช้บริการ AI จากภายนอก — ถ้า vendor นำข้อมูลลูกค้าของคุณไปใช้ในการ train โมเดลโดยที่คุณไม่ได้ตกลงกันชัดเจน vendor รายนั้นอาจถูกจัดสถานะใหม่เป็น Data Controller ซึ่งเป็นเรื่องที่ต้องตรวจสอบใน contract ทันที

3. สิ่งที่แนวปฏิบัติครอบคลุม

ร่างนี้ให้ความสำคัญกับ 4 เรื่องหลัก:

  1. Consent — ต้องได้รับความยินยอมที่ชัดเจนก่อนนำข้อมูลไปใช้ใน AI ไม่ใช่แค่เงื่อนไขทั่วไปในข้อตกลง
  2. Data Minimization — AI ต้องใช้ข้อมูลเท่าที่จำเป็นจริงๆ ไม่ใช่ดูดข้อมูลทุกอย่างที่มีไปประมวลผล
  3. Transparency — ผู้ใช้ต้องรู้ว่า AI ตัดสินใจอะไร อย่างไร บนพื้นฐานอะไร
  4. Data Subject Rights — สิทธิของเจ้าของข้อมูลในการปฏิเสธ แก้ไข หรือลบข้อมูลที่ใช้ใน AI ยังคงอยู่ครบ

ยังไม่บังคับใช้ แต่ส่งสัญญาณชัด

ร่างนี้ยังไม่มีผลบังคับใช้ทางกฎหมาย แต่ ทิศทางการบังคับใช้ในอนาคตชัดเจนมาก สคส. กำลังสร้าง framework ที่จะใช้ตรวจสอบองค์กรว่า AI ที่ใช้อยู่นั้น compliant กับ PDPA หรือไม่

ที่ต้องระวังคือ การที่ Eagle Eye Crawler ของ สคส. ตรวจจับแบบ proactive อยู่แล้ว ทำให้แนวปฏิบัติเหล่านี้อาจถูกนำมาใช้เป็นหลักเกณฑ์ประเมินได้ก่อนที่จะมีการประกาศอย่างเป็นทางการ

องค์กรต้องทำอะไรตอนนี้?

ถ้าองค์กรของคุณมี AI อยู่ในกระบวนการทำงาน ไม่ว่าจะน้อยหรือมาก ควรเริ่มจาก:

  • ทำ AI Data Flow Audit — ข้อมูลส่วนบุคคลไหลผ่าน AI ตรงไหนบ้าง เข้า output อะไร
  • ตรวจสอบ Consent Coverage — consent ที่เก็บอยู่ครอบคลุมการใช้งาน AI หรือเปล่า
  • ทบทวน Vendor Contract — AI vendor ที่ใช้อยู่มีข้อกำหนดห้ามนำข้อมูลไป train โมเดลชัดเจนไหม
  • เตรียม Transparency Notice — มีคำอธิบายให้ผู้ใช้หรือลูกค้าว่า AI ทำงานอย่างไรกับข้อมูลของเขาหรือเปล่า

PrivacyHub ของ Enersys ช่วยจัดการ consent lifecycle ตั้งแต่ต้น ทำ data inventory ที่ระบุได้ว่าข้อมูลไหนเข้า AI ไหน และสร้าง audit trail ที่แสดงให้ สคส. เห็นได้ว่าองค์กรจัดการข้อมูลอย่างรับผิดชอบ — ทั้งก่อนและหลังแนวปฏิบัตินี้มีผลบังคับใช้จริง


แหล่งอ้างอิง: Mondaq | IAPP | สำนักงานคณะกรรมการคุ้มครองข้อมูลส่วนบุคคล

Related Articles

ปล้น $1.5 พันล้าน ใน 1 วัน — Bybit Heist กับวิกฤต Cybersecurity ที่ไทยต้องตื่น

เกาหลีเหนือขโมย Ethereum มูลค่า $1.5B จาก Bybit ด้วย Supply Chain Attack สุดซับซ้อน ขณะที่ไทยโดนโจมตีไซเบอร์พุ่ง 125% ใน 1 ปี เฉลี่ยวันละ 28,000 ครั้ง — บทเรียนที่ทุกองค์กรต้องอ่าน

คลื่นกฎหมาย AI ถล่มเอเชีย 2026 — เวียดนาม เกาหลีใต้ จีน และ ASEAN เดินหน้าเต็มสูบ

เวียดนามเป็นชาติแรกในอาเซียนที่บังคับใช้กฎหมาย AI (มี.ค. 2026) เกาหลีใต้ตามติดด้วย AI Basic Act (ม.ค. 2026) จีนออกมาตรฐาน AI/Data กว่า 30 ฉบับ ขณะที่ไทยเปิดรับฟังความคิดเห็นแนวปฏิบัติ AI

เศรษฐกิจดิจิทัลไทย 2026 — ตัวเลขจริง นโยบายจริง โอกาสจริง

Digital GMV ไทยทะลุ $56B, PromptPay ประมวลผล 74 ล้านรายการ/วัน, ธุรกิจไทย 150,000 รายใช้ AI แล้ว — สรุปทุกตัวเลขสำคัญและโอกาสที่ผู้บริหารต้องรู้ก่อนคู่แข่ง

"Empowering Innovation,
Transforming Futures."

Contact us to make your project a reality.