EU AI Act + กฎหมาย AI ทั่วโลก — ธุรกิจไทยต้องรู้อะไรบ้างในปี 2026
ถ้าคุณเป็นผู้บริหารธุรกิจไทยที่กำลังนำ AI มาใช้งาน — ไม่ว่าจะเป็น chatbot, ระบบคัดกรองใบสมัครงาน, AI ในระบบ ERP หรือแม้แต่เครื่องมือ generative AI ที่ทีมใช้ทุกวัน — ปี 2026 คือปีที่คุณต้องหยุดมองว่า "กฎหมาย AI" เป็นเรื่องไกลตัว
เพราะกฎหมายที่ใหญ่ที่สุดในโลกด้าน AI กำลังจะบังคับใช้เต็มรูปแบบ และผลกระทบไม่ได้จำกัดอยู่แค่ในยุโรป
EU AI Act — กฎหมาย AI ฉบับแรกของโลกที่ครอบคลุมที่สุด
EU AI Act ถูกลงนามอย่างเป็นทางการในเดือนสิงหาคม 2024 และเป็นกฎหมายฉบับแรกของโลกที่กำหนดกรอบควบคุม AI อย่างครบวงจร ตั้งแต่การพัฒนา การนำไปใช้ จนถึงการกำกับดูแล
หัวใจสำคัญของกฎหมายนี้คือ แนวทางตามระดับความเสี่ยง (Risk-Based Approach) ซึ่งหมายความว่า AI ที่มีความเสี่ยงสูงจะถูกควบคุมเข้มงวดกว่า AI ที่มีความเสี่ยงต่ำ
Timeline บังคับใช้ — ขยับเข้ามาเรื่อยๆ
กฎหมายนี้ไม่ได้บังคับใช้ทีเดียวพร้อมกัน แต่ทยอยมีผลเป็นระลอก:
กุมภาพันธ์ 2025 — ห้ามใช้ AI ที่เป็นภัยต่อสังคม
AI ที่ถูกจัดให้อยู่ในระดับ "ความเสี่ยงที่ยอมรับไม่ได้" ถูก ห้ามใช้โดยสิ้นเชิง ตั้งแต่วันที่ 2 กุมภาพันธ์ 2025 รวมถึงข้อกำหนดด้าน AI Literacy ที่ผู้พัฒนาและผู้ใช้งานต้องปฏิบัติตาม
สิงหาคม 2025 — GPAI ต้องปฏิบัติตาม
ตั้งแต่วันที่ 2 สิงหาคม 2025 ผู้ให้บริการ General-Purpose AI Models (GPAI) ที่เปิดตัวหลังวันนี้ต้องปฏิบัติตามข้อกำหนด ซึ่งรวมถึงโมเดล AI ขนาดใหญ่อย่าง GPT, Claude, Gemini และโมเดลที่ถูกจัดว่ามีความเสี่ยงเชิงระบบ (Systemic Risk) ต้องแจ้ง AI Office ของสหภาพยุโรป
สิงหาคม 2026 — บังคับใช้เต็มรูปแบบ
นี่คือ deadline สำคัญ — วันที่ 2 สิงหาคม 2026 ข้อกำหนดสำหรับ AI ความเสี่ยงสูง จะมีผลบังคับใช้เต็มที่ พร้อมกับอำนาจบังคับใช้ของ European Commission รวมถึงบทลงโทษปรับ
สิงหาคม 2027 — Deadline สำหรับ GPAI รุ่นเก่า
GPAI models ที่เปิดตัวก่อนเดือนสิงหาคม 2025 ต้องปรับให้เข้ากับข้อกำหนดภายในวันที่ 2 สิงหาคม 2027
ระบบจำแนกความเสี่ยง 4 ระดับ — หัวใจของ EU AI Act
EU AI Act แบ่ง AI ออกเป็น 4 ระดับความเสี่ยง ซึ่งกำหนดว่าแต่ละระบบจะถูกกำกับดูแลอย่างไร:
ระดับ 1: ความเสี่ยงที่ยอมรับไม่ได้ (Unacceptable Risk) — ห้ามใช้
AI ที่ขัดกับค่านิยมพื้นฐานของสหภาพยุโรป ถูก ห้ามใช้โดยสิ้นเชิง ได้แก่:
- ระบบ Social Scoring ให้คะแนนพฤติกรรมพลเมือง
- AI ที่ใช้เทคนิค Subliminal หรือ Manipulative เพื่อบิดเบือนพฤติกรรม
- ระบบจดจำใบหน้าแบบ Real-time ในที่สาธารณะ (ยกเว้นกรณีเฉพาะด้านความมั่นคง)
- Predictive Policing ที่ใช้ AI ทำนายอาชญากรรมจากข้อมูลส่วนบุคคล
ระดับ 2: ความเสี่ยงสูง (High Risk) — ต้องปฏิบัติตามข้อกำหนดเข้มงวด
AI ที่ใช้ในด้านที่ส่งผลกระทบสำคัญต่อชีวิตคน ต้องผ่านการประเมินก่อนนำไปใช้ ได้แก่:
- โครงสร้างพื้นฐานที่สำคัญ — ระบบจัดการพลังงาน การจราจร น้ำประปา
- การศึกษาและฝึกอบรม — AI ตัดสินผลการเรียน คัดกรองนักศึกษา
- การจ้างงาน — AI คัดกรอง resume, ประเมินผลงาน, ตัดสินเลิกจ้าง
- บริการทางการเงิน — AI ประเมินสินเชื่อ, ตรวจจับการฉ้อโกง
- กระบวนการยุติธรรม — AI ช่วยตัดสินคดี ประเมินความเสี่ยงผู้ต้องหา
ข้อกำหนดสำหรับ AI ความเสี่ยงสูง ครอบคลุม: การประเมินความเสี่ยง, คุณภาพข้อมูล, เอกสารทางเทคนิค, ความโปร่งใส, การกำกับดูแลโดยมนุษย์, และความแม่นยำ
ระดับ 3: ความเสี่ยงจำกัด (Limited Risk) — ต้องเปิดเผยข้อมูล
AI ที่มีปฏิสัมพันธ์กับผู้ใช้ ต้องแจ้งให้ทราบว่ากำลังใช้งาน AI เช่น:
- Chatbot ต้องแจ้งว่าผู้ใช้กำลังคุยกับ AI
- เนื้อหาที่สร้างด้วย AI (เช่น Deepfake) ต้องติดป้ายกำกับ
- ระบบ AI ที่ตัดสินใจแทนคนต้องอธิบายได้
ระดับ 4: ความเสี่ยงต่ำ (Minimal Risk) — ไม่มีข้อจำกัดเพิ่มเติม
AI ส่วนใหญ่ที่ใช้ในชีวิตประจำวันอยู่ในระดับนี้ เช่น spam filter, AI ในเกม, ระบบแนะนำสินค้า ไม่มีข้อกำหนดเพิ่มเติมจากกฎหมาย
ธุรกิจไทยได้รับผลกระทบอย่างไร?
"เราไม่ได้อยู่ในยุโรป ทำไมต้องสนใจ?" — นี่คือคำถามที่เราได้ยินบ่อย แต่คำตอบชัดเจน:
Extraterritorial Effect
เหมือนกับ GDPR ก่อนหน้านี้ EU AI Act มีผลบังคับใช้ นอกเขตสหภาพยุโรป ในสถานการณ์เหล่านี้:
- ธุรกิจไทยที่ให้บริการลูกค้าในยุโรป — ถ้าคุณใช้ AI ในผลิตภัณฑ์หรือบริการที่ขายให้ลูกค้า EU คุณต้องปฏิบัติตาม
- ธุรกิจไทยที่ใช้ output จาก AI ในยุโรป — ถ้าผลลัพธ์จาก AI ถูกนำไปใช้ในประเทศ EU คุณก็อยู่ภายใต้กฎหมายนี้
- ธุรกิจไทยที่เป็น supply chain ของบริษัทยุโรป — ถ้าลูกค้ายุโรปของคุณต้องปฏิบัติตาม EU AI Act พวกเขาจะกำหนดให้ suppliers ทั้ง chain ต้องปฏิบัติตามด้วย
AI ใน ERP และระบบธุรกิจ
จุดที่หลายองค์กรมองข้ามคือ AI ที่ฝังอยู่ในระบบ ERP และซอฟต์แวร์ธุรกิจ:
- AI ในระบบจัดการทรัพยากรบุคคล — การคัดกรอง resume ด้วย AI อาจถูกจัดเป็น High Risk
- AI ในระบบสินเชื่อ — Credit scoring ด้วย AI ต้องผ่านการตรวจสอบ bias
- AI ในระบบ supply chain — Demand forecasting ที่ส่งผลต่อการจ้างงานหรือโครงสร้างพื้นฐาน อาจเข้าข่าย High Risk
- Chatbot ที่ใช้บริการลูกค้า — ต้องเปิดเผยว่าเป็น AI ตามข้อกำหนด Limited Risk
การเลือกระบบ ERP ที่มี AI compliance built-in จึงเป็นเรื่องสำคัญมากในปี 2026 เป็นต้นไป
กฎหมาย AI ทั่วโลก — ไม่ใช่แค่ EU ที่ขยับ
สหรัฐอเมริกา — แนวทาง Pro-Innovation
สหรัฐอเมริกาเลือกแนวทางที่แตกต่างจาก EU อย่างชัดเจน:
- มกราคม 2025 — Executive Order 14179 ยกเลิก Executive Order ปี 2023 ที่เน้นความปลอดภัยของ AI โดยเปลี่ยนนโยบายเป็นการส่งเสริมนวัตกรรมและความเป็นผู้นำของสหรัฐฯ
- ธันวาคม 2025 — Executive Order ใหม่ท้าทายกฎหมาย AI ระดับ State ที่อาจขัดขวางนวัตกรรม โดยสั่งให้ Attorney General จัดตั้ง AI Litigation Task Force
- แนวทางของสหรัฐฯ เน้น self-regulation มากกว่าการออกกฎหมายบังคับ
แม้จะดูเหมือนผ่อนคลาย แต่ธุรกิจที่ต้องการเข้าถึงตลาดทั้ง US และ EU จะต้องปฏิบัติตามมาตรฐานที่เข้มงวดกว่า — ซึ่งก็คือ EU AI Act
จีน — ควบคุมเข้มแต่มุ่งใช้งาน
จีนใช้แนวทางที่เป็นเอกลักษณ์ — ควบคุมเข้มงวดแต่มุ่งเน้นการนำ AI ไปใช้ในวงกว้าง:
- สิงหาคม 2025 — State Council ออก AI Plus Action Plan กำหนดเป้าหมาย AI penetration 70% ในภาคสำคัญภายในปี 2027 และ 90% ภายในปี 2030
- ตุลาคม 2025 — แก้ไข Cybersecurity Law เพิ่มบทบัญญัติเรื่อง AI เป็นครั้งแรกในกฎหมายระดับชาติ มีผลบังคับใช้ 1 มกราคม 2026
- จีนมุ่งสู่ เศรษฐกิจที่ขับเคลื่อนด้วย AI อย่างเต็มรูปแบบ ภายในปี 2035