มันเริ่มจากประโยคเดียวตอนกินข้าวเที่ยง
"เฮ้ พวกเรารู้ไหมว่าฟอนต์บนเว็บเรามี หัว?"
ไม่ได้หมายถึงหัวข้อ — หมายถึงตัวอักษรภาษาไทยที่มี "หัว" เล็ก ๆ อยู่ตรงส่วนบนของตัว ก.ไก่ ส.เสือ ม.ม้า
ฟอนต์ที่เราใช้อยู่เป็นฟอนต์ ไม่มีหัว (หัวตัด) ซึ่งดู clean สวยงามในสายตาดีไซเนอร์ แต่คำถามที่ตามมาคือ:
"แล้วคนไทยอ่านฟอนต์ไม่มีหัวได้ เร็ว เท่าฟอนต์มีหัวจริงหรือเปล่า?"
ประโยคนี้เหมือนจุดไม้ขีดไฟตรงกลางโต๊ะอาหาร ทีม Data Scientist ของเราหยิบมาปั้นเป็นสมมติฐานที่ทดสอบได้ภายในบ่ายวันเดียวกัน
สมมติฐานที่ต้องพิสูจน์
ทีมตั้ง hypothesis ไว้ชัดเจน:
H₀ (Null): ฟอนต์ไม่มีผลต่อพฤติกรรมการอ่าน — ผู้ใช้ทั้งสองกลุ่มมีพฤติกรรมไม่แตกต่างกัน
H₁ (Alternative): ฟอนต์ที่มีหัวทำให้ผู้อ่านอ่านได้สบายตากว่า ส่งผลให้อ่านลึกขึ้น อยู่บนหน้านานขึ้น และมี engagement สูงขึ้น
เราเลือกฟอนต์มีหัวที่ออกแบบมาสำหรับการอ่านบนจอเป็นตัวท้าชิง — มีน้ำหนักครบเหมือนฟอนต์เดิม รองรับทั้งภาษาไทยและอังกฤษ เป็นคู่แข่งที่ fair
| คุณสมบัติ | Control (A) | Variant (B) |
|---|---|---|
| หัวตัวอักษร | ไม่มี (หัวตัด) | มี (หัวกลม) |
| ลักษณะ | Geometric, clean | Humanist, อ่านง่าย |
| x-height | ปานกลาง | สูงกว่าเล็กน้อย |
| Glyph width | แคบกว่า | กว้างกว่าเล็กน้อย |
วัดจากพฤติกรรมจริง ไม่ใช่แบบสอบถาม
นี่คือจุดที่ต่างจากบริษัทส่วนใหญ่ — เราไม่ได้สร้างแบบสอบถามแล้วถามคนว่า "ชอบฟอนต์ไหนมากกว่า?" เราวัดจาก พฤติกรรมจริง ของผู้ใช้จริงบนเว็บไซต์จริง
การแบ่งกลุ่มทดลอง
ระบบที่เราสร้างขึ้นทำ 3 สิ่ง:
- สุ่มอัตโนมัติ: ผู้ใช้ทุกคนถูกสุ่มเข้ากลุ่ม A หรือ B ด้วยความน่าจะเป็นเท่ากัน
- จำคนเดิมได้: เมื่อสุ่มแล้วจะจำไว้ — คนเดิมกลับมาอ่านก็เจอฟอนต์เดิม ป้องกัน novelty effect
- ไม่มี flash: ฟอนต์ถูกโหลดตั้งแต่แรก ผู้ใช้ไม่มีทางรู้ว่าตัวเองอยู่ในการทดลอง
สิ่งที่เราวัด
แค่รู้ว่าใครอยู่กลุ่มไหนไม่พอ — ต้องวัดว่า พฤติกรรมต่างกันอย่างไร:
ความลึกของการอ่าน — ผู้ใช้ scroll ลงไปลึกแค่ไหน? ถ้ากลุ่มหนึ่ง scroll ลึกกว่าอีกกลุ่มอย่างชัดเจน แสดงว่าฟอนต์มีผลต่อ engagement
เวลาที่ใช้อ่าน — ผู้ใช้อยู่บนหน้านานแค่ไหน? ถ้ากลุ่มที่ใช้ฟอนต์มีหัวอยู่นานกว่าอย่างมีนัยสำคัญ แสดงว่าฟอนต์ช่วยให้อ่านสบายจนอ่านต่อ
การคลิก CTA — ฟอนต์มีผลต่อ conversion หรือไม่? วัดจากการคลิกปุ่มสำคัญเช่น ติดต่อเรา สมัครงาน หรืออ่านบทความเพิ่ม
ทุกอย่างถูกเก็บเข้าระบบ analytics อัตโนมัติ พร้อมวิเคราะห์แบบ segmented ตามกลุ่มทดลอง
ความเข้มงวดทางสถิติ
เรากำหนดกติกาไว้ก่อนเริ่มทดลอง — ไม่ใช่คิดทีหลัง:
- ขนาดตัวอย่าง: ต้องการอย่างน้อย 1,000 sessions ต่อกลุ่ม (statistical power 80%, significance level 5%)
- ระยะเวลา: รันอย่างน้อย 2 สัปดาห์เต็ม เพื่อครอบคลุมทั้ง weekday และ weekend
- Decision framework: ถ้า p-value < 0.05 และ effect size > 5% ถึงจะตัดสินใจเปลี่ยน
ไม่มีการ "แอบดูผลระหว่างทาง" — เราตั้ง calendar reminder ไว้วันที่จะวิเคราะห์ผล เพื่อป้องกัน peeking bias ซึ่งเป็นกับดักที่ทำให้ A/B test ส่วนใหญ่ได้ผลลัพธ์ผิด
ทำไมเรื่องแบบนี้ถึงสำคัญ
ผู้อ่านบางคนอาจคิดว่า "แค่ฟอนต์เอง จะทำไปทำไมขนาดนี้?"
คำตอบคือ — เราไม่ได้ทำเพราะฟอนต์สำคัญขนาดนั้น เราทำเพราะ culture ของการตั้งคำถามและพิสูจน์ด้วยข้อมูลสำคัญกว่า
ลองนึกภาพ: ถ้าทีมเดียวกันนี้ตั้งสมมติฐานเรื่องฟอนต์บนเว็บบริษัทตัวเอง แล้วออกแบบการทดลองจนถึง statistical significance ได้ภายในบ่ายวันเดียว — ลองนึกว่าทีมนี้จะทำอะไรได้บ้างเมื่อลูกค้ามาบอกว่า "conversion rate ของเราต่ำ ช่วยดูหน่อย"
ทุกโปรเจกต์ที่เราทำให้ลูกค้าใช้วิธีคิดแบบเดียวกัน:
- ตั้งสมมติฐานที่ falsifiable
- ออกแบบ experiment ที่วัดผลได้
- เก็บข้อมูลอย่างเป็นระบบ
- วิเคราะห์ด้วย statistical rigor
- ตัดสินใจจากข้อมูล ไม่ใช่ gut feeling
สิ่งที่ Data Scientist ที่ Enersys ทำทุกวัน
การทดลองฟอนต์เป็นแค่ตัวอย่างเล็ก ๆ ของสิ่งที่ทีมเราทำ ในแต่ละวันเราวิเคราะห์ข้อมูลตั้งแต่ระดับ:
Product Analytics: ผู้ใช้ใช้ feature ไหนมากที่สุด? ตรงไหนที่ drop off? onboarding flow ไหนที่ให้ retention ดีกว่า?
Content Optimization: เนื้อหาแบบไหนที่คนอ่านจบ? CTA แบบไหนที่ convert ดีกว่า? ทุกอย่างมีข้อมูลรองรับ
Infrastructure Insights: Deploy แต่ละครั้งมีผลต่อประสบการณ์ผู้ใช้อย่างไร? ความเร็วเว็บเปลี่ยนแปลงไปทิศทางไหน?
Business Intelligence: Lead จาก channel ไหนมี conversion rate สูงที่สุด? แคมเปญไหนมีต้นทุนต่ำที่สุด? เนื้อหาหัวข้อไหนดึง qualified leads ได้ดีที่สุด?
ผลกระทบต่อ Business
"แล้วมัน impact business ยังไง?" — คำถามที่ดีที่สุดที่ผู้บริหารควรถาม
ระยะสั้น: ถ้าฟอนต์มีหัวทำให้คนอ่านนานขึ้น 20% → คนเห็น CTA มากขึ้น → lead generation เพิ่มขึ้นโดยไม่ต้องเพิ่มงบ ads สักบาท
ระยะยาว: Culture ของการ experiment สร้างทีมที่ไม่เคยหยุดปรับปรุง ทุกสัปดาห์มี hypothesis ใหม่ ทุกเดือนมี insight ใหม่ ทุกไตรมาสมี data-backed decisions ที่ทำให้ product ดีขึ้น
สิ่งที่ลูกค้าได้: เมื่อลูกค้าจ้าง Enersys ลูกค้าไม่ได้แค่ได้ "ทีมที่เขียนโค้ดเก่ง" — ลูกค้าได้ทีมที่ คิดเป็นระบบ วัดผลเป็น และไม่เคยตัดสินใจจาก gut feeling ทีมที่ทำ A/B test กับฟอนต์บนเว็บบริษัทตัวเอง จะทำ A/B test กับ conversion funnel ของลูกค้าอย่างจริงจังแค่ไหน — คำตอบอยู่ในบทความนี้แล้ว
อยากให้ทีมของคุณตัดสินใจจากข้อมูลแบบนี้บ้าง?
ถ้าคุณอ่านมาถึงตรงนี้แล้วคิดว่า "ทีมเราก็ควรทำแบบนี้" — เรายินดีช่วย
ไม่ว่าจะเป็นการวาง analytics infrastructure, ออกแบบ A/B test framework, หรือสร้าง data-driven culture ให้ทีมของคุณ เราทำมาแล้วกับบริษัทของเราเอง และพร้อมทำให้ลูกค้า