การนำ BI มาใช้ในภาคการผลิต (Manufacturing) ส่วนงานควบคุมคุณภาพ (Quality Control)

ผู้เขียน

–Yongyuth Likitpattanakul, CPIM–

Article | บทความ-Tableau
BI | Control Chart | Cpk | Manufacturing | QC | Quality Control | Tableau | Yield

บทนำ

          ผู้เขียนได้มีโอกาสเป็นที่ปรึกษา (Consultant) ให้กับบริษัทแห่งหนึ่ง โดยไปช่วยเกี่ยวกับการทำ Analytics ด้านการควบคุมคุณภาพ (Quality Control) ผู้เขียนพบว่าในปัจจุบันเราสามารถใช้ BI Tools มาเป็นเครื่องมือในทำ Analytics เพื่อแสดงข้อมูลด้าน Quality ได้ โดยแสดงเป็น Visualization ที่เข้าใจและเข้าถึงได้ง่ายสำหรับทุกคนในองค์กร และสามารถแสดงข้อมูลในเวลาใกล้เคียง Real Time อีกด้วย

          บทความนี้จะแนะนำการนำโปรแกรม Business Intelligence หรือ BI มาประยุกต์กับการควบคุมคุณภาพ (Quality Control) โดยจะแนะนำตั้งแต่การเตรียมข้อมูลจนถึงการสร้าง Visualization แบบต่าง ๆ ที่เหมาะสมกับงานด้าน Quality Control ผู้เขียนใช้โปรแกรม Tableau เป็นเครื่องมือในการทำ BI

Quality คืออะไร?

          Quality หรือ คุณภาพ ในภาษาไทยนั้น เป็นคำสามัญที่ทุกคนคุ้นเคยกันดี แต่การนิยามความหมายของคำ ๆ นี้กลับไม่ง่ายนัก คำว่าคุณภาพมีนิยามหลายแบบมาก ดร.พิสุทธ์ พงศ์ชัยฤกษ[1] ได้เขียบทความเพื่ออธิบายความหมายของ Quality ตามนิยามของ David A. Garvin (1987)[2] ซึ่งแบ่งออกเป็น 8 มิติ (Dimensions) ดังนี้

  1. คุณภาพในแง่ของประสิทธิภาพ การทำงาน (performance)
  2. คุณภาพในแง่ของความน่าเชื่อถือ (reliability)
  3. คุณภาพในแง่ของความทนทาน (duration)
  4. คุณภาพในแง่ของการให้บริการ (serviceability)
  5. คุณภาพในแง่ของความสวยงาม ดึงดูดใจ (aesthetics)
  6. คุณภาพในแง่ของคุณสมบัติ พิเศษ (features)
  7. คุณภาพในแง่ชื่อเสียงของผู้ให้ บริการ (perceived quality)
  8. คุณภาพในแง่ของการผลิตที่ตรงตามมาตรฐาน (conformance to standards)

ในฐานะผู้บริโภค เราก็ต้องการที่จะซื้อสินค้าและ/หรือบริการที่มีคุณภาพ ถ้าคาดหวังว่าหากมีการซื้อซ้ำเราก็จะได้รับสินค้าที่มีคุณภาพเช่นเดิม ส่วนในฐานะของผู้ผลิตหรือผู้ให้บริการ ก็คงต้องการที่จะให้องค์กรสามารถผลิตสินค้าและบริการที่มีคุณภาพเป็นที่ยอมรับของผู้บริโภค มีชื่อเสียงจนผู้คนยอมรับ และยังต้องรักษาคุณภาพไว้ให้ได้มาตรฐานอีกด้วย ไม่ใช่ว่าผลิตสินค้าครั้งนี้ได้คุณภาพดี แต่ครั้งหน้าคุณภาพไม่ดี ซึ่งถ้าเป็นแบบนี้ก็อาจจะเสียลูกค้าและลูกค้าไม่กลับมาซื้อซ้ำอีกเลย การที่จะทำให้องค์กรสามารถผลิตสินค้าและบริการที่มีคุณภาพได้ตลอดก็ต้องมีการควบคุมคุณภาพ (Quality Control) ที่ดีนั่นเอง

Quality Control ในภาคการผลิต

ในบทความนี้จะโฟกัสไปที่ มิติของคุณภาพในหัวข้อที่ 8 คุณภาพในแง่ของการผลิตที่ตรงตามมาตรฐาน (conformance to standard) เพราะเป็นมิติที่เกี่ยวข้องกับการผลิตสินค้า (Product) ในกระบวนการผลิต (Manufacturing Process) โดยเราจะมีตัวชี้วัดเป็นตัวเลขหรือค่าที่วัดได้ ซึ่งเราต้อง Control ให้เป็นไปตาม Specification

โดยปกติแล้วการออกแบบสินค้า (Product Design) จะมีการกำหนดเป็นข้อกำหนดของผลิตภัณฑ์ (Product Specifications)  เอาไว้ ประกอบด้วยค่าพารามิเตอร์ที่สำคัญ 3 ค่า ได้แก่ 1)ค่าเป้าหมาย (Target) หรือค่ากลาง (Center) แต่การออกแบบก็ยินยอมให้มีการเบี่ยงเบนได้ระดับหนึ่งเรียกว่าค่า Tolerance ซึ่งจะเป็นช่วง (Band) ซึ่งถูกกำหนดโดย 2)ข้อกำหนดขั้นต่ำ (lower specification limit, LSL) และ 3)ข้อกำหนดขั้นสูง (upper specification limit, USL)

          จากรูปด้านบนเรียกว่า Production process 1 มีค่า Target = 1.40 ค่า LSL=1.35 และ USL=1.45 ส่วนพื้นที่แรเงามีลักษณะเหมือนระฆังคว่ำเพราะมีสมมุติฐานว่าตัวอย่างมีการแจกแจงแบบปกติ (Normal Distribution) พื้นที่แรเงาสีเข้มคือตัวอย่างที่ถือว่าผ่านเกณฑ์ เพราะอยู่ภายในช่วงระหว่าง LSL และ USL ส่วนพื้นที่แรเงาสีจางถือว่าไม่ผ่านเกณฑ์ (โดยอาจไม่ผ่านเกณฑ์ทั้ง 2 ด้าน คือซ้ายสุด และขวาสุด) เพราะตกอยู่นอกเกณฑ์ระหว่าง LSL และ USL นั่นเอง ในการผลิตเราพยายามผลิตสินค้าให้อยู่ภายในเกณฑ์ เพราะถือว่าสินค้าที่มีคุณภาพ แต่ถ้าสินค้าไม่ผ่านเกณฑ์ก็จะเป็น Defect ซึ่งอาจจะถูกนำไป Rework, นำไปทำลาย หรือนำไปจำหน่ายเป็นสินค้าเกรด B เป็นต้น ซึ่งนำมาซึ่งการเพิ่มต้นทุนกับองค์กร

          คราวนี้เราลองมาดูตัวอย่างอีกรูปนึงครับ โดยใช้ข้อมูลข้อกำหนดของผลิตภัณฑ์ (Product Specifications) เดียวกัน แต่การกระจายตัวของตัวอย่างไม่เหมือนกันดังรูป

          รูปด้านบนเรียกว่า Production process 2 สังเกตว่าพื้นที่แรเงาทั้งหมด ตกอยู่ในช่วง LSL ถึง USL ดังนั้นกรณีนี้จึงไม่มีสินค้า Defect ที่ไม่ผ่านเกณฑ์เลยแม้แต่ชิ้นเดียว ซึ่งฟังดูดี แต่ว่าการกระจายตัวไม่ใกล้เคียงค่า Target คือมีการเลื่อน (Shift) ไปทางซ้ายมือของ Target

          มีคำถามที่น่าสนใจคือ ท่านคิดว่า Production process 1 หรือ Production process 2 อันไหนดีกว่ากัน?

          ในอดีตดั้งเดิม (Traditional) เราอาจจะคิดว่าแบบ Production process 2 ดีกว่า เพราะไม่เกิดสินค้า Defect เลย แต่นักสถิติเช่น Genichi Taguchi[3] ซึ่งท่านเป็นผู้เชี่ยวชาญด้านสถิติและการควบคุมคุณภาพกลับเห็นว่าบางที Production process 1 อาจจะดีกว่าเพราะว่าการกระจายตัวนั้นอยู่ใกล้ (รอบ ๆ) ค่าเป้าหมาย (Target) ถึงแม้จะมี Defect บ้างก็ตาม สังเกตว่ากรณี Production process 2 นั้น เราเพิกเฉยไม่สนใจต่อการเบี่ยงเบนหรือความแปรปรวนเลย Montgomery[4] (2009) กล่าวไว้ว่า คุณภาพ คือ ส่วนกลับของความแปรปรวน (inversely proportional to variability) นั่นหมายความว่า ถ้าความ แปรปรวนในกระบวนการผลิตสินค้าลดลง เราจะได้คุณภาพของสินค้าสูงขึ้น

          ย่อหน้าก่อนหน้านั้นเราสามารถสรุปได้ว่า เราควรสนใจทั้ง Defect และ ความแปรปรวน ในการควบคุมคุณภาพ ถ้าหากเราจะคำนวณค่า KPI ที่ใช้เป็นตัวชี้วัดนั้น KPI ที่วัดจำนวนสินค้าที่ Defect นั้นเป็น KPI ที่เข้าใจง่าย คำนวณง่าย ส่วน KPI ที่ใช้วัดเกี่ยวกับความแปรปรวนนั้น เป็น KPI ที่อาศัยทฤษฎีทางสถิติซึ่งคำนวณและเข้าใจยากขึ้นมาอีกหน่อย ด้วยความเข้าใจขั้นต้นนี้จะนำไปสู่การออกแบบกราฟหรือ Visualization ซึ่งจะขออธิบายในหัวข้อ ต่อ ๆ ไป

ความท้ายทายทางด้าน Quality Control ในยุคปัจจุบัน      

  1. แรงขับดันเพื่อมุ่งสู่ความเป็นเลิศด้านคุณภาพ  

องค์กรที่มีสินค้าที่มียี่ห้อ (Brand) เป็นของตัวเอง ก็คงต้องการจะผลิตสินค้าที่มีคุณภาพเป็นเลิศเพื่อความสามารถทางการแข่งขัน ดังนั้นจึงต้องพยายามรักษาและเพิ่มคุณภาพให้ได้เพื่อรักษาลูกค้า

สำหรับองค์กรที่เป็นผู้รับจ้างผลิต (Supplier) ให้กับองค์กรระดับโลกที่มีแบรนด์สินค้าที่มีชื่อเสียง มีสินค้าที่จำหน่ายทั่วโลก ดังนั้นสินค้าของบริษัทเหล่านั้นก็ย่อมจะเป็นสินค้าที่มีคุณภาพสูงตามไปด้วย ด้วยแนวคิดเรื่อง Supply Chain ทำให้เราทราบว่า คุณภาพที่ดีต้องเกิดจากคุณภาพตลอดสายของโซ่อุปทาน คือตั้งแต่ต้นน้ำจนถึงปลายน้ำ บริษัทในไทยที่เป็นส่วนหนึ่งใน Supply Chain ซึ่งอาจจะทำการผลิตชิ้นส่วนอันเป็นส่วนประกอบในสินค้านั้น ๆ ก็ได้รับผลกระทบนี้ด้วยคือ ลูกค้าต้องการให้เรามีการควบคุมคุณภาพที่ดียิ่งขึ้น ถ้าหากองค์กรไม่สามารถตอบสนอง บริษัทเหล่านั้นก็อาจจะเลือก Supplier รายใหม่ที่ไม่ใช่เราได้

  1. แรงขับดันอันเกี่ยวกับข้อมูล (Data)

ยุคปัจจุบันนั้นเราได้ข้อมูลง่ายกว่าและมากกว่า ยุคอดีตอย่างมากมาย เพราะเทคโนโลยีทางด้าน Image Processing ที่สามารถแปลงรูปถ่ายเป็นข้อมูล เทคโนโลยีด้าน Censor และ IoT ที่ข้อมูลส่งผ่าน Internet มาได้อย่างอัตโนมัติ และเทคโนโลยี Big Data ที่สามารถเก็บข้อมูลขนาดใหญ่ได้ เทคโนโลยีเหล่านี้ส่งเสริมซึ่งกันและกัน ทำให้เรามีข้อมูลเกี่ยวกับการตรวจสอบคุณภาพสินค้า เรียกได้ว่าแทบจะทุกชิ้นที่ผลิตเลยทีเดียว ถือว่าเป็น 100% Inspection ได้เลย ซึ่งแตกต่างจากอดีตที่เราไม่มีทรัพยากรและเทคโนโลยีที่จะทำได้ ทำให้เราต้องใช้วิธีการสุ่มตัวอย่าง (Sampling) เท่านั้น ในเมื่อข้อมูลมากองอยู่ตรงหน้าเราแล้ว การนำข้อมูลเหล่านั้นมาวิเคราะห์ต่อให้เกิดประโยชน์จึงเป็นสิ่งที่ควรทำ

  1. แรงขับดันอันเกี่ยวกับเวลา (Time)        

เราต้องการข้อมูล หรือ Information ที่สามารถนำไปสู่การตัดสินใจได้โดยเร็ว เข้าใกล้ Real time นี่เป็นสิ่งสำคัญที่ยุคสมัยปัจจุบันนี้ต้องการ ในงานด้านการควบคุมคุณภาพ แผนก QC หรือ QA ที่มีหน้าที่โดยตรงเกี่ยวกับคุณภาพนั้น ต่างก็ต้องการเครื่องมือที่นำข้อมูลการตรวจสอบคุณภาพมาวิเคราะห์ และสร้าง Visualization เพื่อใช้ในการตัดสินใจ นำไปสู่การ Take Action ที่ถูกต้องเหมาะสม และทันเวลาได้ ประเด็นสำคัญคือทำอย่างไรให้สามารถทำงานเหล่านี้ได้ง่าย ใช้เวลาสั้น และถ้าสามารถทำให้คอมพิวเตอร์วิเคราะห์ข้อมูลให้โดยอัตโนมัติก็คงจะดี

ในอดีตการวิเคราะห์ข้อมูลทางด้านคุณภาพ อาจจะทำบนซอฟต์แวร์สถิติเฉพาะทาง ซึ่งมีความสามารถในการวิเคราะห์ข้อมูลเชิงลึกที่หลากหลาย แต่ว่าการใช้ซอฟต์แวร์เหล่านั้นก็อาจจำเป็นต้องผ่านกระบวนการเตรียมข้อมูลเพื่อเป็น Input ให้กับซอฟต์แวร์ใน Format ที่กำหนด และเมื่อซอฟต์แวร์ประมวลผลเสร็จแล้วก็อาจจะต้องนำผลลัพธ์มาทำเป็น Presentation อีก กระบวนการเหล่านี้เป็นกระบวนการแบบ Manual ซึ่งกินเวลาพอสมควร

ลองนึกดูว่าตอนนี้เรามีข้อมูลมากขึ้น เราก็ย่อมต้องการจะนำข้อมูลเหล่านั้นมาวิเคราะห์และตัดสินใจได้รวดเร็วขึ้น ดังนั้นเราควรต้องทำให้ Process การวิเคราะห์ข้อมูลสั้นที่สุดเท่าที่จะเป็นไปได้ ถ้าหากจะทำให้การวิเคราะห์เข้าใกล้ Real Time สิ่งที่ต้องทำก็คือการเปลี่ยนให้ Manual Process เป็น Automatic Process นั่นเอง

ในยุคปัจจุบันที่เรามีระบบ BI อันมีข้อดีคือ 1) สามารถ Connect กับ Raw Data ได้ทันที 2)สามารถสร้าง Presentation แบบ Visualization ได้ในตัว ดังนั้นจะเห็นว่าเราสามารถทำให้การวิเคราะห์เป็นไปโดยอัตโนมัติได้ อย่างไรก็ดีซอฟต์แวร์ BI อาจจะมีข้อจำกัดในการวิเคราะห์ทางสถิติขั้นสูงได้ ดังนั้นจึงถือเป็นข้อจำกัดที่ต้องพิจารณาประเด็นนี้ด้วย

กรณีศึกษาในบทความนี้

บทความนี้ขอยกตัวอย่างกรณีศึกษาที่มีคุณสมบัติดังนี้

  1. เกี่ยวกับข้อมูล

  • ข้อมูลการตรวจสอบคุณภาพสินค้า ถูกสร้างขึ้นโดยอัตโนมัติมาจาก Machine กล่าวคือข้อมูลถูกสร้างและบันทึกลงฐานข้อมูลโดยอัตโนมัติ ไม่จำเป็นต้องให้คนไปเก็บข้อมูลแล้วมาบันทึกเข้าระบบ
  • ข้อมูลดังกล่าวถือว่าเป็นข้อมูลที่มีโครงสร้าง (Structure Data) เก็บอยู่บน Database แบบ RDBMS เช่น SQL Server, Oracle, MySQL เป็นต้น หรืออาจจะเป็นฐานข้อมูลแบบ Time Series เช่น InfluxDB เป็นต้น
  • 2. เป้าหมาย
  • เราจะนำ BI Tool มาใช้วิเคราะห์ข้อมูลคุณภาพ และสร้าง Visualization เพื่อแสดงผล
  • ต้องการให้กระบวนการเป็นแบบอัตโนมัติ นับจาก Input คือการ Connect และเตรียมข้อมูล, Process คือการคำนวณและประมวลผล, Output คือการสร้าง Presentation เป็นไปโดยอัตโนมัติ

การเตรียมข้อมูล (Data Preparation)

ข้อมูลจะแบ่งออกเป็น 2 ส่วนคือ

  1. ข้อมูลการตรวจสอบคุณภาพ โดยรูปด้านล่างคือตัวอย่างข้อมูลที่ใช้ในบทความนี้ ผู้เขียนตัดข้อมูลเฉพาะที่จำเป็นเท่านั้นประกอบด้วย 4 Field ได้แก่

  • Date คือ วัน-เวลา ที่เก็บข้อมูล
  • KeyMeasure1, KeyMeasure2 คือ ค่าหรือ Value ของสิ่งที่จะนำมาวิเคราะห์คุณภาพ ตัวอย่างนี้ในการผลิตสินค้า 1 ชิ้นจะมีการเก็บข้อมูล 2 ค่า ดังนั้นในเวลาเดียวกันจึงมีข้อมูล
  • UniqueID คือ Field ที่เป็นตัวกำกับข้อมูลซึ่งมีค่าไม่ซ้ำกันในแต่ละ Row ในความจริงอาจจะมี Field มากกว่านี้ เช่น ชื่อสินค้า ชื่อเครื่องจักร และอื่น ๆ
  1. ข้อมูล Product Specifications คือข้อมูลที่ระบุว่า ในแต่ละข้อมูลมีการกำหนด Target, LSL และ USL มีค่าเท่าไร ในกรณีนี้ ทั้ง KeyMeasure1 และ KeyMeasure2 ต่างก็มีค่าเดียวกัน

ขั้นตอนการเตรียมข้อมูล

     ผู้เขียนใช้โปรแกรม Tableau Prep Builder ในการเตรียมข้อมูล ซึ่งหลัก ๆ แล้วมีการดำเนินการดังนี้

  1. Identify Outlier คือการหาว่าข้อมูลใดที่เป็นข้อมูลที่ผิดปกติ (Outlier) เนื่องจากข้อมูลส่งมาจาก Machine ดังนั้นตัวเลขที่ได้อาจจะมี Error ตัวอย่างเช่น โดยปกติค่าจะอยู่ระหว่าง 0-20 แต่ข้อมูลบาง Row ก็พบตัวเลขที่เยอะมาก ๆ หรือตัวเลขที่ติดลบมาก ๆ ซึ่งหากเรานำตัวเลขเหล่านี้ไปคำนวณจะทำให้ผลลัพธ์เพี้ยนไป ดังนั้นจึงต้อง Identify ให้ได้
  2. นำการ Reshape ข้อมูล KeyMeasure จาก Column เป็น Row
  3. นำข้อมูลทั้ง 2 table คือ “ข้อมูลการตรวจสอบคุณภาพ” กับ “ข้อมูล Product Specifications” มา Combine เข้าด้วยกัน ด้วยการ Join ทำให้เราได้ข้อมูลสุดท้ายที่พร้อมที่จะนำไปวิเคราะห์ต่อ ดังรูปด้านล่าง

การวิเคราะห์และสร้าง Visualization สำหรับงาน Quality

ในหัวข้อนี้จะแนะนำ Dashboards ที่เหมาะสมกับการแสดงผลการวิเคราะห์ข้อมูลด้านการควบคุมคุณภาพ ที่สร้างขึ้นด้วยโปรแกรม Tableau จำนวน 6 รูปแบบ ซึ่งมีรายละเอียดดังต่อไปนี้

  1. Defect and Yield Analysis

Visualization ที่แนะนำแบบแรกคือ การวิเคราะห์ข้อมูลจำนวนสินค้า Defect หรือสินค้าที่ไม่ผ่านข้อกำหนด นั่นคือค่าตัวเลขอยู่ภายนอกช่วง LSL ถึง USL จากรูปด้านล่างเราจะเห็นว่า ใน KeyMeasure1 พบ Defect 3 ชิ้น จากสินค้าทั้งหมด 9,512 ชิ้น เป็นต้น

เรามักจะคิด KPI เป็นสัดส่วนระหว่าง จำนวนตัวอย่างที่ผ่านเกณฑ์ หารด้วยจำนวนตัวอย่างทั้งหมด ซึ่งก็คือ Output ที่ดี หารด้วย Input ทั้งหมด เรียกว่า Yield ดังนั้นกรณีของ Key Measure2 ค่า Yield = (9513-84) / 9513 = 99.12%

ในกราฟเส้นด้านล่างเป็นการ Plot ค่า Yield ในแต่ละชั่วโมง บางครั้งองค์กรอาจกำหนดเป้าหมายของ Yield เช่นที่ 98% ดังนั้นจากรูปเราพบว่า ณ ชั่วโมงที่ 2AM นั้นค่า Yield ต่ำกว่าเกณฑ์

  1. Density Chart

Visualization แบบที่ 2 ที่แนะนำเรียกว่า Density Chart เพื่อแสดงว่า ในแต่ละจุดข้อมูลมีการกระจายตัวเป็นเช่นไร กราฟนี้เป็นการ Plot ข้อมูลระหว่างค่า Observation Value แต่ละจุด เทียบกับเวลาแบบ Continuous และมีการแสดงเส้น Target, LSL, USL ให้เห็นเปรียบเทียบด้วย

สิ่งที่เราได้จากกราฟนี้คือ เราสามารถใช้สายตามองดูข้อมูล เพื่อให้ทราบว่า

  • จุดที่ไม่ผ่านเกณฑ์นั้น ไม่ผ่านเกณฑ์ด้านด้านไหน ระหว่าง LSL หรือ USL จากรูปจะเห็นว่า KeyMeasure2 นั้น จุดที่ไม่ผ่านเกณฑ์ทั้งหมดอยู่ต่ำกว่า LSL
  • การกระจายตัวเป็นเช่นไร จากรูปสังเกตว่า KeyMeasure2 นั้นมีการกระจายตัวด้านล่าง Target เป็นส่วนใหญ่
  • ทำให้เราทราบ ช่วงเวลาที่ไม่ผ่านเกณฑ์ว่าเกิดขึ้นตอนไหน เช่น ใน KeyMeasure2 นั้นเกิด Defect จำนวนมากใช่ช่วง 3am-4am เป็นต้น

ข้อควรระวังในการสร้างกราฟนี้คือเรื่องปริมาณข้อมูล เพราะต้องแสดงจุด หรือ Mark ใน Tableau เป็นจำนวนมากซึ่งอาจส่งผลต่อ Performance ในการแสดงผลได้

  1. Box and Whisker Plots[5] (หรือ Box Plot)

Visualization ที่จะกล่าวถึงในหัวข้อนี้ เป็นการแสดงผลโดยนำการคำนวณค่าสถิติพื้นฐาน มาใช้ ที่กล่าวว่าพื้นฐานเพราะใช้ค่าสถิติง่าย ๆ ได้แก่ ค่าต่ำสุด (Minimum), ค่าสูงสุด (Maximum), ค่ากลาง (Median), ค่า 2nd Quartile และ 3rd Quartile เท่านั้น

สิ่งที่เราได้จากกราฟนี้คือเพื่อให้ทราบว่า

  • เปรียบเทียบการกระจายตัว (Distribution) ของข้อมูล 2 ข้อมูลขึ้นไป ว่าใครมีการกระจายตัวมากน้อยกว่ากัน จากรูปด้านล่างจะเห็นว่า KeyMeasure2 มีการกระจายตัวมากว่า KeyMeasure1
  • ง่ายในการอ่าน ตีความ และประหยัดเนื่อที่ในการแสดงผล เพราะเป็นข้อมุลที่ Summary มาแล้ว

                     แนะนำการอ่านค่า Box and Whisker Plot สำหรับท่านที่อาจจะยังไม่คุ้นเคย ดังรูปด้านล่าง

ทำไม Box and Whisker Plot จึงวัดค่าการกระจายตัวได้ ก็เพราะ Observation จำนวนครึ่งหนึ่ง หรือ 50% จะมีค่าระหว่าง 2nd Quartile และ 3rd Quartile ดังนั้นถ้าความกว้างของ Box คือระหว่าง 2nd Quartile และ 3rd Quartile กว้างมากก็หมายถึงมีการกระจายตัวมากด้วยนั่นเอง

  1. Histogram

Visualization แบบที่สี่ ที่จะนำเสนอเรียกว่า Histogram[6] เป็น Visualization ที่แสดงผลการกระจายตัวของข้อมูล (เช่นเดียวกับ Box and Whisker Plot) แต่สามารถบอกรูปทรง (Shape) ของการกระจายตัวได้ด้วย

การที่เรารู้รูปทรงของ Distribution ทำให้เราเห็นภาพและเข้าใจข้อมูลได้ดีขึ้น รูปด้านล่างคือตัวอย่างรูปทรง (Shape) ในรูปแบบต่าง ๆ

  • ซ้ายมือสุด เป็นรูปทรงที่สมมาตร รูปทรงคล้ายระฆังคว่ำ ถือว่ามี Model เดียว (unimodal) เพราะมีระฆังอันเดียว
  • รูปที่สอง และรูปที่สาม จากซ้ายมือ คือรูปทรงที่มีการเบ้ไปทางขวา และเบ้ไปทางซ้าย ไม่เป็นระฆังคว่ำที่สมมาตรเหมือนรูปแรก
  • รูปที่สี่ จากซ้ายมือ คือลักษณะที่มี สอง Model คล้าย ๆ กับมีระฆังคว่ำสองอัน ระฆังเต้ยอยู่ซ้ายมือ และระฆังที่สูงกว่าอยู่ขวามือ
  • รูปที่ห้า จากซ้ายมือ คือมีลักษณะที่มี หลาย Model สังเกตว่ามียอดระฆังมากกว่า 2 ยอด
  • รูปสุดท้ายขวามือ คือรูปทรงสมมาตร ซึ่งมีความสูงเท่า ๆ กันตลอด คล้าย ๆ Uniform Distribution ไม่ถือว่าเป็นรูประฆังคว่ำ

แล้วในกรณีข้อมูลตัวอย่างของเราหล่ะเป็นอย่างไร รูปด้านล่างคือข้อมูลตัวอย่างที่นำมาสร้างเป็น Histogram ทำให้เราพอสรุปได้ว่าข้อมูลของเราก็มีลักษณะเป็นระฆังคว่ำหรือ Normal Distribution ได้เหมือนกัน เพียงแต่การกระจายตัวไม่อยู่ตรงกับ Target

  1. Cpk

Cpk เป็นเครื่องมือทางสถิติที่ใช้วัดความสามารถของกระบวนการในการผลิตสินค้า ภายใต้ข้อกำหนดของผลิตภัณฑ์ (Product Specifications) Cpk คือค่าดัชนีชี้วัดความสามารถที่แท้จริงของกระบวนการ[7] โดย Cpk สามารถนำไปตัดสินกระบวนการได้โดยไม่จำเป็นที่ค่าเฉลี่ยของความแปรปรวนดังกล่าวต้องอยู่ที่กึ่งกลางของช่วงมาตรฐานของข้อกำหนด

สูตรการคำนวณ Cpk มีดังนี้[8]

  • USL = ขอบเขตบน ของข้อกำหนดของผลิตภัณฑ์
  • LSL = ขอบเขตล่าง ของข้อกำหนดของผลิตภัณฑ์
  • U = ค่าเฉลี่ย
  • Sigma = ค่าเบี่ยงเบนมาตรฐาน

     Cpk เป็นดัชนีที่คำนึงถึงความแปรปรวนของการผลิต สังเกตได้จากสูตรจะเห็นว่ามีตัวแปรของ ค่าเฉลี่ย (Average) และส่วนเบี่ยงเบนมาตรฐาน (Standard Deviation) เข้ามาคำนวณด้วย ซึ่งสูตรเหล่านี้สามารถสร้างขึ้นได้จาก Calculated Field บนโปรแกรม Tableau ได้ดังนี้

     เมื่อคำนวณค่า Cpk ออกมาแล้ว จะนำไปเปรียบเทียบกับ ค่าหรือเกณฑ์ ที่เป็นค่าน้อยที่สุด (Minimum) ที่ยอมรับได้ ซึ่งค่า Minimum นี้แตกต่างไปในแต่ละบริบท โดยมีค่าระหว่าง 1.25 – 2.00 ดังตารางด้านล่าง

     สังเกตว่าค่า Cpk นี้เป็นดัชนีที่ตัวเลขยิ่งเยอะ ยิ่งดี  เช่น กรณี Six Sigma อาจจะเลือกใช้เกณฑ์ที่ค่า 2.0 เป็นต้น ตัวอย่างในบทความนี้ผู้เขียนเลือกใช้ค่า Cpk = 1.5

และถ้าเราใช้ข้อมูลตัวอย่างในบทความนี้นำไปสร้าง Visualization ที่แสดงค่า Cpk ในแต่ละช่วงเวลา (Time) และมีการสร้าง Reference Line ที่แสดงค่าเกณฑ์ Cpk ที่ 1.5 และระบายสีด้านบนเส้น Reference Line เป็นแถบสีเขียว (จะได้รู้สึกว่า OK) จะได้ผลลัพธ์ดังรูป

     จากรูปสังเกตว่า KeyMeasure1 (สีส้ม) มีเพียงจุดเดียวเท่านั้นที่ผ่านเกณฑ์ Min Cpk=1.5 แต่จุดส่วนใหญ่แล้วค่า Cpk ไม่ผ่านเกณฑ์ ในขณะที่ KeyMeasure1 มีจุดที่ผ่านเกณฑ์มากกว่า เป็นต้น

     เนื่องจากการคำนวณ Cpk นั้นเราต้องคำนวณค่า Standard Deviation หรือค่า Sigma (S) ด้วย ดังนั้นถ้าหากข้อมูลดิบของเรามีการ Aggregate มาแล้ว ผู้เขียนแนะนำให้ใช้สูตรดังต่อไปนี้ในการหาค่า Std. Deviation Combine (Sc) [9]

  1. Control Chart

Control Chart เป็นเครื่องมือทางด้าน การควบคุมกระบวนการทางสถิติ (Statistical Process Control) ชนิดหนึ่ง เป้าหมายของ Control Chart คือใช้ในการบ่งชี้ว่า กระบวนการผลิตที่เราสนใจอยู่ในการควบคุมหรือไม่ เรามักจะสร้างกราฟขึ้นมา แล้วใช้สายตาในการพิจารณากราฟนั้น เพื่อคอยมอนิเตอร์หาความผิดปกติที่เกิดขึ้น และเมื่อพบความผิดปกติแล้วเราจะได้แก้ปัญหาได้

Visualization ที่แนะนำในหัวข้อนี้เป็นรูปแบบหนึ่งที่อยู่ใน Control Chart เรียกว่า X Bar Chart

ในการสร้าง Visualization นั้นผู้เขียนกำหนดให้แสดงค่า Observation ทุก 15 นาที ดังนั้นในแกน X จะเป็นแกนเวลา (Time) ห่างกันทุก 15 นาที จุดที่เกิดขึ้นคือค่า Average ของแต่ละ Observation เส้น Reference Line มี 7 เส้น ประกอบด้วย

  • เส้น Ag. ซึ่งคือค่า Average ของตัวอย่างทั้งหมด
  • เส้นที่อยู่เหนือ Avg. ได้แก่ +1 Sigma, +2 Sigma และ +3 Sigma ตามลำดับ สูตรที่ใช้ในการหาเส้น เช่นกรณี Field  “+ 2 Sigma” คือ
  • เส้นที่อยู่ใต้ Avg. ได้แก่ -1 Sigma, -2 Sigma และ -3 Sigma ตามลำดับ สูตรที่ใช้ในการหาเส้น ก็คล้ายกับสูตรในรูปด้านบน แต่เปลี่ยนเครื่องหมายจาก + เป็น – เท่านั่นเอง 

หมายเหตุ บางทฤษฎีนั้น การคำนวณเส้น Reference Line จะไม่ได้คำนวณหลายเส้น แต่จะคำนวณเพียง 2 เส้น (นอกเหนือจากเส้น Avg.) คือ UCL และ LCL เท่านั้นดังรูป[10]

ซึ่งสูตรการหา UCL และ LCL มีดังนี้ (หมายเหตุ ค่า d2 เป็นค่าคงที่  ได้จากการเปิดตาราง โดยค่า d2 จะแปรผันตามจำนวน Subgroup)

แต่ในบทความนี้ผู้เขียนเลือกที่จะไม่ใช่สูตรดังกล่าว เพราะผู้เขียนต้องการที่จะได้เส้นถึง 6 เส้น คือ -3, -2, -1, 1, 2 และ 3 Sigma ดังนั้นผู้เขียนจะคำนวณ Standard Deviation ของตัวอย่างทั้งหมด แล้วค่อยนำมาคำนวณเส้น Reference Line แต่ละเส้นด้วยตนเอง ถามว่าทำไมต้องทำเช่นนี้? เพราะในเนื้อหาถัดไป ผู้เขียนจะอธิบายการวิเคราะห์ Control Chart ด้วยหลักการ “The eight Nelson Rules” ซึ่งจำเป็นต้องใช้ข้อมูลเหล่านี้

รูปแบบของจุดในกราฟที่ส่งสัญญาณว่าเกิดความผิดปกติ (Special cause variation) ในกระบวนการ 8 รูปแบบ ตามกฎ 8 ข้อของเนลสัน (The eight Nelson Rules) โดยผู้นำเสนอ คือ Dr. Lloyd S. Nelson ซึ่งตีพิมพ์ในวารสาร Journal of Quality Technology column (April 1984)[11]

Nelson Rules[12] อยู่บนพื้นฐานของ X Bar Chart โดยสนใจค่า เฉลี่ย (Mean) และค่าเบี่ยงเบนมาตรฐาน (Standard Deviation) โดยกฏทั้ง 8 ข้อมีรายละเอียดดังนี้

Rule คำอธิบายปัญหาที่บ่งชี้
1มี 1 จุดหรือมากกว่า ที่อยู่นอกช่วง LSL-USL หรืออยู่นอกช่วง +- 3 Sigmaมีจุดหนึ่งหรือมากกว่า ที่อยู่นอกการควบคุม
Rule คำอธิบายปัญหาที่บ่งชี้
2มี 9 จุดหรือมากกว่า ต่อเนื่องกันที่อยู่ด้านเดียวของค่าเฉลี่ยเกิด Bias แบบยืดเยื้อ
Rule คำอธิบายปัญหาที่บ่งชี้
3มี 6 จุดหรือมากกว่าที่กำลังเพิ่มขึ้น หรือกำลังลดลงต่อเนื่องกันเกิดแนวโน้ม (Trend)
Rule คำอธิบายปัญหาที่บ่งชี้
4มี 14 จุดหรือมากกว่า ที่ขึ้นลงสลับกันอย่างต่อเนื่องเกิดการสั่น (Oscillation) ซึ่งไม่ใช่คลื่นรบกวน (Noise) ตามปกติ
Rule คำอธิบายปัญหาที่บ่งชี้
5มี 2 หรือ 3 จุดต่อเนื่องที่มีค่ามากกว่า +- 2 Sigma จากค่าเฉลี่ย (Mean)มีแนวโน้มระดับปานกลางที่จะเกิด Out of control
Rule คำอธิบายปัญหาที่บ่งชี้
6มี 4 ใน 5 จุดต่อเนื่อง ที่มีค่ามากกว่า +- 1 Sigma จากค่าเฉลี่ย มีแนวโน้มระดับสูงที่จะเกิด Out of control
Rule คำอธิบายปัญหาที่บ่งชี้
7มี 15 จุดต่อเนื่อง ที่อยู่ภายใน +- 1 Sigma จากค่าเฉลี่ย ด้วยความแปรปรวนภายใน 1 Sigma บ่งชี้ว่ากระบวนการของเรามีความแปรปรวนน้อย  ถือว่าดี
Rule คำอธิบายปัญหาที่บ่งชี้
8มี 8 จุดต่อเนื่องกันที่ไม่อยู่ภายใน +-  1 Sigma จากค่าเฉลี่ย และเกิดทั้ง 2 ฝั่งของค่าเฉลี่ยตรงข้ามกับ Rule 7 – บ่งชี้ว่าช่วงความแปรปรวนค่อนข้างมากและเกิดขึ้นแบบสุ่ม

          เมื่อ Apply Rule กับข้อมูลจริงของเราพบว่าข้อมูลของเรา ยังไม่พบความผิดปกติตาม 8 Rules ของ Nelson แต่ก็มีอยู่ 1 Rules ที่ใกล้เคียง นั่นคือ “Rule2-มี 9 จุดหรือมากกว่า ต่อเนื่องกันที่อยู่ด้านเดียวของค่าเฉลี่ย” แต่ข้อมูลของเรามีแค่ 8 จุด ดังรูปด้านล่างที่ระบายสีเหลือง นั่นชี้ให้เห็นว่ามีโอกาสจะเกิด Bias ได้

สรุป Visualization ทั้ง 6 รูปแบบ

สรุปว่า Visualization ทั้ง 6 รูปแบบในหัวข้อนี้ สามารถสร้างและคำนวณได้บนโปรแกรม Tableau โดยไม่จำเป็นต้องใช้โปรแกรมทางสถิติเฉพาะทาง แต่ถ้าถามว่า Visualization แบบไหนดีที่สุด? ทำไมเราจึงต้องสร้างขึ้นมาหลายรูปแบบด้วย สร้างแบบเดียวไม่ได้เหรอ? ผู้เขียนขอตอบว่า ไม่มี Visualization แบบไหนที่ดีที่สุด เพราะแต่ละแบบก็มีวัตถุประสงค์ไม่เหมือนกัน ถือว่าเป็นการเกื้อกูลซึ่งกันและกันมากกว่า

ตารางด้านล่างคือการสรุปข้อดี ข้อด้อยของ Visualization ทั้ง 6 แบบ

ลำดับชื่อVisualizationข้อดีข้อด้อย
1Defect and Yield -เป็น KPI ที่เข้าใจง่าย
-สามารถนำไปกำหนด Alert ได้
-เป็น KPI ที่ไม่คำนึงถึงความแปรปรวนเลย คือคำนึงมิติของเสีย (Defect) แค่อย่างเดียว
-ไม่รู้ว่า Defect ที่เกิดขึ้น เกิดขึ้นด้านไหน ระหว่างต่ำกว่า LSL หรือสูงกว่า USL
-ไม่รู้ว่า Defect เกิดขึ้นช่วงเวลาไหน
ลำดับชื่อVisualizationข้อดีข้อด้อย
2Density Chart-ทำให้เห็นว่า Defect ที่เกิดขึ้น เกิดขึ้นด้านไหน ระหว่าง ต่ำกว่า LSL หรือสูงกว่า USL
-ทำให้เห็นว่า Defect เกิดขึ้นช่วงเวลาไหน
-ต้องใช้สายตา ในการตีความ
-ต้องแสดงข้อมูลจำนวนมาก เพราะไม่ได้ Summarize ทำให้อาจกระทบกับ Performance ในการแสดงผล
ลำดับชื่อ Visualizationข้อดีข้อด้อย
3Box and Whisker Plot -สามารถเปรียบเทียบ การกระจายตัวของข้อมูลได้โดยง่าย
-ใช้สถิติเบื้องต้น ซึ่งเข้าใจได้ง่าย
-ต้องใช้สายตา ในการตีความ
-ไม่มี KPI ที่นำไปแสดง Alert
ลำดับชื่อVisualizationข้อดีข้อด้อย
4 Histogram -เห็น Shape ของ Distribution ได้ ว่ามี Distribution แบบใด ใช่เป็น Normal Distribution (ระฆังคว่ำ) หรือไม่
-เห็นการเบี่ยงเบนจาก Target ว่าไปทางซ้าย หรือทางขวาได้
-ต้องใช้สายตา ในการตีความ
-ไม่มี KPI ที่นำไปแสดง Alert  
ลำดับชื่อVisualizationข้อดีข้อด้อย
5 Cpk -มี KPI ที่ใช้วัดเป็นตัวเลขที่ชัดเจน
-พิจารณาความแปรปรวนของกระบวนการด้วย
-สามารถนำไปกำหนด Alert ได้
-มีการใช้สถิติ อาจจะยากต่อการเข้าใจที่มา
-การคำนวณ Standard Deviation อาจจะยุ่งยากในกรณี ข้อมูลดิบมีการ Aggregate มาแล้วระดับหนึ่ง
ลำดับชื่อVisualizationข้อดีข้อด้อย
6 Control Chart -พิจารณาความแปรปรวนของกระบวนการ
-สามารถนำไปกำหนด Alert ได้ โดยหลักการของ 8 Rules ได้
-ไม่พิจารณาการเบี่ยงเบนจากค่า Target ว่าเบี่ยงเบนไปทางซ้าย หรือขวา

          ผู้อ่านสามารถเข้าไปดู Visualization ทั้ง 6 รูปแบบ เพื่อทำความเข้าใจและทดลองเล่น  ได้ที่ Link ด้านล่างนี้ https://public.tableau.com/views/BIforQualityControl/BIforQualityControl?:language=en-US&publish=yes&:display_count=n&:origin=viz_share_link

การ Update ข้อมูลให้ทันสมัย

          เมื่อเราสร้าง Visualization และทำการ Publish Visualization เป็นที่เรียบร้อยแล้ว ขั้นตอนถัดไปที่ต้องดำเนินการก็คือ ทำอย่างไรให้ข้อมูลมีการ Update ให้ทันสมัยโดยอัตโนมัติ ในการสร้างระบบ BI ด้วย Tableau นั้นข้อดีก็คือ ถ้าข้อมูลเปลี่ยน Visualization ก็เปลี่ยนไปโดยอัตโนมัติด้วย เราไม่จำเป็นต้องมาสร้างกราฟอีกต่อไป พูดง่าย ๆ ก็คือเหนื่อยทีเดียว ต่อไปก็จะสบาย

          การ Update ข้อมูลนั้นขึ้นกับว่าแต่ละองค์กรมี สภาพแวดล้อมของระบบข้อมูล (Data Environment) แบบใด ผู้เขียนจึงไม่สามารถแนะนำให้ครอบคลุมทุกกรณีได้

          ตามประสบการณ์ของผู้เขียน เราอาจจะตั้ง Job ให้มีการ Update ข้อมูลใหม่ ๆ ทุก 15 นาที นั่นหมายความว่า Visualization ที่เราสร้างขึ้นจะแสดงข้อมูล 15 นาทีที่แล้ว ซึ่งก็ถือว่าใกล้เคียง Real time มากทีเดียว

การ Monitor และ กำหนด Alert

          Visualization สามารถใช้สายตามองเพื่อให้เกิด Insight แต่ว่าถ้าหากข้อมูลเรามีจำนวนมาก เช่น มีการวัดคุณภาพหลายมิติมาก การที่จะมาใช้สายตามองก็เป็นเรื่องที่ยุ่งยากพอสมควร ดังนั้นเราควรที่จะออกแบบการมอนิเตอร์ข้อมูล ประสบการณ์ผู้เขียนพบว่าหลักการสำคัญที่จะทำให้เราทำงานน้อยลง คือ การให้ระบบแสดง Alert เฉพาะกรณีที่มีปัญหาเท่านั้น

          การ Alert ข้อมูลเมื่อเกิดปัญหานี้ ต้องสอดคล้องกับ Visualization ที่ออกแบบ และ KPI ที่กำหนด ใน Visualization ทั้ง 6 รูปแบบในบทความนี้ มีอยู่ 3 Visualization ที่เราสามารถนำการกำหนดการ Alert ได้คือ

  1. Defect and Yield โดยกำหนดให้ Alert เมื่อมี Observation มีค่า Yield ต่ำกว่า Yield Target (บทความนี้กำหนด Yield Target = 98%)
  2. Cpk โดยกำหนดให้ Alert เมื่อมี Cpk ที่ต่ำกว่า Cpk Criterion (บทความนี้กำหนดค่า Cpk Criterion = 1.5)
  3. Control Chart โดยกำหนดให้ Alert เมื่อมีเงื่อนไขเข้าองค์ประกอบของ Rule ใด Rule หนึ่งใน 8 Rules ตามหลักการของ Nelson

การ Alert อาจจะกำหนดให้ส่ง Email ไปยังที่ที่เกี่ยวข้องโดยอัตโนมัติ หรืออาจจะสร้าง Dashboard ขึ้นมาโดยเฉพาะเพื่อแสดง Alert ก็เป็นอีกทางเลือก

บทสรุป

Visualization ทำให้เราเข้าใจข้อมูลมากยิ่งขึ้น ผู้เขียนเชื่อว่าถ้าฝ่ายควบคุมคุณภาพสามารถนำเสนอข้อมูลการควบคุมคุณภาพในรูปแบบ Visualization และใช้สื่อสารให้กับคนอื่น ๆ ในองค์กร จะทำให้คนอื่น ๆ เข้าใจได้ง่ายกว่าเดิม

Visualization ทั้ง 6 รูปแบบที่เป็นตัวอย่างในบทความนี้ผู้เขียนไม่ได้เน้นให้มีความสวยงาม แต่เน้นให้แสดงผลให้ผู้อ่านเข้าใจ และเห็นภาพ ผู้เขียนจึงใช้ตัวอย่างข้อมูล (Data) เดียวกัน เพื่อสร้าง Visualization ทั้ง 6 รูปแบบ เพื่อผู้อ่านจะเห็นการเปรียบเทียบได้อย่างชัดเจน

Visualization ทั้ง 6 รูปแบบที่แนะนำในบทความนี้ เป็นเพียงแค่ปฐมบทเท่านั้น ผู้อ่านสามารถสร้างเพิ่มเติมได้มาก เท่าที่คิดว่าเหมาะสมกับองค์กรของท่านเอง ท่านสามารถออกแบบ Visualization ที่สามารถโต้ตอบ (Interactive) กับผู้ใช้งาน เพื่อให้ผู้ดู Dashboard สามารถ Question Answering ได้ด้วยตนเองก็จะดียิ่งขึ้น

ด้วยเทคโนโลยีของ BI + เทคโนโลยีของ Data จะทำให้ในยุคปัจจุบันเราสามารถวิเคราะห์ข้อมูลการควบคุมคุณภาพได้อย่างง่ายดาย รวดเร็ว และสามารถตัดสินใจ (Decision) เพื่อ Take Action ที่เหมาะสม ได้ทันการและมีประสิทธิภาพ


[1] ดร. พิสุทธ์ พงศ์ชัยฤกษ, ความหมายของคุณภาพ ในสังคมอุตสาหกรรม, for Quality Trend Vol 117 No. 160, February 2011, page 34-35

[2] Garvin A. Garvin, Competing in the Eight Dimensions of Quality, Harvard Business Review Magazine, November 1987

[3] https://en.wikipedia.org/wiki/Genichi_Taguchi

[4] Montgomery, D. C. (2009), Statistical Quality Control, Wiley & Sons.

[5] https://www.tableau.com/data-insights/reference-library/visual-analytics/charts/box-whisker

[6] https://en.wikipedia.org/wiki/Histogram

[7] รศ.ดร.ภก.เพียรกิจแดงประเสริฐ, ความสามารถของกระบวนการ (Process Capability), คณะเภสัชศาสตร์, มหาวิทยาลัยรังสิต

[8] https://en.wikipedia.org/wiki/Process_capability_index

[9] https://www.emathzone.com/tutorials/basic-statistics/combined-variance.html

[10] https://www.isixsigma.com/tools-templates/control-charts/a-guide-to-control-charts/

[11] https://www.si.mahidol.ac.th/th/division/um/admin/download_files/52_48_1mg4rg6.pdf

[12] https://en.wikipedia.org/wiki/Nelson_rules

Leave a Reply

Your email address will not be published. Required fields are marked *