Website hiện chỉ đăng tải bài viết và cung cấp dịch vụ, không hỗ trợ tư vấn các vấn đề ngoài dịch vụ. Mong bạn thông cảm!
😄

Kiểm định Shapiro-Wilk và Kolmogorov-Smirnov trong SPSS

Phân phối chuẩn (Normal Distribution) là một trong những giả định quan trọng trong nhiều kiểm định thống kê tham số. Việc vi phạm giả định này có thể dẫn đến kết quả sai lệch và không đáng tin cậy. Do đó, việc kiểm tra tính phân phối chuẩn của dữ liệu là bước cần thiết trước khi thực hiện các phân tích thống kê sâu hơn. 

Trong SPSS, hai kiểm định phổ biến để đánh giá phân phối chuẩn là Shapiro-Wilk (kiểm định S-W) và Kolmogorov-Smirnov (kiểm định K-S). Bài viết này sẽ đi sâu vào cách thực hiện, phân tích kết quả và những lưu ý khi sử dụng hai kiểm định này trên SPSS.

Shapiro-Wilk và Kolmogorov-Smirnov trong SPSS

1. Cơ chế của Shapiro–Wilk và Kolmogorov-Smirnov

Andy Field (2009) cho rằng một cách để kiểm tra dữ liệu có tuân theo phân phối chuẩn hay không là so sánh phân phối của dữ liệu thực nghiệm với một phân phối chuẩn tương đương (có cùng trung bình và độ lệch chuẩn). Hai kiểm định thường dùng cho việc này là Kolmogorov–Smirnov (K–S) và Shapiro–Wilk.

Nói dễ hiểu, chúng ta giả định đã có một phân phối chuẩn làm mốc gọi là A, còn phân phối của dữ liệu thực nghiệm đang cần đánh giá gọi là B. Hai phân phối A và B này được xét chung trong cùng một hệ quy chiếu là cùng trung bình và độ lệch chuẩn để có thể so sánh với nhau. Nếu phân phối B mà bám sát với A thì dữ liệu chúng ta đảm bảo phân phối chuẩn, ngược lại, nếu phân phối B khác quá nhiều với A thì dữ liệu chúng ta không đảm bảo phân phối chuẩn. Và loại kiểm định giúp chúng ta kiểm tra điều này là Kolmogorov–Smirnov (K–S) và Shapiro–Wilk.

  • Nếu kết quả hai kiểm định không có ý nghĩa thống kê (sig > 0.05) → dữ liệu không khác biệt đáng kể với phân phối chuẩn → có thể xem là phân phối chuẩn.

  • Nếu kết quả hai kiểm định có ý nghĩa (sig < 0.05) → dữ liệu khác biệt đáng kể → được coi là không phân phối chuẩn.

Hai kiểm định này có vẻ tương đối lý tưởng vì chỉ với một giá trị sig chạy ra là chúng ta biết được dữ liệu có chuẩn hay không. Tuy nhiên, chúng có những hạn chế nhất định, bởi vì với cỡ mẫu lớn, chỉ với một chút độ lệch nhỏ khỏi phân phối chuẩn so sánh (phân phối A) thì hai kiểm định này cũng có thể cho ra kết quả sig < 0.05. Điều này có nghĩa là kiểm định báo rằng dữ liệu "không có phân phối chuẩn", nhưng thực tế có thể độ lệch đó rất nhỏ và không ảnh hưởng đáng kể đến các phân tích thống kê mà chúng ta đang dùng.

Ví dụ: Giả sử chúng ta có dữ liệu độ tuổi của 500 người và cần đánh giá xem có phân phối chuẩn hay không. Tiến hành chạy kiểm định Shapiro–Wilk ra sig = 0.03 < 0.05 → kết luận: dữ liệu không có phân phối chuẩn. 

Tuy nhiên, khi vẽ biểu đồ Q-Q plot hoặc Histogram thì thấy dữ liệu chỉ hơi lệch nhẹ, không có outlier nghiêm trọng. Lúc này, chúng ta có thể vẫn có thể tiến hành các loại kiểm định yêu cầu dữ liệu đầu vào của biến độ tuổi có phân phối chuẩn một cách bình thường.

Lưu ý nhấn mạnh từ Andy Field (2009):

Trong các mẫu lớn, cả hai kiểm định này rất dễ cho ra kết quả có ý nghĩa thống kê, ngay cả khi dữ liệu chỉ lệch nhẹ khỏi phân phối chuẩn. Vì vậy, không nên chỉ dựa vào kết quả kiểm định Kolmogorov-Smirnov hay Shapiro–Wilk. Hãy kết hợp với các công cụ khác để đánh giá tính chuẩn của dữ liệu, như: biểu đồ Histogram, biểu đồ P–P plot hoặc Q–Q plot, giá trị độ lệch (skewness) và độ nhọn (kurtosis).

2. Cỡ mẫu phù hợp của Shapiro-Wilk và Kolmogorov-Smirnov

Prabhakar Mishra và cộng sự (2019) đề xuất về cỡ mẫu phù hợp cho hai kiểm định như sau:

- Kiểm định Shapiro–Wilk sẽ phù hợp nhất khi cỡ mẫu ≤ 50. Dù vậy, kiểm định này vẫn có thể sử dụng được với cỡ mẫu lớn hơn (~2000 tùy phần mềm) nhưng ưu thế nhất là ở mẫu nhỏ do độ nhạy tốt hơn.

- Kiểm định Kolmogorov–Smirnov thích hợp cho mẫu trung bình đến lớn, với khuyến nghị ≥ 50. Với mẫu nhỏ (<50), độ nhạy của phương pháp này kém hơn, có thể cho ra kết quả sai lệch lớn.

Nhóm tác giả này cho rằng Shapiro-Wilk và Kolmogorov-Smirnov khá tương đồng nhau trong cách đánh giá phân phối chuẩn của dữ liệu, tuy nhiên, Shapiro-Wilk có khả năng phát hiện sự khác biệt so với phân phối chuẩn mạnh hơn .Vì vậy, bạn có thể thấy trong nhiều trường hợp, kiểm định Shapiro–Wilk cho kết quả có ý nghĩa (sig < 0.05) trong khi kiểm định Kolmogorov-Smirnov thì không, nhất là khi dữ liệu có sự lệch nhẹ.

KẾT LUẬN:

- Nếu cỡ mẫu ≤ 50, ưu tiên dùng Shapiro–Wilk.

- Nếu cỡ mẫu ≥ 50, bạn có thể dùng cả Shapiro–Wilk (vẫn tốt hơn vì độ nhạy cao hơn) và Kolmogorov-Smirnov.

- Luôn kết hợp kiểm định với biểu đồ (Histogram, Q‑Q plot) và các chỉ số skew/kurtosis để đưa ra đánh giá chắc chắn hơn về tính chuẩn của dữ liệu.

3. Kiểm định phân phối chuẩn bằng Shapiro-Wilk và Kolmogorov-Smirnov trong SPSS

3.1 Cách thực hiện Shapiro-Wilk và Kolmogorov-Smirnov trong SPSS

Ở đây mình có một tập dữ liệu thực hành với cỡ mẫu N = 200 gồm ba biến định lượng cần đánh giá phân phối chuẩn gồm:

- Biến HaiLong: trung bình cộng dữ liệu từ các biến quan sát nhỏ đo lường bằng thước đo Likert 1-5.

- Biến DoTuoi: dữ liệu độ tuổi đáp viên từ 19-40 tuổi.

- Biến ThuNhap: dữ liệu thu nhập hằng tháng của đáp viên (đơn vị triệu VNĐ).

Kiểm định Shapiro-Wilk và Kolmogorov-Smirnov

Để thực hiện kiểm định phân phối chuẩn bằng Shapiro-Wilk và Kolmogorov-Smirnov trong SPSS, chúng ta vào Analyze > Descriptive Statistics > Explore...

Kiểm định Shapiro-Wilk và Kolmogorov-Smirnov

Trong hộp thoại Explore, đưa biến cần kiểm định vào ô Dependent List (bằng cách kéo-thả hoặc dùng nút mũi tên). Trường hợp nếu muốn kiểm định dữ liệu theo từng nhóm đối tượng, chuyển biến phân nhóm vào ô Factor List (ví dụ: giới tính nam-nữ). Tiếp tục nhấp vào nút Plots... bên phải.

Kiểm định Shapiro-Wilk và Kolmogorov-Smirnov trong SPSS

Trong hộp thoại này, tích chọn vào Stem-and-leaf, Histogram và quan trọng nhất cần tích vào mục Normality plots with tests. Phải tích vào mục này thì SPSS mới tính toán và hiển thị kết quả của kiểm định Shapiro-Wilk và Kolmogorov-Smirnov. Nhấp Continue.

Kiểm định Shapiro-Wilk và Kolmogorov-Smirnov trong SPSS

Quay trở lại hộp thoại Explore, nhấn OK để xuất kết quả ra output. Sẽ có rất nhiều bảng biểu, đồ thị hỗ trợ cho việc đánh giá phân phối chuẩn, tuy nhiên, phạm vi bài viết này chúng ta chỉ tập trung vào bảng Tests of Normality.

3.2 Đọc kết quả kiểm định Shapiro-Wilk và Kolmogorov-Smirnov trong SPSS

Trong bảng Tests of Normality, chúng ta sẽ thấy hai phần chính là kết quả kiểm định Kolmogorov-Smirnov và Shapiro-Wilk với các thông số

  • Statistic: Giá trị thống kê của kiểm định.
  • df (Degrees of Freedom): Bậc tự do.
  • Sig. (Asymp. Sig. (2-tailed)): Giá trị sig (mức ý nghĩa).

Kiểm định Shapiro-Wilk và Kolmogorov-Smirnov

Cỡ mẫu của dữ liệu này là 200 (lớn hơn 50), nên chúng ta có thể sử dụng cả hai kiểm định Kolmogorov-Smirnov và Shapiro-Wilk để đánh giá kết quả.

Biến "HaiLong"

  • Kolmogorov-Smirnov: Sig. = 0.000 < 0.05
  • Shapiro-Wilk: Sig. = 0.000 < 0.05

→ Kết luận: Cả hai kiểm định đều cho giá trị Sig. = 0.000, nhỏ hơn 0.05. Điều này có nghĩa là biến HaiLong không có phân phối chuẩn.

Biến "DoTuoi"

  • Kolmogorov-Smirnov: Sig. = 0.056 > 0.05
  • Shapiro-Wilk: Sig. = 0.031 < 0.05

→ Kết luận: Kolmogorov-Smirnov (Sig. = 0.056 > 0.05) cho thấy có thể chấp nhận giả thuyết phân phối chuẩn. Shapiro-Wilk (Sig. = 0.031 ≤ 0.05) lại cho thấy bác bỏ giả thuyết phân phối chuẩn.

Trong trường hợp này có sự mâu thuẫn nhẹ giữa hai kiểm định. Với mẫu lớn (N=200), Kolmogorov-Smirnov thường được ưu tiên hơn. Tuy nhiên, khi có sự mâu thuẫn và giá trị sig của Kolmogorov-Smirnov chỉ nhỉnh hơn 0.05 một chút, chúng ta nên kiểm tra thêm các biểu đồ Histogram (với đường cong phân phối chuẩn), Q-Q plot, P-P plot và các chỉ số Skewness/Kurtosis để đưa ra kết luận cuối cùng. 

Nếu các đồ thị và chỉ số Skewness/Kurtosis tiệm cận với phân phối chuẩn, bạn có thể chấp nhận biến DoTuoi có thể có phân phối chuẩn (hoặc ít nhất là không quá khác biệt so với phân phối chuẩn). Nhưng nếu nhìn kỹ hơn vào Shapiro-Wilk, nó đã báo không chuẩn, đây là một chỉ báo mạnh. Thường thì, nếu một trong hai kiểm định báo không chuẩn, chúng ta sẽ nghiêng về kết luận không chuẩn, đặc biệt khi sig của Kolmogorov-Smirnov cũng sát ngưỡng 0.05.

Biến "ThuNhap"

  • Kolmogorov-Smirnov: Sig. = 0.200 > 0.05
  • Shapiro-Wilk: Sig. = 0.300 > 0.05

→ Kết luận: Cả hai kiểm định đều cho giá trị sig lớn hơn 0.05 (0.200 và 0.300). Điều này có nghĩa là biến ThuNhap có phân phối chuẩn. 

KẾT LUẬN:

HaiLong: Không có phân phối chuẩn.

DoTuoi: Có khả năng không có phân phối chuẩn, cần kiểm tra thêm trực quan (biểu đồ) và chỉ số Skewness/Kurtosis để khẳng định chắc chắn.

ThuNhap: Có phân phối chuẩn.

Xem thêm: Chỉ số Skewness và Kurtosis đánh giá phân phối chuẩn trong SPSS

----------

Nguồn tham khảo:

Shapiro, S. S., & Wilk, M. B. (1965). An analysis of variance test for normality (complete samples). Biometrika, 52(3/4), 591–611.

Mishra P, Pandey CM, Singh U, Gupta A, Sahu C, Keshri A. Descriptive statistics and normality tests for statistical data. Ann Card Anaesth. 2019 Jan-Mar;22(1):67-72. 

Field, A. (2009) Discovering Statistics Using SPSS. 3rd Edition, Sage Publications Ltd., London.

Đăng nhận xét