- Published on
Hiểu mô hình để tin mô hình – Vấn đề giải thích trong NLP
- Authors

- Name
- Hyper One Team
Hiểu mô hình để tin mô hình – Vấn đề giải thích trong NLP
Khi mô hình ngày càng lớn và phức tạp, chúng trở thành “hộp đen”. Trong năm 2018, cộng đồng nghiên cứu bắt đầu chú trọng interpretability — khả năng giải thích tại sao mô hình dự đoán như vậy.
Các phương pháp phổ biến được thử nghiệm: – Attention visualization – Feature attribution (LIME, SHAP) – Phân rã độ quan trọng của token
Nhưng thí nghiệm cho thấy attention không phản ánh hoàn toàn suy luận nội bộ: thay đổi attention đôi khi không làm thay đổi kết quả. Điều này dẫn đến tranh luận gay gắt: attention có thực sự là “lý do” của mô hình hay chỉ là một cơ chế tính toán?
Năm 2018 là năm của những cảnh báo: nếu không giải thích được mô hình, con người khó kiểm chứng trách nhiệm và fairness trong ứng dụng quan trọng như y tế hoặc pháp lý.