- Published on
Cảnh báo về thiên kiến trong mô hình ngôn ngữ
- Authors

- Name
- Hyper One Team
Cảnh báo về thiên kiến trong mô hình ngôn ngữ
Khi mô hình học từ dữ liệu của con người, định kiến xã hội — giới tính, chủng tộc, giai tầng — vô tình được sao chép và khuếch đại. Năm 2018 là lúc cộng đồng nhận ra rủi ro này không còn là lý thuyết.
Các nghiên cứu phát hiện rằng embeddings phổ biến mang nhiều định kiến ẩn. Ví dụ: từ “doctor” thường được gắn với nam giới, còn “nurse” với nữ giới. Khi áp dụng vào tuyển dụng hoặc chấm điểm tín dụng, mô hình có thể đưa ra quyết định bất công.
Vấn đề càng nguy hiểm khi mô hình không giải thích được tại sao lại đưa ra kết quả đó. Thiếu minh bạch khiến người dùng không thể kiểm tra hoặc phản biện. Hệ quả: mô hình càng được sử dụng rộng rãi thì tác động tiêu cực càng lớn.
Dù 2018 mới chỉ là giai đoạn nhận diện, các hướng giải quyết bắt đầu hình thành: kiểm định fairness, khử bias trong vector, và yêu cầu công bố dữ liệu rõ ràng hơn.
Thông điệp quan trọng của 2018: hiệu quả mô hình không thể đánh đổi bằng đạo đức con người. NLP phải phát triển cùng trách nhiệm xã hội.