- Published on
Model Collapse – Khi AI đối mặt nguy cơ tự học từ chính ảo giác của mình
- Authors

- Name
- Hyper One Team
Model Collapse – Khi AI đối mặt nguy cơ tự học từ chính ảo giác của mình
Một bài nghiên cứu gây hoang mang lan truyền cuối 2023: nếu mô hình được huấn luyện từ dữ liệu do AI sinh ra, nó có thể dần dần đánh mất tri thức đúng — giống như bản photocopy ngày càng mờ đi theo thời gian. Hiện tượng này được gọi là Model Collapse.
Câu chuyện này làm cả ngành chững lại: trong thời kỳ bùng nổ AI tạo sinh, hàng tỷ văn bản và hình ảnh mới xuất hiện mỗi ngày — nhưng phần lớn trong số đó không có nguồn gốc xác thực. Nếu dữ liệu thật dần bị át bởi dữ liệu giả, trí tuệ của mô hình tương lai có thể trượt dốc không phanh.
Cuối 2023, người ta bắt đầu bàn về việc bảo tồn tri thức nhân loại như... một di sản — cần kiểm duyệt, bảo vệ và lưu trữ dữ liệu gốc. Lần đầu tiên, trí tuệ nhân tạo buộc chúng ta nhìn lại câu hỏi: tri thức thật là gì? và làm sao giữ được nó trong thời đại máy móc sáng tạo vô hạn?