- Published on
Transformer 2017: Bộ khung nhận thức mới cho trí tuệ nhân tạo
- Authors

- Name
- Hyper One Team
1. Ngôn ngữ như một không gian quan hệ
Transformer không xem mỗi từ độc lập, mà xem toàn bộ câu là một hệ tọa độ tương quan.
Tri thức được nén vào các vector ngữ nghĩa giàu quan hệ,
giống cách con người hiểu văn cảnh.
Việc hiểu dựa trên quan hệ →
cho phép mô hình sinh ra cấu trúc ngôn ngữ hợp lý.
2. Encoder–Decoder: hai nửa của tư duy
- Encoder rút trích và tái cấu trúc tri thức trong không gian ẩn
- Decoder suy diễn và tạo ra chuỗi mới dựa trên tri thức đó
Đây là mô phỏng đơn giản hóa cách con người: nhận thức → suy nghĩ → diễn đạt
3. Khả năng mở rộng liên ngành
Ngay lập tức, Transformer được thích nghi cho:
- Thị giác máy tính → Vision Transformer (2018)
- Mô hình đa ngôn ngữ
- Mô hình đa phương thức (kết hợp ảnh, âm thanh, văn bản)
Transformer trở thành ngôn ngữ trí tuệ nhân tạo.
4. Chiều sâu học thuật
Transformer cho thấy:
Tri thức không nằm trong dữ liệu,
mà nằm trong quan hệ giữa các dữ liệu.
Đây là bước tiến triết học quan trọng trong AI:
máy học cấu trúc tri thức, không chỉ thống kê tần suất.
5. Kết luận
Transformer đóng vai trò như hệ điều hành nhận thức cho AI thế hệ mới.
Mọi bước tiến GenAI sau này đều là sự mở rộng của ý tưởng 2017 này.