5 khái niệm AI giải thích theo phong cách Feynman
Gradient Descent – “Leo núi ngược”
Ẩn dụ:
Tưởng tượng bạn bị bịt mắt, đứng trên một ngọn núi, và phải tìm xuống chân núi (điểm thấp nhất).
Bạn không nhìn thấy gì. Bạn chỉ có thể:
Sờ mặt đất quanh chân
Cảm nhận xem hướng nào dốc xuống nhất
Bước một bước nhỏ theo hướng đó
Lặp lại cho đến khi không còn dốc xuống nữa
Gradient Descent cũng vậy:
“Ngọn núi” = Lỗi sai của AI (càng cao = sai càng nhiều)
“Tìm xuống chân núi” = Giảm lỗi sai xuống 0
“Mỗi bước nhỏ” = Điều chỉnh từng chút một để AI trả lời đúng hơn
Tại sao không nhảy một phát xuống luôn?
Vì bạn bịt mắt – không biết chân núi ở đâu. Nếu nhảy bừa, có thể rơi xuống vực.
Bài học: AI học bằng cách “sờ soạng từng bước” – không phải ma thuật biết ngay đáp án.
Neural Attention – “Đánh dấu chỗ quan trọng”
Ẩn dụ:
Khi bạn đọc câu: “Con mèo màu đen đang ngủ trên ghế sofa màu đỏ”
Nếu tôi hỏi: “Con mèo màu gì?”
Não bạn TỰ ĐỘNG:
Bỏ qua từ “ghế sofa”, “màu đỏ”
Chú ý vào “mèo” + “màu đen”
Trả lời: “Đen”
Bạn không đọc lại từ đầu từng chữ. Bạn hightlight tự động phần quan trọng.
Neural Attention làm việc tương tự:
AI đọc một đoạn văn dài
Thay vì xử lý đều tất cả từ → AI tự học cách “chú ý” vào từ liên quan đến câu hỏi
Giống như bạn dùng bút dạ quang đánh dấu chỗ quan trọng
Ví dụ thực tế:
Bạn dịch câu: “I love you” sang tiếng Pháp.
Từ “love” → AI phải chú ý đến “I” (ai yêu?) và “you” (yêu ai?)
Để quyết định dùng “aime” (tôi yêu) hay “aimes” (bạn yêu)
Bài học: AI thông minh không phải vì nhớ hết, mà vì biết tập trung vào đúng chỗ.
Overfitting – “Học vẹt đến nỗi… ngu”
Ẩn dụ:
Bạn là học sinh lớp 3, sắp thi Toán.
Cách học SAI (Overfitting):
Bạn thuộc lòng 100 bài tập trong sách
Kể cả cách giải, từng dấu phẩy
Thi ra đúng một bài trong sách → Điểm 10
Nhưng đề thay đổi một chút (thay số 5 thành số 6) → Bạn không biết làm
Cách học ĐÚNG:
Bạn hiểu nguyên tắc giải
Gặp bài mới, dù số khác, bạn vẫn áp dụng được
Overfitting xảy ra khi:
AI “thuộc lòng” dữ liệu học (training data)
Nhưng khi gặp tình huống mới (dữ liệu thật) → Nó sai bét
Ví dụ thực tế:
AI học nhận diện mèo từ 1000 ảnh mèo đen.
Nó học: “Mèo = Con vật đen + Có râu + Có đuôi”
Khi gặp mèo vàng → AI nói: “Không phải mèo”
Tại sao? Vì nó nhớ chi tiết không quan trọng (màu đen) thay vì bản chất (hình dạng, cấu trúc).
Bài học: Học nhiều không bằng hiểu sâu. AI cũng vậy.
Reinforcement Learning – “Học bằng cách… thử sai”
Ẩn dụ:
Bạn dạy một đứa trẻ chơi game Mario.
Cách dạy truyền thống:
Bạn nói: “Nhảy vào lúc này, né rùa ở kia…”
Trẻ làm theo từng bước
Cách Reinforcement Learning:
Bạn chỉ nói: “Hãy đi đến cờ cuối màn”
Trẻ tự chơi:
Lần 1: Chạm rùa → Chết → “Ồ, không được chạm rùa”
Lần 2: Rơi xuống hố → Chết → “Ồ, phải nhảy qua hố”
Lần 100: Đến được cờ → “Vậy ra cách này đúng!”
Reinforcement Learning:
AI không được dạy từng bước
AI chỉ được biết: “Làm tốt = Thưởng điểm, Làm tệ = Trừ điểm”
AI tự thử hàng triệu lần để tìm ra “công thức thắng”
Ví dụ thực tế:
AlphaGo (AI chơi cờ vây) không được lập trình “nước đi nào là hay”.
Nó tự chơi với chính nó 30 triệu ván:
Mỗi lần thắng → Nhớ chiến thuật đó
Mỗi lần thua → Loại bỏ nước đi sai
Cuối cùng → Đánh bại cả vô địch thế giới
Bài học: Đôi khi, cách học tốt nhất là… để AI tự vấp ngã.
Transformer – “Máy đọc hiểu có não”
Ẩn dụ:
Trước đây, AI đọc như bạn đọc truyện tranh:
Đọc từ trái sang phải, từng từ một
Không được nhảy cóc
Nếu câu dài → Quên mất đầu câu nói gì
Transformer đọc như bạn đọc truyện trinh thám:
Đọc hết cả đoạn một lần
Nhảy qua nhảy lại giữa các câu
So sánh manh mối ở câu 1 với câu 10
Hiểu ngữ cảnh toàn bộ, không chỉ từng từ riêng lẻ
Ví dụ thực tế:
Câu: “Con sông ấy rất đẹp. Tôi thích nó.”
AI cũ (RNN): Đọc lần lượt từng từ → Khi đến “nó”, đã quên “con sông” ở đầu câu.
Transformer: Nhìn toàn bộ câu → Biết ngay “nó” = “con sông”.
Tại sao gọi là “Transformer”?
Vì nó biến đổi (transform) cách AI hiểu ngôn ngữ:
Không còn đọc tuần tự
Mà đọc song song + có liên hệ qua lại
Bài học: ChatGPT, GPT-4 đều dùng Transformer. Đó là lý do chúng “hiểu” văn cảnh tốt đến vậy.
Tóm tắt bằng một câu chuyện
Hãy tưởng tượng bạn đang dạy một đứa trẻ vẽ tranh:
Gradient Descent: Mỗi lần vẽ sai, bạn chỉ chỗ sai và bảo “Sửa lại một tí thôi, từ từ”
Attention: Khi vẽ mặt người, bạn dặn “Hãy tập trung vào con mắt, đừng để ý tóc quá”
Overfitting: Trẻ vẽ đẹp khi copy y hệt mẫu, nhưng vẽ tự do thì… khủng khiếp
Reinforcement Learning: Bạn không dạy từng nét, chỉ khen khi đẹp, chê khi xấu → Trẻ tự học
Transformer: Thay vì vẽ từng bộ phận riêng lẻ, trẻ nhìn toàn bộ bức tranh để hiểu cách các phần liên kết với nhau
Đó chính là cách AI học – không phải ma thuật, mà là kiên nhẫn + thử sai + chú ý đúng chỗ.
#AICơBảnChoKiểmSátViên
#CôngNghệTưPhápThờiAI
#HiểuAIKhôngCầnLậpTrình
#PhươngPhápFeynmanTrongTưPháp
#KiểmSátViênHọcAI