Nhật ký luyện AI ngày thứ 44

Việc ứng dụng Trí tuệ Nhân tạo (AI) trong môi trường kiểm sát đòi hỏi khung nguyên tắc chặt chẽ để đảm bảo tính thượng tôn pháp luật, bảo mật thông tin và duy trì vai trò trung tâm của con người. Dựa trên các nguyên tắc chung về AI có trách nhiệm và những lưu ý đặc thù của ngành tư pháp, đây là 3 nguyên tắc khung cốt lõi mà cơ quan kiểm sát nên tuân thủ:

Ba Nguyên Tắc Khung Sử Dụng AI An Toàn Trong Cơ Quan Kiểm Sát :shield:

Nguyên tắc cốt lõi: AI là công cụ hỗ trợ, con người là người ra quyết định cuối cùng.

  1. Nguyên tắc Kiểm soát và Xác minh Tuyệt đối (Human-in-the-Loop & Auditability) :magnifying_glass_tilted_right:

    Nội dung: Mọi sản phẩm đầu ra của AI (báo cáo dự thảo, phân tích chứng cứ, tóm tắt hồ sơ) phải được coi là bản nháp và bắt buộc phải trải qua quy trình kiểm tra chéo, rà soát kỹ lưỡng bởi cán bộ có chuyên môn nghiệp vụ trước khi được sử dụng chính thức hoặc đưa vào hồ sơ tố tụng.
    Lý do: AI có thể mắc lỗi ảo giác (hallucination) hoặc đưa ra kết luận dựa trên thiên lệch thuật toán (algorithmic bias), điều này không thể chấp nhận trong lĩnh vực pháp luật. Kiểm sát viên phải luôn giữ quyền quyết định cuối cùng và chịu trách nhiệm hoàn toàn về nội dung báo cáo, đúng như nguyên tắc Độc lập nghề nghiệp – AI không được “định hướng” quyết định tố tụng thay Kiểm sát viên.
    Biện pháp thực thi: Thiết lập cơ chế ghi lại (logging) và giải trình (explainability) rõ ràng, theo đó, mỗi kết quả AI cần phải kèm theo lộ trình suy luận (tham chiếu điều luật, án lệ, hoặc dữ liệu nguồn) để người kiểm tra có thể đối chiếu dễ dàng.

  2. Nguyên tắc Bảo mật và Giới hạn Dữ liệu Nghiêm ngặt (Data Security & Confidentiality) :locked:

    Nội dung: Tuyệt đối không sử dụng các hệ thống AI công cộng (như phiên bản thương mại của các mô hình quốc tế) để xử lý các dữ liệu, tài liệu, chứng cứ, hoặc hồ sơ vụ án thuộc diện tối mật, tuyệt mật hoặc chứa thông tin cá nhân nhạy cảm của các bên liên quan.
    Lý do: Dữ liệu pháp lý là tài sản quốc gia và cá nhân. Việc đưa dữ liệu này vào các nền tảng không được kiểm soát có nguy cơ rò rỉ thông tin và vi phạm quyền riêng tư. Nếu cơ quan quyết định triển khai AI nội bộ, phải tuân thủ các tiêu chuẩn bảo mật cao nhất, áp dụng nguyên tắc Zero-Trust và thường xuyên đánh giá tác động bảo mật (Privacy Impact Assessment).
    Biện pháp thực thi: Ưu tiên xây dựng các môi trường AI khép kín, cục bộ (on-premise) hoặc sử dụng các dịch vụ điện toán đám mây chuyên biệt, đảm bảo dữ liệu được ẩn danh hoặc chỉ được lưu trữ trong thời gian cần thiết theo quy định pháp lý.

  3. Nguyên tắc Minh bạch về Nguồn gốc và Phạm vi (Transparency & Scope Definition) :gear:

    Nội dung: Cần minh bạch hóa về việc khi nào và mức độ nào một sản phẩm được tạo ra bằng sự hỗ trợ của AI. Đồng thời, phải xác định rõ ràng phạm vi nghiệp vụ mà AI được phép hỗ trợ (ví dụ: tra cứu) và phạm vi bị giới hạn (ví dụ: không được thay thế việc nhận định tính chất vụ án).
    Lý do: Sự thiếu minh bạch có thể gây ra tâm lý ỷ lại vào công nghệ và làm xói mòn niềm tin của công chúng nếu họ nghi ngờ quyết định được đưa ra bởi máy móc hơn là bởi phán đoán của con người. Việc giới hạn phạm vi đảm bảo AI chỉ hoạt động trong các nhiệm vụ có độ an toàn cao như tóm tắt thông tin và tra cứu văn bản, không can thiệp vào các chức năng cốt lõi đòi hỏi sự thấu hiểu bối cảnh văn hóa - xã hội và đạo đức pháp lý.
    Biện pháp thực thi: Đào tạo chuyên sâu cho cán bộ về giới hạn của AI và yêu cầu gắn nhãn rõ ràng cho mọi tài liệu có sự tham gia của AI.


Sự phụ thuộc thụ động vào kết quả AI là mối đe dọa lớn nhất cho tính khách quan của pháp luật.