Nếu trong tương lai, ngành kiểm sát Việt Nam cho phép sử dụng hệ thống trí tuệ nhân tạo (AI) để phân tích hồ sơ vụ án và gợi ý hướng truy tố, thì đây sẽ là một bước ngoặt quan trọng trong tiến trình chuyển đổi số của ngành tư pháp. AI không chỉ giúp xử lý dữ liệu khổng lồ nhanh chóng hơn con người, mà còn có thể phát hiện các mối liên hệ tiềm ẩn giữa chứng cứ, lời khai và hành vi phạm tội. Tuy nhiên, bên cạnh lợi ích to lớn, việc ứng dụng AI trong lĩnh vực này cũng đặt ra không ít thách thức về pháp lý, đạo đức và trách nhiệm nghề nghiệp. Về ba lợi ích lớn nhất, thứ nhất, AI giúp rà soát và xử lý khối lượng hồ sơ khổng lồ trong thời gian ngắn. Ví dụ, trong một vụ án kinh tế với hàng nghìn trang chứng từ, giao dịch, và lời khai, AI có thể tự động phân loại, nhận diện các tài liệu quan trọng, hoặc phát hiện những điểm bất thường mà kiểm sát viên dễ bỏ sót. Thứ hai, AI có khả năng phát hiện mẫu hành vi và mâu thuẫn trong lời khai, nhờ phân tích ngôn ngữ tự nhiên (NLP) và nhận dạng giọng nói. Điều này giúp kiểm sát viên nhận ra sự thay đổi trong tông giọng, cấu trúc ngôn ngữ hoặc điểm mâu thuẫn giữa các nhân chứng — từ đó sớm cảnh báo dấu hiệu oan sai. Thứ ba, AI góp phần nâng cao tính khách quan trong gợi ý hướng truy tố, vì nó dựa trên dữ liệu, quy chuẩn và xác suất thống kê, hạn chế phần nào cảm tính hoặc ảnh hưởng cá nhân của người xử lý vụ án. Tuy nhiên, song hành với lợi ích là ba rủi ro lớn cần được nhận diện rõ. Một là, nguy cơ thiên vị dữ liệu (data bias). Nếu AI được huấn luyện trên dữ liệu cũ có định kiến – chẳng hạn, thiên vị giới tính, vùng miền hoặc tiền án – thì kết quả phân tích của nó sẽ phản ánh lại các định kiến đó, làm sai lệch công lý. Hai là, nguy cơ con người quá lệ thuộc vào AI, khiến kiểm sát viên dễ coi kết quả máy móc là “chân lý tuyệt đối”, đánh mất khả năng phân tích độc lập và bản lĩnh nghề nghiệp. Ba là, vấn đề trách nhiệm pháp lý khi AI sai sót. Nếu AI gợi ý sai hướng truy tố dẫn đến oan sai, việc xác định ai phải chịu trách nhiệm – kiểm sát viên, đơn vị phát triển phần mềm, hay cơ quan giám sát hệ thống – sẽ là một câu hỏi phức tạp cả về pháp lý lẫn đạo đức. Với vai trò là một người nghiên cứu chính sách, con cho rằng AI phải được coi là “công cụ hỗ trợ”, không bao giờ được phép thay thế tư duy pháp lý của con người. Cụ thể, con sẽ đề xuất một cơ chế kiểm soát ba tầng. Tầng thứ nhất: Kiểm sát viên vẫn là chủ thể chịu trách nhiệm cuối cùng. AI chỉ có thể gợi ý, còn quyền quyết định truy tố, đánh giá chứng cứ phải thuộc về con người. Tầng thứ hai: Minh bạch thuật toán (AI explainability). Mọi khuyến nghị của AI phải có “dấu vết giải thích” rõ ràng: tại sao hệ thống đưa ra kết quả này, dựa trên dữ liệu nào, mô hình nào, và mức độ tin cậy bao nhiêu phần trăm. Tầng thứ ba: Giám sát độc lập. Một Hội đồng giám sát AI pháp lý gồm chuyên gia công nghệ, kiểm sát viên kỳ cựu và chuyên gia đạo đức sẽ thường xuyên đánh giá, cập nhật, và thử nghiệm mô hình AI để tránh lệch chuẩn hoặc xung đột lợi ích. Ngoài ra, ngành kiểm sát cần xây dựng Bộ Quy tắc Đạo đức Sử dụng AI trong tố tụng, quy định rõ phạm vi, giới hạn và trách nhiệm của từng bên khi ứng dụng công nghệ này. Chỉ khi có khuôn khổ pháp lý, quy chuẩn minh bạch và con người làm trung tâm, AI mới có thể trở thành công cụ bảo vệ công lý – chứ không phải thay thế công lý.
#kiemsat #AI #Phapluat
1 Lượt thích