Định hình AI trong xây dựng và áp dụng pháp luật

Chủ đề thuộc danh mục 'Chuyện trò linh tinh' được đăng bởi cafetinh1992, 6/10/25 at 2:39 PM.

  1. cafetinh1992

    cafetinh1992 Mới đăng kí

    Thực tiễn cho thấy nhiều người hành nghề luật như luật sư, thẩm phán ở một số nước trên thế giới đã trở thành “bị hại” của AI. AI đã tạo ra thông tin nghe có vẻ thuyết phục và trôi chảy nhưng thực chất lại sai sự thật hoặc không tồn tại. Trong lĩnh vực pháp lý, điều này đặc biệt nguy hiểm.

    AI (trí tuệ nhân tạo) là công nghệ giúp máy tính, thiết bị điện tử “học”, “phân tích” và “ra quyết định” dựa trên dữ liệu, mô phỏng tư duy con người. Có thể hình dung AI như một bộ não điện tử xử lý thông tin và thực hiện các nhiệm vụ thông minh.

    AI xuất hiện trong nhiều ứng dụng quen thuộc như trợ lý ảo Siri, Google Assistant hay ChatGPT - những công cụ cho phép máy móc giao tiếp, trả lời và hỗ trợ con người trong học tập, công việc và đời sống hằng ngày.

    Dưới góc độ pháp lý, khoản 18 Điều 2 Thông tư 02/2025/TT-BGDĐT đưa ra định nghĩa về AI. Theo đó, trí tuệ nhân tạo là việc phát triển các hệ thống máy móc có khả năng thực hiện các nhiệm vụ đòi hỏi trí tuệ con người như học tập, suy luận và giải quyết vấn đề.

    Với siêu trí tuệ nhân tạo, AI có khả năng học hỏi, hiểu và thực hiện được tất cả công việc trí tuệ mà con người có thể làm - với mức độ linh hoạt và sáng tạo tương đương hoặc vượt trội con người. Có thể thấy AI được ví như “bộ não toàn năng” trong tương lai.

    AI là một phần của trí tuệ con người. Trí tuệ nhân tạo không hề khiến cho quá trình tiến hóa của con người dừng lại. Ngược lại, xã hội chắc chắn sẽ phát triển hơn nữa nếu như sử dụng hợp lý AI. Trong tương quan đó, những cơ hội cũng như thách thức do AI mang lại cần phải được nhận diện rõ ràng để có quyết sách cụ thể.

    Trong hoạt động xây dựng pháp luật, việc rà soát hơn 60.000 văn bản quy phạm pháp luật còn hiệu lực đang là thách thức lớn về thời gian và nguồn lực. Để giải quyết, Bộ Tư pháp đã hợp tác với Bộ KH&CN cùng Tập đoàn CMC phát triển trợ lý ảo AI. Trợ lý ảo này giúp tăng hiệu quả công tác xây dựng pháp luật bằng cách phát hiện mâu thuẫn về hình thức của văn bản; đồng thời tìm kiếm, xác định các điều, khoản, điểm và văn bản liên quan đến quy định cần rà soát.

    Trong hoạt động quản lý nhà nước, AI phân tích dữ liệu hành chính để nhận diện các xu hướng và mô hình; cải thiện năng lực vận hành và khả năng ra quyết định. Việc ứng dụng này nâng cao tính minh bạch, công bằng và hỗ trợ công chức đưa ra quyết định chính xác, hợp lý.

    Trong hoạt động xét xử, các trợ lý ảo AI giúp các cơ quan tố tụng tra cứu nhanh văn bản pháp luật, chỉ dẫn áp dụng pháp luật, án lệ và bản án có tình huống pháp lý tương tự. Mục tiêu là bảo đảm cho việc áp dụng pháp luật thống nhất.

    Tuy nhiên, do AI hoạt động dựa trên cơ chế học từ dữ liệu (machine learning) nên chất lượng của đầu ra phụ thuộc hoàn toàn vào dữ liệu đầu vào. Thực tiễn cho thấy nhiều người hành nghề luật như luật sư, thẩm phán ở một số nước trên thế giới đã trở thành “bị hại” của AI. AI đã tạo ra thông tin nghe có vẻ thuyết phục và trôi chảy nhưng thực chất lại sai sự thật hoặc không tồn tại. Trong lĩnh vực pháp lý, điều này đặc biệt nguy hiểm.

    Nhiều luật sư ở Mỹ và Úc đã sử dụng AI để nghiên cứu pháp lý và soạn thảo hồ sơ nộp lên tòa án. AI đã tạo ra các án lệ và trích dẫn pháp luật hoàn toàn không có thật, bao gồm cả tên vụ án, số hiệu hồ sơ và các đoạn trích phán quyết. Khi thẩm phán và luật sư đối lập kiểm tra cơ sở dữ liệu pháp lý, họ phát hiện ra rằng các vụ án được trích dẫn không tồn tại.

    Có thể kể đến trường hợp mới đây luật sư Thomas Nield, làm việc tại Công ty Luật Semrad, bị thẩm phán phạt 5.500 USD và phải tham gia một buổi hội thảo về AI. Luật sư này đã sử dụng ChatGPT để nghiên cứu pháp lý, sau đó nộp bốn vụ án lên tòa án như là bằng chứng pháp lý. Tuy nhiên, qua kiểm tra kỹ lưỡng, thẩm phán đã phát hiện các chi tiết ông Nield trích dẫn không có trong các bản án gốc. Thêm vào đó, các vụ án có vị trí pháp lý khác so với thông tin được trích dẫn; thậm chí có vụ không tồn tại.

    Câu chuyện của luật sư Thomas Nield chỉ là một trong nhiều trường hợp báo động. Mối nguy hiểm không chỉ dừng lại ở các luật sư thiếu kiểm chứng. Nó còn có khả năng làm suy yếu nghiêm trọng sự tin cậy trong hệ thống tư pháp.

    Hệ thống dữ liệu pháp luật Việt Nam hiện còn phân mảnh, thiếu liên kết, khiến AI khó phát hiện và xử lý chính xác các vấn đề pháp lý. Đặc biệt, tư duy pháp lý đòi hỏi lập luận và giải thích rõ ràng, trong khi AI tạo sinh hoạt động như “hộp đen”, khó truy nguyên kết quả. Ngoài ra, thiên lệch dữ liệu về giới, vùng miền hay nhóm xã hội có thể khiến AI nhận định sai, dẫn đến áp dụng pháp luật thiếu chính xác và mất niềm tin của người dân.

    Việt Nam hiện chưa có cơ chế kiểm định độc lập cho các ứng dụng AI trong lĩnh vực pháp luật nên cần xây dựng quy chuẩn cho “trợ lý pháp luật ảo” đủ điều kiện vận hành, xác định rõ thẩm quyền ra quyết định và cơ chế phân định trách nhiệm.

    Sai do dữ liệu hoặc thuật toán thuộc trách nhiệm của nhà phát triển, còn sai do công chức sử dụng sai phải chịu trách nhiệm theo pháp luật. AI là xu hướng tất yếu nhưng cần được kiểm soát chặt để phát huy hiệu quả và bảo đảm công bằng, minh bạch trong áp dụng pháp luật.

    XEM TẠI ĐÂY
    Nguồn tin: Báo Pháp luật TP.HCM
     

Ủng hộ diễn đàn