Luật Trí tuệ nhân tạo (Luật số 134/2025/QH15) được Quốc hội thông qua ngày 10/12/2025, lần đầu tiên thiết lập một khuôn khổ pháp lý tương đối toàn diện cho hoạt động nghiên cứu, phát triển, cung cấp, triển khai và sử dụng trí tuệ nhân tạo tại Việt Nam.

Phân loại AI theo mức độ rủi ro

Luật Trí tuệ nhân tạo tiếp cận theo hướng quản lý dựa trên rủi ro, chia hệ thống trí tuệ nhân tạo thành ba nhóm: rủi ro cao, rủi ro trung bình và rủi ro thấp. Trong đó, AI rủi ro cao là các hệ thống có khả năng tác động trực tiếp đến quyền con người, quyền công dân, an ninh quốc gia, trật tự an toàn xã hội, sức khỏe, tài chính và an sinh xã hội. Các lĩnh vực như y tế, giáo dục, tài chính, tuyển dụng, chấm điểm tín dụng, giám sát sinh trắc học… được xếp vào nhóm chịu quản lý chặt chẽ.

Theo đó, hệ thống AI rủi ro cao phải được đánh giá, phân loại rủi ro trước khi đưa vào sử dụng, thực hiện đăng ký hoặc thông báo với cơ quan có thẩm quyền, bảo đảm khả năng giám sát của con người và có phương án xử lý sự cố. Chủ thể phát triển, cung cấp và triển khai AI phải thực hiện nghĩa vụ minh bạch, giải trình và chịu trách nhiệm nếu hệ thống gây thiệt hại.

Luật nghiêm cấm việc phát triển, triển khai hoặc sử dụng AI để thao túng hành vi con người, xâm phạm quyền riêng tư, thu thập và xử lý dữ liệu trái pháp luật; tạo, phát tán thông tin giả, deepfake nhằm lừa đảo, bôi nhọ, xâm hại danh dự, nhân phẩm cá nhân; hoặc phục vụ các hành vi vi phạm pháp luật, đe dọa an ninh quốc gia.

Một điểm đáng chú ý là Luật phân định tương đối rõ trách nhiệm giữa nhà phát triển, nhà cung cấp, đơn vị triển khai và người sử dụng AI. Mỗi chủ thể đều có nghĩa vụ riêng về bảo đảm an toàn, bảo vệ dữ liệu, minh bạch và khắc phục hậu quả khi xảy ra rủi ro, tránh tình trạng “đổ lỗi cho thuật toán”.

Bảo vệ dữ liệu cá nhân và quyền con người là nguyên tắc xuyên suốt

Luật Trí tuệ nhân tạo khẳng định việc phát triển và ứng dụng AI phải tuân thủ pháp luật về bảo vệ dữ liệu cá nhân, quyền riêng tư và các quyền con người khác. Đổi mới sáng tạo không được sử dụng làm lý do để hợp thức hóa các hành vi xâm phạm quyền công dân.

Bên cạnh các quy định quản lý, Luật dành nhiều nội dung cho chính sách thúc đẩy nghiên cứu, đổi mới sáng tạo, xây dựng hệ sinh thái AI quốc gia, phát triển hạ tầng dữ liệu và nguồn nhân lực. Tuy nhiên, nguyên tắc xuyên suốt là khuyến khích có kiểm soát, gắn đổi mới với an toàn và trách nhiệm xã hội.

Luật Trí tuệ nhân tạo có hiệu lực thi hành từ ngày 01/03/2026, trừ các nội dung liên quan quy định tại Điều 35 của Luật này. Theo đó, đối với các hệ thống trí tuệ nhân tạo đã được đưa vào hoạt động trước ngày Luật này có hiệu lực thi hành, nhà cung cấp và bên triển khai có trách nhiệm thực hiện các nghĩa vụ tuân thủ theo quy định của Luật này trong thời hạn sau đây:

a) 18 tháng kể từ ngày Luật này có hiệu lực thi hành đối với hệ thống trí tuệ nhân tạo trong lĩnh vực y tế, giáo dục và tài chính;

b) 12 tháng kể từ ngày Luật này có hiệu lực thi hành đối với các hệ thống trí tuệ nhân tạo không thuộc trường hợp quy định tại điểm a khoản này.

Trong thời hạn quy định, hệ thống trí tuệ nhân tạo được tiếp tục hoạt động, trừ trường hợp cơ quan quản lý nhà nước về trí tuệ nhân tạo xác định hệ thống có nguy cơ gây thiệt hại nghiêm trọng thì có quyền yêu cầu tạm dừng hoặc chấm dứt hoạt động./.