Cần cơ chế đánh giá rủi ro liên quan tới AI

Chiều 27-11, dưới sự điều hành của Phó Chủ tịch Quốc hội Lê Minh Hoan, các đại biểu (ĐB) Quốc hội thảo luận ở hội trường về dự án Luật Trí tuệ nhân tạo.

Gắn mác cho sản phẩm do AI tạo ra

Quang canh.jpg
Quang cảnh Quốc hội chiều 27-11. Ảnh: QUANG PHÚC

Nhấn mạnh về cơ chế kiểm soát rủi ro đối với AI trong cuộc sống ngày nay, ĐB Nguyễn Tâm Hùng (TPHCM) nêu ý kiến, dự thảo luật yêu cầu nhà cung cấp bảo đảm đánh dấu máy đọc đối với nội dung AI là rất cần thiết; tuy nhiên, ông đề nghị cân nhắc bổ sung yêu cầu bắt buộc hiển thị thông tin nhận diện ngay trên giao diện tương tác khi nội dung có nguy cơ gây nhầm lẫn, để bảo vệ người dùng phổ thông, đặc biệt là trẻ em và người lớn tuổi khỏi nguy cơ thông tin sai lệch và các giả mạo sâu sắc. Quy định này nâng cao trách nhiệm xã hội của đơn vị cung cấp công nghệ và xây dựng niềm tin số cho người dân.

Cùng với đó, ĐB Nguyễn Tâm Hùng cho biết, qua nghiên cứu, ông thấy rằng, mô hình AI đa dụng hiện nay không chỉ tạo văn bản hay hình ảnh, mà có thể tự sinh ra mã nguồn, công cụ tấn công, chỉ thị thực thi, quy trình tấn công mạng, phương thức gian lận tài chính… Từ đó, ĐB đề nghị bổ sung nghĩa vụ kiểm soát “khả năng tự sinh” của mô hình khi cho phép tạo mã nguồn, phải có cơ chế cảnh báo, chặn, giới hạn đầu ra là cần thiết để bảo đảm an ninh mạng và trật tự an toàn xã hội.

Tam Hung.jpg
ĐB Nguyễn Tâm Hùng (TPHCM). Ảnh: QUANG PHÚC

Cùng nhìn nhận về nguy cơ rủi ro do AI tạo ra, ĐB Phạm Văn Hòa (Đồng Tháp) cho biết, công nghệ AI mặc dù là công cụ hỗ trợ cho con người, nhưng mang lại nhiều rủi ro cao; ĐB đề nghị ban soạn thảo có đánh giá khách quan, chính xác về việc này.

“Việc rủi ro có thể ảnh hưởng tới tính mạng của con người, tài sản, quyền, lợi ích hợp pháp của tổ chức, cá nhân”, ĐB Phạm Văn Hòa nêu ý kiến và nêu thêm vấn đề cần có gắn nhãn mác cho các sản phẩm do AI tạo ra. Theo ông, việc gắn mác AI để cho người dân biết được đâu là sản phẩm do AI tạo ra, đâu là sản phẩm không do AI…

Hoa.jpg
ĐB Phạm Văn Hòa (Đồng Tháp). Ảnh: QUANG PHÚC

Trong khi đó, ĐB Trịnh Thị Tú Anh (Lâm Đồng) cho rằng, trong điều 11 của dự thảo luật chưa phản ánh đầy đủ tư duy đánh giá rủi ro theo tác động công nghệ. Theo bà, bối cảnh hiện nay AI có thể tạo ra những phương thức gây hại chưa từng được nhận diện. Do đó, ĐB Trịnh Thị Tú Anh đề nghị thêm một khoản quy định: “Chính phủ quy định chi tiết và định kỳ cập nhật, bổ sung danh mục hệ thống trí tuệ nhân tạo có rủi ro không chấp nhận được trên cơ sở đánh giá rủi ro, xu hướng công nghệ và yêu cầu quản lý thực tiễn". Theo bà, cơ chế này bảo đảm điều luật không bị lạc hậu và có thể phản ứng nhanh trước nguy cơ mới.

Tránh lạm dụng AI

ĐB Trần Khánh Thu (Hưng Yên) nêu vấn đề AI trong việc hỗ trợ công tác khám, chữa bệnh, khi cho rằng, AI không chỉ giúp tối ưu hóa các quy trình trong ngành y tế, giảm tải công việc cho các bác sĩ và chuyên gia y tế, mà còn đóng vai trò quan trọng trong việc cá nhân hóa điều trị, từ đó cải thiện kết quả chăm sóc sức khỏe và tăng cường hiệu quả sử dụng nguồn lực. Tuy nhiên, việc áp dụng AI để biết dấu hiệu sức khỏe đôi lúc phản tác dụng.

Tu Anh.jpg
ĐB Trần Khánh Thu (Hưng Yên). Ảnh: QUANG PHÚC

Nữ ĐB dẫn ví dụ thực tế từ một bệnh nhân 55 tuổi ở TPHCM, khi được đưa tới bệnh viện đã trong tình trạng lơ mơ. Trước đó, người nhà bệnh nhân đã dùng AI để chẩn đoán, sau đó đi mua thuốc cho bệnh nhân sử dụng. Sau khi sử dụng thuốc, tình trạng bệnh nhân càng tệ hơn, sau đó được đưa vào bệnh viện thì được chẩn đoán tổn thương não, đột quỵ và không tránh khỏi để lại di chứng.

“Tuyệt đối mọi người không dùng kết quả tìm kiếm để chẩn đoán hay kê đơn thuốc. Song, người bán thuốc theo các đơn AI, có vi phạm pháp luật không?”, ĐB Trần Khánh Thu băn khoăn và hy vọng trong dự thảo Luật Trí tuệ nhân tạo lần này sẽ có thêm điều khoản khung pháp lý cụ thể hơn để quản lý các sản phẩm trí tuệ nhân tạo trong y tế, đặc biệt là về trách nhiệm của các bên liên quan.

Việc chuyển từ hậu kiểm sang tiền kiểm trong dự thảo luật, ĐB Trần Khánh Thu đề nghị cần có ngưỡng định lượng rõ ràng, ví dụ khi mô hình thay đổi thuật toán, tăng quy mô người dùng, hoặc dữ liệu đào tạo vượt một ngưỡng cụ thể.

Trọng Nghĩa.jpg
ĐB Phạm Trọng Nghĩa (Lạng Sơn). Ảnh: QUANG PHÚC

Nhìn nhận thêm về việc “lạm dụng AI”, ĐB Phạm Trọng Nghĩa (Lạng Sơn) cho rằng, nếu trong đời sống phụ thuộc quá vào AI sẽ làm giảm năng lực tư duy và khả năng sáng tạo. Việc lạm dụng AI tiềm ẩn nhiều bất ổn như: xâm phạm chủ quyền quốc gia, giảm hiệu lực của quản trị công và ảnh hưởng tiêu cực đến mỗi cá nhân, mỗi gia đình, nhất là thế hệ trẻ.

“Đối với khu vực công, lạm dụng AI làm giảm tính khả thi, tính nhân văn và hiệu quả của chính sách, pháp luật. Việc cung cấp các thông tin, dữ liệu nhạy cảm vào AI, nếu không được kiểm soát chặt, có thể dẫn đến rò rỉ dữ liệu, gây tổn hại đến an ninh quốc gia và trật tự an toàn xã hội với hệ lụy khó lường”, ĐB Phạm Trọng Nghĩa nhận định và đề nghị, bổ sung vào dự thảo luật một điều quy định hành vi bị nghiêm cấm, trong đó, có cấm lạm dụng AI trong khu vực công.

Tin cùng chuyên mục