Công nghệ AI thách thức pháp luật

Công nghệ trí thông minh nhân tạo (AI) đang và sẽ ngày càng đóng vai trò quan trọng trong đời sống chúng ta. Mọi đồ vật, phương tiện trở nên ngày càng thông minh hơn. Nhưng ở phương diện pháp luật, sự xuất hiện của tác nhân có độ thông minh như vậy sẽ đặt ra nhiều thách thức.
Ảnh minh họa
Ảnh minh họa

Hình ảnh chiếc xe tự chạy trên đường, dừng đèn đỏ, tránh người đi bộ không cần người điều khiển, hay các trợ lý ảo thông minh có thể tự đặt lịch hẹn cho chủ nhân dựa trên tình hình giao thông, thời tiết… không còn là viễn cảnh. Công nghệ trí thông minh nhân tạo (AI) đang và sẽ ngày càng đóng vai trò quan trọng trong đời sống chúng ta. Mọi đồ vật, phương tiện trở nên ngày càng thông minh hơn. Nhưng ở phương diện pháp luật, sự xuất hiện của tác nhân có độ thông minh như vậy sẽ đặt ra nhiều thách thức.

Quyền riêng tư bị đe dọa

Tương tự như con người học kiến thức để trở nên hiểu biết hơn, các hệ thống AI cũng cần “tiêu thụ” dữ liệu để trở nên thông minh, và điều này yêu cầu kho dữ liệu khổng lồ. Chẳng hạn, chiếc loa thông minh muốn gợi ý hay xử lý các lệnh của người dùng sẽ cần thu thập các dữ liệu về vị trí, giọng nói và thói quen của người dùng. Dữ liệu cá nhân của người dùng sẽ dễ dàng bị thu thập bởi người máy thông minh này, bao gồm cả các dữ liệu cá nhân định danh như ngày sinh, số điện thoại, căn cước, thậm chí là các dữ liệu nhạy cảm như giọng nói, vân tay hay sức khỏe. Với hàng triệu, hàng tỷ người dùng toàn cầu, các công ty sẽ thu thập được lượng dữ liệu khổng lồ, và nếu không được kiểm soát, rất có thể họ sẽ sử dụng cho các mục đích khác.

Năm 2019, một vụ kiện tập thể đã xảy ra ở Mỹ. Các nguyên đơn cho rằng Amazon đã vi phạm Luật Bảo vệ quyền riêng tư và Đạo luật Bảo vệ quyền riêng tư của trẻ em trên mạng (COPPA). Cụ thể, trợ lý Alexa đã ghi nhận và lưu trữ vĩnh viễn các đoạn ghi âm giọng nói của hàng triệu học sinh tại các trường học, để sử dụng cho mục đích thương mại mà không thông báo và nhận được sự đồng ý của họ.

Cũng có thể phân biệt đối xử

“Tất cả mọi người sinh ra đều có quyền bình đẳng” là câu nói nổi tiếng Bác Hồ đã sử dụng trong Tuyên ngôn Độc lập của Việt Nam, và đây cũng là giá trị phổ quát toàn cầu chúng ta đang cố gắng đảm bảo. Tuy vậy, khi các hệ thống AI được ứng dụng vào đời sống, có thể xuất hiện nguy cơ xảy ra các hành vi phân biệt đối xử.

Bởi lẽ AI không tự nhiên thông minh, mà cần quá trình “dạy” từ con người, bằng cách đưa dữ liệu và “dán nhãn” thông tin cho dữ liệu đó. Nếu dữ liệu cung cấp cho AI mang tính phân biệt đối xử, rất có thể các quyết định của AI cũng sẽ mang tính phân biệt đối xử. Đó có thể là sự phân biệt về giới tính, chủng tộc, hoặc thậm chí là phân biệt với người già. Một nghiên cứu mới đây chỉ ra rằng, công nghệ phân tích khuôn mặt tự động phân tích lỗi lên tới 34,7% với nhóm phụ nữ da sẫm màu, nhưng tỷ lệ lỗi với nhóm nam giới da sáng màu chỉ 0,8%, tức tỷ lệ lỗi thấp hơn 43 lần.

Giúp lũng đoạn thị trường, hạn chế cạnh tranh?

Các doanh nghiệp phải cố gắng đưa ra các sản phẩm có giá thành vừa phải, chất lượng tốt hơn, mẫu mã đẹp hơn để cạnh tranh với nhau, và người tiêu dùng được hưởng lợi từ đó. Tuy nhiên, không phải lúc nào các doanh nghiệp cũng muốn như vậy. Thay vào đó, họ thỏa thuận với nhau để ấn định giá cả, hoặc phân chia khách hàng, hạn chế số lượng hàng hóa cung cấp ra thị trường. Bằng cách này, thay vì phải cạnh tranh với nhau, các công ty vẫn sẽ bán được hàng hóa và thu lợi nhuận lớn. Người tiêu dùng là người chịu thiệt.

Với AI, các thuật toán tinh vi và phức tạp, có thể trở thành công cụ đắc lực giúp các công ty thực hiện hành vi này. Chẳng hạn, AI thu thập và xử lý thông tin giúp các bên thực hiện thỏa thuận thông đồng. Hay AI có thể giúp các bên dễ dàng theo dõi giá cả, chiến lược của nhau, từ đó đảm bảo duy trì mối liên kết giữa các bên trong quan hệ thông đồng. Một kịch bản cao hơn, các AI tự quan sát đối thủ, dự đoán và quyết định giá, dẫn đến hành vi thông đồng (dù có hoặc không có can thiệp của con người).

Nhà làm luật sẽ chịu thua AI?

Bài toán khó nhất với các nhà làm luật, có lẽ là làm sao tìm trúng và đúng được “điểm cân bằng”. Các nhà làm luật dường như đang đi trên sợi dây, một bên là thúc đẩy đổi mới sáng tạo, một bên là các rủi ro từ công nghệ AI. Nếu quy định quá nhẹ, các rủi ro có thể xảy ra với người tiêu dùng và thị trường. Nhưng nếu ban hành các quy định quá chặt chẽ, các công nghệ sẽ khó được đưa ra thị trường, và AI sẽ mất nhiều thời gian và chi phí để trở nên thông minh hơn. Rủi ro ở hướng thứ 2 dễ xảy ra hơn, khi theo thống kê có đến 90% quy định chỉ tập trung khắc phục các mặt tiêu cực.

Một thách thức khác là tính không biên giới của công nghệ. Nhà làm luật sẽ điều chỉnh như thế nào, nếu các quốc gia cùng tham gia quá trình vận hành của AI? Chẳng hạn, một máy chủ ở Mỹ hoàn toàn có thể xử lý và thao tác cho tập lệnh được lập trình tại Việt Nam. Hay một doanh nghiệp có thể đặt siêu máy tính của mình ở vùng Caribbean để xử lý các dữ liệu tính toán ở Việt Nam.

Một rào cản khác đến từ công nghệ, là các nhà làm luật và cơ quan quản lý phải hiểu được thuật toán, dữ liệu đầu vào - những yếu tố cấu thành nên AI. Nhưng những yếu tố này mang tính kỹ thuật cực cao, sẽ là thách thức lớn với nhà làm luật khi tìm hiểu. Một thí dụ khác là các thuật toán hộp đen được chèn vào hệ thống AI có thể tạo ra kết quả từ dữ liệu đầu vào, với các hàm phức tạp không người nào có thể hiểu được, kể cả người tạo lập chúng.

Thật là phức tạp với AI.

Tin cùng chuyên mục