Vấn đề khoảng trống về trách nhiệm pháp lý khi trí tuệ nhân tạo (AI) gây thiệt hại là thách thức nhức nhối đặt ra.
Theo Bộ Khoa học và Công nghệ, vấn đề khoảng trống về trách nhiệm pháp lý
khi AI gây thiệt hại là thách thức nhức nhối đặt ra. Đồ họa: Cát Tiên
Bộ Tư pháp vừa công khai Hồ sơ thẩm định dự thảo Nghị định của Chính phủ quy định chi tiết một số điều và biện pháp thi hành Luật Trí tuệ nhân tạo.
Trong Dự thảo Tờ trình, Bộ Khoa học và Công nghệ cho biết, thực tiễn triển khai AI có thể làm phát sinh nhiều vấn đề như rủi ro về đạo đức, thiên kiến thuật toán, xâm phạm quyền riêng tư, bảo vệ dữ liệu cá nhân, bí mật kinh doanh và phân biệt đối xử trong ứng dụng AI; sự thiếu cơ chế phân loại, kiểm soát rủi ro hệ thống AI; thiếu cơ chế kiểm định, cấp phép và giám sát các hệ thống AI, đặc biệt hệ thống AI có rủi ro cao; khó khăn trong việc truy xuất trách nhiệm khi hệ thống AI gây thiệt hại; thiếu cơ chế phối hợp hiệu quả trong xây dựng và chia sẻ dùng chung hạ tầng tính toán cho AI;...
Tất cả những điều này tạo ra rào cản lớn cho việc nghiên cứu, phát triển, triển khai và sử dụng hệ thống trí tuệ nhân tạo ở Việt Nam.
Cơ quan chức năng nhận diện một số vấn đề điển hình như:
Bất cập trong quản lý, khai thác và bảo vệ dữ liệu - nguồn tài nguyên cốt lõi cho AI: Nghị quyết 57-NQ/TW đã chỉ rõ phải "đưa dữ liệu thành tư liệu sản xuất chính" và "phát triển kinh tế dữ liệu, thị trường dữ liệu".
Tuy nhiên, thực tiễn việc thu thập, xử lý, chia sẻ và sử dụng dữ liệu cho việc huấn luyện các mô hình AI đang gặp nhiều khó khăn. Các quy định hiện hành về bảo vệ dữ liệu cá nhân dù đã có nhưng chưa đủ chi tiết để giải quyết các bài toán đặc thù của AI (ví dụ: dữ liệu tổng hợp, dữ liệu ẩn danh, quyền được giải thích). Việc kết nối, chia sẻ dữ liệu giữa các cơ sở dữ liệu quốc gia, cơ sở dữ liệu ngành còn chậm, chưa đáp ứng yêu cầu phát triển các hệ thống AI quy mô lớn.
Đáng chú ý là vấn đề khoảng trống về trách nhiệm pháp lý khi AI gây thiệt hại: Đây là một trong những thách thức pháp lý nhức nhối nhất từ thực tiễn. Khi một hệ thống AI gây ra thiệt hại (ví dụ: xe tự lái gây tai nạn, phần mềm chẩn đoán y tế đưa ra kết quả sai, hệ thống tín dụng tự động từ chối cho vay một cách phân biệt đối xử), ai sẽ chịu trách nhiệm? Nhà phát triển, nhà sản xuất, người sử dụng, hay chính hệ thống AI? Pháp luật dân sự, hình sự hiện hành chưa có câu trả lời thỏa đáng cho những tình huống này. Điều này gây hoang mang cho người tiêu dùng và rủi ro cho doanh nghiệp.
Ngoài ra là thách thức về an ninh quốc gia, trật tự xã hội và các giá trị đạo đức: Sự phát triển của AI đặt ra những nguy cơ an ninh phi truyền thống rất cấp bách. Công nghệ deepfake bị lạm dụng để tạo ra các thông tin sai lệch, bôi nhọ, lừa đảo hoặc gây bất ổn chính trị xã hội,...
Do đó, theo Bộ Khoa học và Công nghệ, cần thiết xây dựng các quy định chi tiết hướng dẫn thi hành Luật Trí tuệ nhân tạo, tạo nền tảng vững chắc để quản lý và thúc đẩy hoạt động nghiên cứu, phát triển, triển khai và sử dụng trí tuệ nhân tạo ở Việt Nam.
Việc có một hệ thống pháp luật toàn diện sẽ là đòn bẩy giúp Việt Nam vượt qua các thách thức, xây dựng một nền kinh tế AI năng động, và khẳng định vị thế của một quốc gia có năng lực tự chủ về công nghệ.