Pháp luật về trí tuệ nhân tạo ở một số quốc gia và khuyến nghị đối với Việt Nam

Với sự phát triển mạnh mẽ của trí tuệ nhân tạo, pháp luật Việt Nam hiện hành chưa có quy định cụ thể điều chỉnh đối với lĩnh vực này. Trong bài viết dưới đây, các tác giả đã chỉ ra sự cần thiết phải xây dựng pháp luật trí tuệ nhân tạo cũng như vai trò của pháp luật điều chỉnh nội dung này. Bên cạnh đó, việc nghiên cứu kinh nghiệm xây dựng pháp luật của các quốc gia trên thế giới về trí tuệ nhân tạo cũng là cơ sở để Việt Nam tiếp cận và học hỏi, từ đó áp dụng vào bối cảnh pháp luật nước ta.

Xây dựng pháp luật về trí tuệ nhân tạo có trách nhiệm ở một số quốc gia và khuyến nghị đối với Việt Nam

TS. Nguyễn Hùng & ThS. Vũ Hùng Cường

(Trường Đại học Công nghiệp Việt – Hung)

Nguồn: Internet

Trí tuệ nhân tạo (AI) đã và đang cho thấy tiềm năng và khả năng đóng góp lớn vào sự phát triển kinh tế – xã hội. Tuy nhiên, việc làm thế nào để nghiên cứu và áp dụng các hệ thống/ứng dụng AI một cách an toàn, có trách nhiệm, hạn chế tối đa các ảnh hưởng tiêu cực cho con người và cộng đồng vẫn còn đang là một bài toán nan giải. Chính vì vậy, việc nghiên cứu, thúc đẩy sử dụng AI có trách nhiệm nhằm mang lại một tương lai công bằng, lấy con người làm trung tâm không chỉ nhiệm vụ của Nhà nước, mà còn là trách nhiệm của các nhà phát triển và toàn cộng đồng.

1. Trí tuệ nhân tạo có trách nhiệm

Trí tuệ nhân tạo (AI), hiểu một cách khái quát, là công nghệ cho phép máy tính và các loại máy móc khác mô phỏng trí thông minh của con người và khả năng giải quyết vấn đề. Việc mô phỏng đó được thực hiện thông qua các thuật toán (algorithm), cơ chế học máy (machine learning) và cơ chế học sâu (deep learning).

Trí tuệ nhân tạo có trách nhiệm (RAI) không phải là một loại trí tuệ nhân tạo. Theo Tổ chức tiêu chuẩn hóa quốc tế (ISO), RAI là một cách tiếp cận để phát triển và triển khai AI từ cả quan điểm đạo đức và pháp lý. Mục tiêu là sử dụng AI một cách an toàn, đáng tin cậy và có đạo đức. Theo tác giả Ellen Glover trong bài viết What Is Responsible AI? (Thế nào là trí tuệ nhân tạo có trách nhiệm?) đăng trên trang công nghệ builtin.com, RAI được định nghĩa “… là một tập hợp các biện pháp được sử dụng để bảo đảm AI được phát triển và áp dụng một cách có đạo đức và hợp pháp. Nó liên quan đến việc xem xét các tác động tiềm tàng mà hệ thống AI có thể gây ra đối với người dùng, xã hội và môi trường, thực hiện các bước để giảm thiểu mọi tác hại và ưu tiên tính minh bạch và công bằng khi nói đến cách thức tạo ra và sử dụng AI”. Như vậy, có thể hiểu, RAI là quy trình, biện pháp được đặt ra nhằm bảo đảm việc chế tạo và sử dụng AI phù hợp với pháp luật và đạo đức xã hội, không gây hại cho con người và môi trường xung quanh.

2. Sự cần thiết xây dựng pháp luật về trí tuệ nhân tạo có trách nhiệm bảo đảm an ninh mạng, an toàn trên môi trường mạng

An ninh mạng là hoạt động bảo vệ máy tính, máy chủ, thiết bị di động, hệ thống điện tử, mạng và dữ liệu khỏi các cuộc tấn công độc hại. An toàn trên môi trường mạng là việc giữ an toàn trực tuyến và bảo vệ bản thân trước những rủi ro tiềm ẩn trên internet. Những rủi ro này bao gồm virus, lừa đảo và bắt nạt trên mạng. Như vậy, có thể hiểu, việc bảo đảm an ninh mạng, an toàn trên mạng là nhằm bảo vệ, giữ an toàn cho các thiết bị kết nối mạng và người sử dụng mạng khỏi các nguy cơ đe dọa đến từ môi trường mạng.

Hiện nay, tình hình bảo đảm an ninh, an toàn trên môi trường mạng đang diễn biến rất phức tạp và đối mặt với nhiều khó khăn. Theo Forbes, có 2.365 cuộc tấn công mạng vào năm 2023 với 343.338.964 nạn nhân. Năm 2023, chứng kiến số vụ vi phạm dữ liệu tăng 72% kể từ năm 2021, giữ kỷ lục mọi thời đại trước đó[6]. Theo thống kê của Ủy ban Thương mại Hoa Kỳ, từ năm 2021 đến năm 2023 đã có tổng cộng 2,7 tỷ USD được trình báo là đã bị chiếm đoạt thông qua lừa đảo qua mạng xã hội. Các hoạt động lừa đảo, tấn công trên môi trường mạng diễn ra ngày càng tinh vi, khó phát hiện và gây thiệt hại lớn. Nguyên nhân của xu hướng này là việc những kẻ tấn công, lừa đảo đã sử dụng công nghệ AI cho các hoạt động vi phạm pháp luật của mình. Ví dụ, các kẻ lừa đảo sử dụng AI để giả giọng nói và hình ảnh (deepfake) của người thân nạn nhân để dụ dỗ nạn nhân chuyển tiền. Một ví dụ khác là việc lợi dụng công nghệ AI để tạo ra một đoạn phim về một sự việc không có thật rồi lan truyền trên mạng để gây tổn hại danh dự, nhân phẩm của người khác. Ngoài ra, không thể không kể đến việc sử dụng AI để thực hiện các cuộc tấn công mạng phức tạp vào các kho dữ liệu cá nhân, tài khoản ngân hàng gây thiệt hại lớn về kinh tế.

RAI với nội dung là quy trình, biện pháp được đặt ra nhằm bảo đảm việc chế tạo và sử dụng AI phù hợp với pháp luật và đạo đức xã hội, không gây hại cho con người và môi trường xung quanh, nếu được luật hóa một cách chi tiết, có giá trị bắt buộc một cách phổ quát, thì có thể mang tới những tác động tích cực đáng kể cho công cuộc bảo đảm an ninh, an toàn trên môi trường mạng. Xây dựng pháp luật về RAI chính là việc xây dựng các quy định pháp luật nhằm bảo đảm việc chế tạo và sử dụng AI phù hợp với pháp luật và đạo đức xã hội, không gây hại cho con người và môi trường xung quanh. Việc xây dựng pháp luật về RAI cần thiết để bảo đảm an ninh, an toàn trên môi trường mạng thể hiện qua một số khía cạnh sau:

Thứ nhất, về bảo vệ quyền riêng tư và dữ liệu cá nhân, AI thường dựa vào lượng lớn dữ liệu để huấn luyện và vận hành. Việc này có thể dẫn đến rủi ro về quyền riêng tư nếu dữ liệu cá nhân bị thu thập và sử dụng mà không có sự đồng ý của người dùng. Do đó, pháp luật về AI cần đưa ra các quy định rõ ràng về việc thu thập, xử lý và bảo vệ dữ liệu cá nhân, bảo đảm rằng quyền riêng tư của người dùng được tôn trọng.

Thứ hai, về bảo đảm tính minh bạch và trách nhiệm giải trình, AI có thể thực hiện các quyết định tự động, nhưng không phải lúc nào cũng rõ ràng về cách mà các quyết định này được đưa ra. Điều này có thể dẫn đến việc thiếu minh bạch và khó khăn trong việc xác định trách nhiệm khi có sự cố xảy ra. Pháp luật về AI cần yêu cầu các hệ thống AI phải minh bạch và có khả năng giải trình, giúp người dùng hiểu rõ cách thức hoạt động và đưa ra quyết định của AI.

Thứ ba, về phòng, chống và ứng phó với các cuộc tấn công mạng, AI có thể được sử dụng trong các cuộc tấn công mạng, chẳng hạn như tấn công từ chối dịch vụ (DDoS), tấn công bằng mã độc (malware) hay tấn công xã hội (social engineering). Vì vậy, pháp luật về RAI cần có các quy định về việc phát triển và sử dụng AI trong lĩnh vực an ninh mạng, bảo đảm rằng AI được sử dụng một cách có trách nhiệm và không gây hại cho hệ thống mạng.

Thứ tư, về bảo đảm công bằng và không thiên vị, AI có thể phản ánh hoặc thậm chí khuếch đại các định kiến hiện có trong dữ liệu mà nó được huấn luyện. Điều này có thể dẫn đến các quyết định không công bằng hoặc thiên vị, gây hại cho các nhóm yếu thế trong xã hội. Pháp luật về RAI cần có các quy định để bảo đảm rằng AI được phát triển và sử dụng một cách công bằng, không thiên vị và không gây ra sự phân biệt đối xử, ví dụ như là bắt buộc đội ngũ phát triển AI phải có sự đa dạng về chủng tộc và các bước kiểm tra nghiêm ngặt trước khi một sản phẩm AI được đưa ra thị trường.

Thứ năm, về thúc đẩy phát triển bền vững và có trách nhiệm, phát triển AI cần phải đi đôi với việc bảo đảm rằng công nghệ này được sử dụng một cách bền vững và có trách nhiệm. Điều này bao gồm việc đánh giá và giảm thiểu các tác động tiêu cực của AI đối với xã hội và môi trường, như sự lạm dụng AI làm giảm đi khả năng sáng tạo của con người hay phát thải nhà kính gia tăng từ nhu cầu sử dụng năng lượng cho công nghệ AI ngày càng lớn (giả sử AI được hàng tỷ người trên toàn thế giới sử dụng hàng ngày thì tổng lượng khí thải carbon hàng năm có thể chạm tới khoảng 47 triệu tấn carbon dioxide, góp phần làm tăng 0,12% lượng khí thải carbon dioxide toàn cầu. Do đó, pháp luật về RAI cần có nội dung về khuyến khích và hỗ trợ việc phát triển các giải pháp AI bền vững và ngăn chặn việc lạm dụng công nghệ này.

3. Tình hình xây dựng pháp luật về trí tuệ nhân tạo có trách nhiệm bảo đảm an ninh, an toàn trên môi trường mạng ở một số quốc gia và khuyến nghị đối với Việt Nam

RAI là một nền tảng quan trọng để mỗi quốc gia, khu vực có thể tận dụng tối đa lợi ích và giới hạn đến mức tối thiểu tác động tiêu cực của AI vào sự phát triển trên mọi lĩnh vực. Điều này đã được các tổ chức quốc tế và nhiều quốc gia nhận thức rõ, dẫn đến sự ra đời của nhiều văn kiện pháp lý về RAI cả ở tầm quốc gia và khu vực trong thời gian gần đây. Những văn kiện này đều nhằm mục đích tạo ra khung pháp lý để điều chỉnh các hoạt động liên quan đến AI, bảo đảm chúng được thực hiện một cách hợp pháp và có đạo đức, giảm thiểu, ngăn chặn những tác động tiêu cực tiềm tàng mà AI có thể gây ra, trong đó có các nguy cơ về an toàn, an ninh trên không gian mạng.

Tại Vương Quốc Anh, mặc dù chưa có đạo luật chính thức điều chỉnh riêng biệt về AI nhưng đã có những định hướng về mặt chính sách cho vấn đề này, thể hiện qua sự kiện Chính phủ Anh ban hành “Sách trắng về trí tuệ nhân tạo” vào ngày 29/3/2023. Văn kiện này đề xuất 05 nguyên tắc cho khung quy định về AI, bao gồm: (i) An toàn, bảo mật, bền vững; (ii) Tính minh bạch và giải thích phù hợp; (iii) Công bằng; (iv) Trách nhiệm giải trình và quản trị; (v) Khả năng cạnh tranh và khắc phục. 05 nguyên tắc này chính là sự cụ thể hóa, chi tiết hóa nội dung của RAI.

Tại châu Âu lục địa, Liên minh châu Âu (EU) đang trong tiến trình để thông qua Đạo luật Trí tuệ nhân tạo, với mục tiêu là nhằm bảo đảm các hệ thống AI (AI Systems) được sử dụng tại EU phải an toàn, tôn trọng các quyền cơ bản của con người và các giá trị của EU. Hiện nay, Hội đồng châu Âu và Nghị viện châu Âu đã đạt được thỏa thuận về dự luật này và nó sẽ sớm được thông qua, có hiệu lực trong tương lai gần. Nội dung đáng chú ý của dự luật này chính là việc phân loại các hệ thống AI dựa trên rủi ro, bao gồm: Rủi ro không thể chấp nhận được (unacceptable risk), rủi ro cao (high risk), rủi ro hạn chế (limited risk), rủi ro tối thiểu (minimal risk). Mỗi loại rủi ro sẽ phải chịu những biện pháp giới hạn, kiểm soát khác nhau, mức độ rủi ro càng cao thì biện pháp giới hạn, kiểm soát càng nghiêm ngặt. Điều này giúp cho các nhà chức trách có thể kiểm soát các nguy cơ, bao gồm cả các nguy cơ đe dọa an ninh, an toàn trên không gian mạng từ các sản phẩm AI một cách tương xứng, phù hợp với đặc tính của từng sản phẩm, bảo đảm vừa kiểm soát nhưng vừa không gây khó khăn cho sự phát triển và sử dụng các công nghệ AI. Trước đó, năm 2018, EU đã thông qua Quy định chung về bảo vệ dữ liệu (GDPR). Mặc dù không được đề cập một cách đích xác trong GDPR nhưng có nhiều điều khoản trong văn bản này có sự liên quan sâu sắc tới AI, đặc biệt là về bảo vệ dữ liệu, quyền riêng tư và ra quyết định tự động. Ví dụ, GDPR yêu cầu các tổ chức phải chịu trách nhiệm về việc xử lý dữ liệu bằng hệ thống AI của mình và bảo đảm rằng các ứng dụng AI xử lý dữ liệu cá nhân được trang bị thuật toán bảo mật để bảo vệ dữ liệu cá nhân. Hơn nữa, các tổ chức phải áp dụng các biện pháp kỹ thuật và tổ chức phù hợp khác phù hợp với tính chất rủi ro do hoạt động xử lý của họ gây ra.

Trung Quốc là quốc gia đầu tiên có một đạo luật điều chỉnh riêng, đích xác về công nghệ AI, có hiệu lực thi hành từ ngày 15/8/2023. Đạo luật này được xây dựng để quản lý AI sáng tạo (Generative AI), trong đó đặt những hạn chế mới cho các công ty cung cấp dịch vụ AI sáng tạo, cả về cả dữ liệu đầu vào và sản phẩm đầu ra. Dữ liệu cung cấp cho ứng dụng AI phải được thu thập một cách hợp pháp, không vi phạm quyền riêng tư, quyền sở hữu trí tuệ. Dữ liệu đầu ra phải bảo đảm tính lành mạnh, chính xác và một số yêu cầu khác. Có thể thấy, đạo luật này sẽ có tác dụng đáng kể trong bảo đảm an ninh, an toàn trên môi trường mạng đối với các hoạt động về AI.

Tại Hoa Kỳ, Đạo luật về trách nhiệm giải trình bằng thuật toán (Algorithmic Accountability Act) đã được đề xuất vào năm 2019 và được giới thiệu lại vào năm 2022. Đạo luật này yêu cầu các công ty tiến hành đánh giá tác động đối với các hệ thống ra quyết định tự động (bao gồm AI), tập trung vào sự thiên vị, quyền riêng tư và tính hiệu quả. Trước đó, Ủy ban Thương mại liên bang (Federal Trade Commission) đã ban hành hướng dẫn về việc sử dụng AI, nhấn mạnh đến sự công bằng, trách nhiệm và minh bạch. Các công ty nên bảo đảm rằng, hệ thống AI không dẫn đến sự phân biệt đối xử và duy trì các biện pháp bảo mật dữ liệu mạnh mẽ.

Tại Việt Nam, hiện vẫn chưa có các quy định pháp luật về RAI. Do đó, trong bối cảnh công nghệ AI đang ngày càng được ứng dụng rộng rãi ở nước ta, các nhà làm luật cần nghiêm túc cân nhắc tính cần thiết và tham khảo mô hình các quốc gia khác để từ đó xây dựng được một khung pháp lý về AI phù hợp với thực tiễn Việt Nam. Theo tác giả, pháp luật cần đưa ra các quy định rõ ràng và chi tiết về quyền riêng tư, tính minh bạch, trách nhiệm giải trình, an ninh mạng, công bằng và phát triển bền vững. Điều này không chỉ giúp bảo vệ người dùng và xã hội trước các rủi ro liên quan đến AI, mà còn thúc đẩy sự phát triển và ứng dụng AI một cách có trách nhiệm và bền vững./.


Xem thêm:

Tác động của trí tuệ nhân tạo tới pháp luật lao động; Kinh nghiệm quốc tế và bài học cho Việt Nam

Một số tác động của trí tuệ nhân tạo tới nghề luật


Lưu ý: Các thông tin, nội dung tư vấn hoặc văn bản pháp luật được trích dẫn trên có thể đã thay đổi hoặc hết hiệu lực tại thời điểm hiện tại. Khách hàng vui lòng liên hệ với chúng tôi qua số điện thoại: 0867.678.066 để được tư vấn hỗ trợ một cách chính xác.


Khách hàng cần tư vấn chi tiết mời liên hệ:
VĂN PHÒNG LUẬT SƯ DƯƠNG CÔNG
Văn phòng: Số 10 ngõ 40 Trần Vỹ, phường Mai Dịch, quận Cầu Giấy, Hà Nội
Số điện thoại: 0867.678.066
Email: vanphongluatsuduongcong@gmail.com

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *