Cơ chế pháp lý kiểm soát rủi ro từ trí tuệ nhân tạo ở Việt Nam

Sự phát triển vượt bậc của trí tuệ nhân tạo (AI) trong những năm gần đây với tiềm năng rộng lớn và khả năng ứng dụng sâu rộng đã làm thay đổi nhiều khía cạnh của cuộc sống con người. Tuy nhiên, bên cạnh những tác động tích cực, AI đem lại một số quan ngại về mặt đạo đức và pháp lý. Do đó, việc chủ động nghiên cứu, rà soát để hoàn thiện các cơ chế pháp lý kiểm soát rủi ro từ AI là cần thiết để tăng “sức đề kháng” của hệ thống pháp luật của Việt Nam trước các vấn đề chưa có tiền lệ có thể phát sinh trong lĩnh vực còn mới mẻ này. Trong bài viết này, tác giả phân tích nhu cầu kiểm soát rủi ro từ AI, thực trạng cơ chế pháp lý kiểm soát rủi ro từ AI, từ đó rút ra một số kiến nghị nâng cao mức độ sẵn sàng của hệ thống pháp luật trước rủi ro từ trí tuệ nhân tạo ở Việt Nam.

Cơ chế pháp lý kiểm soát rủi ro từ trí tuệ nhân tạo ở Việt Nam

ThS. Phan Vũ – Bộ Tư pháp.

1. Trí tuệ nhân tạo và nhu cầu kiểm soát rủi ro từ trí tuệ nhân tạo
Sự phát triển trí tuệ nhân tạo (artificial intelligence – AI) ở mức độ cao là một trong những thành tựu nổi bật của cuộc Cách mạng công nghiệp lần thứ tư. Trong giai đoạn trước, năng lực học máy (machine learning) của AI bị giới hạn bởi khối lượng dữ liệu đầu vào khiến khả năng thu thập, xử lý thông tin còn hạn chế. Tuy nhiên, trong giai đoạn từ năm 2010 đến nay, mức độ phổ cập rộng rãi của Internet, sự bùng nổ của dữ liệu lớn và năng lực xử lý dữ liệu ngày càng cao của máy tính đã kết hợp với nhau tạo ra môi trường thuận lợi để AI phát triển “thông minh” hơn[1], với minh chứng rõ ràng nhất là các hệ thống AI tạo sinh (generative AI) có khả năng sáng tạo ra dữ liệu phái sinh “mô phỏng cấu trúc và đặc điểm của dữ liệu đầu vào… bao gồm hình ảnh, video, âm thanh, văn bản và nội dung kỹ thuật số khác” (Điều 3(p) Sắc lệnh của Tổng thống Hoa Kỳ về phát triển và sử dụng AI an toàn, bảo mật và đáng tin cậy)[2].
Không chỉ hoạt động với hiệu suất và độ chính xác cao hơn, các hệ thống AI phức tạp ngày càng được phổ biến rộng rãi tới người dùng phổ thông; các lớp rào cản kinh tế – kỹ thuật đối với người dùng phổ thông lần lượt được dỡ bỏ. Người dùng không cần có kiến thức về ngôn ngữ lập trình để tương tác với AI, do các hệ thống AI hướng đến đối tượng là người dùng phổ thông đều có khả năng xử lý ngôn ngữ tự nhiên (natural language processing) mà không cần người dùng sử dụng các câu lệnh. Bên cạnh đó, trong quá trình mở rộng phạm vi tiếp cận và thương mại hóa AI, trải nghiệm người dùng ngày càng được đề cao và tối ưu hóa. Ngoài ra, do toàn bộ quá trình tiếp nhận, phân tích, xử lý dữ liệu được thực hiện tại hệ thống máy chủ của nhà cung cấp dịch vụ và chỉ kết quả xử lý được gửi về thiết bị thông minh của người dùng, người dùng có thể tiếp cận các hệ thống AI tân tiến mọi lúc, mọi nơi với giá thành rẻ[3]
Tuy nhiên, song song với sự lạc quan về thành tựu phát triển và tiềm năng đột phá của AI là những quan ngại về đạo đức[4] và rủi ro kỹ thuật[5]. Mặc dù niềm tin và lo ngại về sự phát triển vượt bậc của công nghệ là vấn đề chính đáng và đã tồn tại từ rất lâu trong lịch sử[6], rủi ro đến từ AI rất đặc thù. Mặc dù AI là thành quả nghiên cứu, phát triển của con người, nhưng theo nghiên cứu tổng hợp của các chuyên gia AI đến từ hơn 30 quốc gia, hiểu biết của con người về AI trên thực tế là “rất hạn chế”[7]. Tại Hội nghị thượng đỉnh của Liên minh Viễn thông quốc tế năm 2024, Sam Altman – Giám đốc điều hành của OpenAI – thừa nhận chưa thể diễn giải được cách ChatGPT “suy nghĩ”, mặc dù chính OpenAI là tổ chức đã nghiên cứu, phát triển ứng dụng ChatGPT. Ông so sánh sự khó đoán của AI như não bộ của con người – tương tự như việc con người chưa hiểu cách thức não bộ hoạt động ở cấp độ các tế bào thần kinh[8]. Trong khi cách thức hoạt động của AI cũng như các rủi ro không lường trước của nó chưa được khám phá đầy đủ và toàn diện, AI đã thâm nhập sâu vào thị trường tiêu dùng với xe tự hành, trợ lý ảo, hệ thống gợi ý và các công cụ AI trong ngành bán lẻ, thương mại điện tử, dịch vụ tài chính, y tế[9]. Vì vậy, việc nghiên cứu rủi ro, rà soát về mức độ sẵn sàng của các cơ chế kiểm soát rủi ro hiện hành và tiếp tục hoàn thiện cơ chế pháp lý là cần thiết để bảo đảm hiệu quả phòng ngừa, tăng “sức đề kháng” của hệ thống pháp luật trước các rủi ro mới đến từ AI.
2. Pháp luật về quản lý hoạt động trí tuệ nhân tạo ở một số quốc gia, khu vực
Trên thế giới, nhiều quốc gia, khu vực đã có động thái xây dựng khung khổ pháp lý về quản lý hoạt động AI và đạt được nhiều kết quả khác nhau.
Đạo luật AI của Liên minh châu Âu (EU)[10] – một trong những khung pháp lý tiên phong trên thế giới được xây dựng để điều chỉnh việc phát triển và sử dụng AI – bảo đảm AI được phát triển và sử dụng an toàn, minh bạch và tôn trọng các quyền cơ bản của con người tại các quốc gia thành viên. Đạo luật phân loại quản lý các hệ thống AI theo mức độ rủi ro: (i) Hệ thống AI có mức độ rủi ro “không thể chấp nhận được” thì bị cấm; (ii) Hệ thống AI có mức độ rủi ro cao được quản lý chặt chẽ và phải được đăng ký trong cơ sở dữ liệu của EU; (iii) Hệ thống AI có mức độ rủi ro hạn chế có nghĩa vụ công khai thông tin với người dùng về việc họ đang tương tác với hệ thống AI; (iv) Không quản lý hệ thống AI có mức độ rủi ro thấp. Phần lớn nghĩa vụ luật định được quy định cho nhà cung cấp (nhà phát triển) hệ thống AI được triển khai tại EU. Người dùng chuyên nghiệp cũng có một số trách nhiệm nhất định, song thấp hơn đối tượng nói trên[11].
Mặc dù là một trong những quốc gia dẫn đầu về phát triển AI, Hoa Kỳ chưa ban hành khung pháp lý về quản lý AI ở cấp độ Liên bang; các hoạt động lập pháp liên quan đến AI chủ yếu được thực hiện cục bộ tại một số bang[12]. Hiện nay, sự vững chắc của hệ thống pháp luật hiện hành của Hoa Kỳ kết hợp với sự linh hoạt của nhánh tư pháp trong giải thích và áp dụng pháp luật để giải quyết tranh chấp liên quan đến công nghệ mới là cách tiếp cận của Hoa Kỳ về kiểm soát rủi ro từ AI[13]. Về hoạt động của nhánh hành pháp, Tổng thống Hoa Kỳ đã ban hành Sắc lệnh số 14110 ngày 30/10/2023 về phát triển và sử dụng AI an toàn, bảo mật và đáng tin cậy, trong đó yêu cầu các cơ quan hành pháp Liên bang xây dựng hệ thống quy chuẩn và cơ chế công khai thông tin để bảo đảm sự an toàn, tính bảo mật của AI (ví dụ, cơ chế “dán nhãn” nội dung do AI tạo ra; cơ chế thử nghiệm để phát hiện điểm yếu, rủi ro của mô hình AI)[14]; chỉ định cán bộ quản lý về AI tại đơn vị. Sắc lệnh được sự ủng hộ của 15 công ty hàng đầu về AI tại Hoa Kỳ[15].
Trong cuộc đua để trở thành cường quốc về AI trên thế giới, Trung Quốc đang liên tục củng cố hệ thống pháp luật điều chỉnh các vấn đề liên quan đến AI. Ví dụ, ngày 10/7/2023, Bộ Công an và Cục Quản lý không gian mạng Trung Quốc đã phối hợp ban hành Sắc lệnh về các biện pháp quản lý tạm thời các dịch vụ AI tạo sinh[16]. Việc quản lý một số khía cạnh AI cũng được quy định tại một số văn bản như Quy định quản lý thuật toán khuyến nghị đối với dịch vụ thông tin Internet[17]; Quy định về quản lý tích hợp sâu các dịch vụ thông tin Internet[18]; Thông báo về việc thử nghiệm các biện pháp đánh giá đạo đức công nghệ[19]… Ngoài ra, khác với hướng đi của EU và Hoa Kỳ, Trung Quốc đang hướng đến xây dựng đạo luật chung về các vấn đề pháp lý liên quan đến AI (Luật Trí tuệ nhân tạo). Đạo luật này đã được đưa vào chương trình xây dựng pháp luật của Ủy ban Thường vụ Đại hội Đại biểu Nhân dân toàn quốc Cộng hòa nhân dân Trung Hoa năm 2023[20]. Nội dung dự thảo đạo luật này có thể bao gồm từ chính sách ưu đãi, hỗ trợ phát triển AI; cơ chế bảo vệ quyền lợi người dùng; trách nhiệm của nhà phát triển, nhà cung cấp dịch vụ AI; trách nhiệm pháp lý của các bên trong phát triển, cung cấp và sử dụng AI đến các cơ chế đặc thù áp dụng cho hệ thống AI quan trọng[21].
Những kinh nghiệm lập pháp của EU, Hoa Kỳ và Trung Quốc có thể gợi mở những hướng xây dựng pháp luật về quản lý AI tại Việt Nam trong thời gian tới.
3. Thực trạng cơ chế pháp lý kiểm soát rủi ro từ trí tuệ nhân tạo ở Việt Nam
Trước khi phân tích các cơ chế pháp lý kiểm soát rủi ro từ AI, điều quan trọng là phải xác định đối tượng điều chỉnh mà các cơ chế pháp lý này cần hướng đến. Bản thân hệ thống AI chỉ là “hệ thống dựa trên máy móc được thiết kế để hoạt động với các mức độ tự chủ khác nhau”[22], là “công nghệ hướng đến việc mô phỏng trí thông minh của con người…”[23]; không phải là quan hệ xã hội thuộc phạm vi điều chỉnh của quy phạm pháp luậtDo đó,pháp luật không điều chỉnh AI mà chỉ điều chỉnh các quan hệ xã hội phát sinh trong quá trình con người tương tác với nhau thông qua AI hoặc tương tác với AI.
Vì vậy, một số nhóm quan hệ xã hội phát sinh từ các hoạt động sau có thể bị điều chỉnh bởi pháp luật về AI, bao gồm: (i) Hoạt động nghiên cứu AI; (ii) Hoạt động huấn luyện, xây dựng thuật toán, mô hình AI (lập trình; thu thập và sử dụng dữ liệu để huấn luyện AI “thông minh” hơn); (iii) Hoạt động thương mại hóa AI (cung cấp sản phẩm, dịch vụ ứng dụng AI); và (iv) Hoạt động sử dụng các ứng dụng AI. Việc phân loại chỉ mang tính tương đối do có phát sinh một số điểm giao thoa giữa các nhóm đối tượng nêu trên (ví dụ, huấn luyện mô hình AI có thể trở thành một dịch vụ được thương mại hóa), song việc phân loại các quan hệ xã hội liên quan đến AI thành các nhóm theo các tiêu chí về mục tiêu, kết quả, chủ thể thực hiện, mức độ rủi ro… là cần thiết để hoạch định chính sách, pháp luật điều chỉnh mỗi nhóm quan hệ xã hội một cách hợp lý nhất.
Theo quy định pháp luật hiện hành, các cơ chế pháp lý kiểm soát rủi ro từ AI ở Việt Nam có thể phân loại thành 03 nhóm: Cơ chế các chủ thể tự kiểm soát rủi ro; cơ chế quản lý tiền kiểm và cơ chế quản lý hậu kiểm.
a) Các chủ thể tự kiểm soát rủi ro
Các chủ thể tham gia quan hệ dân sự có thể tự kiểm soát rủi ro từ AI trước hết thông qua việc thực hiện các quyền, nghĩa vụ của các bên được quy định trong hợp đồng (ví dụ, nghĩa vụ bảo mật thông tin, phạm vi chịu trách nhiệm…). Đối với người dùng dịch vụ sử dụng AI, các điều khoản dịch vụ (terms of service – TOS) hoặc thỏa thuận người dùng cuối (end-user license agreement – EULA) quy định quyền và nghĩa vụ của các bên; cung cấp các cơ sở và hình thức giải quyết tranh chấp từ việc sử dụng dịch vụ. Trong trường hợp hợp đồng không quy định hoặc quy định không cụ thể thì việc xác định quyền và nghĩa vụ của các bên sẽ căn cứ vào quy định của pháp luật có liên quan (như pháp luật dân sự, sở hữu trí tuệ, bảo vệ người tiêu dùng…).
Nếu cá nhân, tổ chức chịu thiệt hại từ AI ngoài quan hệ hợp đồng, cơ chế bồi thường thiệt hại ngoài hợp đồng tại Chương XX Bộ luật Dân sự năm 2015 sẽ được áp dụng. Đối với AI chỉ đóng vai trò là công cụ trợ giúp cho con người, người sử dụng là chủ thể có quyền quyết định cuối cùng; do đó, trách nhiệm bồi thường thiệt hại sẽ thuộc về người có hành vi gây thiệt hại (khoản 1 Điều 584 Bộ luật Dân sự)[24]. Đối với AI là sản phẩm, dịch vụ gây thiệt hại cho người tiêu dùng, người tiêu dùng có quyền được bồi thường thiệt hại nếu sản phẩm, dịch vụ “không bảo đảm chất lượng hàng hóa, dịch vụ” (Điều 608 Bộ luật Dân sự) hoặc “có khuyết tật” (Điều 34 Luật Bảo vệ quyền lợi người tiêu dùng năm 2023). Nằm ngoài các trường hợp trên,trong tình huống thiệt hại gây ra do lỗi của AI, AI (cụ thể là sản phẩm, ứng dụng sử dụng AI) sẽ được xác định là một loại tài sản và “chủ sở hữu, người chiếm hữu tài sản phải chịu trách nhiệm bồi thường thiệt hại” (khoản 3 Điều 584 Bộ luật Dân sự).
Nhìn chung, các cơ chế pháp lý hiện hành đã cho phép các chủ thể tham gia quan hệ dân sự tự kiểm soát rủi ro từ AI linh hoạt từ quá trình đàm phán, giao kết hợp đồng đến bảo vệ quyền lợi hợp pháp của mình khi xảy ra thiệt hại (tự bảo vệ hoặc thông qua cơ quan có thẩm quyền như Tòa án, trọng tài thương mại). Tuy nhiên, việc các bên tự kiểm soát rủi ro từ AI còn một số hạn chế. Một là, hiệu quả của cơ chế này phụ thuộc vào thiện chí và vị thế của các bên. Người dùng là bên yếu thế, thường phải ký những hợp đồng, thỏa thuận theo mẫu với những điều khoản bất lợi. Ví dụ, điều khoản sử dụng của ChatGPT quy định mọi tranh chấp phát sinh (kể cả trước thời điểm điều khoản sử dụng này được ban hành) đều được giải quyết bằng trọng tài thương mại; khiếu kiện tập thể bị cấm[25]. Ngoài ra, trong bối cảnh công nghệ AI ngày càng phức tạp, việc các bên không nhận thức đầy đủ về bản chất, rủi ro của sản phẩm, dịch vụ sử dụng AI đều làm gia tăng đáng kể rủi ro các bên phải chịu. Hai là, cơ sở áp dụng quy định về bồi thường thiệt hại ngoài hợp đồng đối với những thiệt hại do AI gây ra cũng còn tranh cãi, như việc xác định chủ thể chịu trách nhiệm (nhà sản xuất AI hay người dùng AI để thực hiện hành vi gây thiệt hại), chứng minh yếu tố lỗi, sự tồn tại của mối quan hệ nhân quả giữa thiệt hại và hành vi trái pháp luật[26].
b) Nhà nước kiểm soát rủi ro từ AI thông qua cơ chế tiền kiểm
Mặc dù khoa học quản lý có thể có định nghĩa khác về vấn đề này, trong phạm vi bài viết, cơ chế tiền kiểm được hiểu là việc Nhà nước đặt ra các điều kiện mà các chủ thể phải đáp ứng trước khi được phép thực hiện các hành vi thuộc đối tượng quản lý. Các điều kiện này được thể hiện bằng nhiều hình thức đa dạng, như các quy chuẩn kỹ thuật mà sản phẩm, dịch vụ phải đáp ứng; các giấy phép, giấy xác nhận, giấy chứng nhận, chứng chỉ; các điều kiện khác về chủ thể (là cá nhân đạt độ tuổi nhất định; có quyền sử dụng tài sản nhất định; có thỏa thuận, hợp đồng với chủ thể nhất định…) cần được cơ quan nhà nước có thẩm quyền chấp thuận, xác nhận, phê duyệt.
Về nguyên tắc, các cơ chế tiền kiểm đều phải được quy định trong luật để bảo đảm tính hợp hiến theo quy định tại khoản 2 Điều 14 Hiến pháp năm 2013: “Quyền con người, quyền công dân chỉ có thể bị hạn chế theo quy định của luật trong trường hợp cần thiết vì lý do quốc phòng, an ninh quốc gia, trật tự, an toàn xã hội, đạo đức xã hội, sức khỏe của cộng đồng”. Đối tượng cần được quản lý theo cơ chế tiền kiểm tương đối đa dạng, từ các hàng hóa, dịch vụ: (i) có bản chất nguy hiểm (ví dụ, Luật Năng lượng nguyên tử năm 2008); (ii) gây nguy hiểm khi sử dụng (ví dụ, Luật Quản lý, sử dụng vũ khí, vật liệu nổ và công cụ hỗ trợ năm 2017); (iii) có thể gây nguy hiểm nếu không đáp ứng tiêu chuẩn, quy chuẩn kỹ thuật hoặc sử dụng sai mục đích, cách thức, liều lượng được khuyến cáo (ví dụ, Luật Phòng cháy và chữa cháy năm 2001, Luật Dược năm 2016); đến (iv) thường không nguy hiểm nhưng Nhà nước không khuyến khích để bảo đảm quốc phòng, an ninh quốc gia, trật tự, an toàn xã hội, đạo đức xã hội, sức khỏe của cộng đồng (ví dụ, Luật Phòng, chống tác hại của thuốc lá năm 2012). Đối với các hàng hóa, dịch vụ trên, pháp luật hướng đến kiểm soát toàn diện việc quản lý, kinh doanh, sử dụng, vận hành hàng hóa, dịch vụ.
Ngoài ra, một số ngành nghề Nhà nước không kiểm soát toàn diện mà chỉ quản lý hoạt động đầu tư kinh doanh, bao gồm “ngành, nghề mà việc thực hiện hoạt động đầu tư kinh doanh trong ngành, nghề đó phải đáp ứng điều kiện cần thiết vì lý do quốc phòng, an ninh quốc gia, trật tự, an toàn xã hội, đạo đức xã hội, sức khỏe của cộng đồng” (khoản 1 Điều 7 Luật Đầu tư năm 2020), được liệt kê tại Phụ lục IV của Luật Đầu tư. Bên cạnh đó, một số ngành, nghề quy định tại Điều 6 Luật Đầu tư bị cấm đầu tư kinh doanh, trừ trường hợp để phục vụ nghiên cứu, điều tra tội phạm, bảo vệ quốc phòng, an ninh.
Hiện nay, mức độ nguy hiểm của việc sử dụng AI chưa được nghiên cứu; các hoạt động của AI không phải là đối tượng điều chỉnh trực tiếp của bất cứ văn bản quy phạm pháp luật nào. Tuy nhiên, AI được sử dụng trong nhiều ngành, nghề đầu tư kinh doanh có điều kiện (ví dụ, ứng dụng AI vào đầu tư chứng khoán; đánh giá rủi ro trong kinh doanh bảo hiểm). Nhiều vấn đề có liên quan đến AI đang được quản lý theo cơ chế tiền kiểm tại các văn bản: Nghị định số 13/2023/NĐ-CP ngày 17/4/2023 của Chính phủ về bảo vệ dữ liệu cá nhân (liên quan đến hoạt động chuyển dữ liệu cá nhân ra nước ngoài); Nghị định số 52/2013/NĐ-CP ngày 16/5/2013 của Chính phủ về thương mại điện tử[27] (liên quan đến sản phẩm, dịch vụ sử dụng AI kinh doanh trên không gian mạng)… Như vậy, việc kiểm soát AI đang được thực hiện gián tiếp thông qua cơ chế tiền kiểm nói chung với các sản phẩm, dịch vụ ứng dụng AI. Trong tương lai, nếu xác định quản lý tiền kiểm các hoạt động liên quan đến AI (bất kể là nghiên cứu, huấn luyện, thương mại hóa hay sử dụng AI) là một lĩnh vực, vấn đề này sẽ cần được điều chỉnh trước hết tại một văn bản luật (hoặc nghị quyết của Quốc hội trong trường hợp thí điểm[28]). Tuy nhiên, vấn đề này cần được cân nhắc kỹ, bởi nếu thiết kế tùy tiện cơ chế tiền kiểm sẽ dễ phát sinh cơ chế xin – cho, trở thành rào cản kỹ thuật làm hạn chế cạnh tranh trên thị trường.
c) Nhà nước kiểm soát rủi ro từ AI thông qua cơ chế hậu kiểm
Trong phạm vi bài viết, cơ chế hậu kiểm được hiểu là việc Nhà nước đặt ra các quy tắc ứng xử để các chủ thể tự giác điều chỉnh hành vi của mình; Nhà nước chỉ can thiệp thông qua việc tiến hành hoạt động thanh tra, kiểm tra việc chấp hành quy định của pháp luật và có biện pháp xử lý khi phát sinh hành vi vi phạm các quy tắc ứng xử đó.
Đặc trưng của cơ chế hậu kiểm là các quy định trách nhiệm của các chủ thể có độ mở cao. Trách nhiệm của các chủ thể có thể được thể hiện qua các nghĩa vụ (ví dụ, Bên kiểm soát dữ liệu cá nhân có nghĩa vụ thông báo cho chủ thể dữ liệu về xử lý dữ liệu cá nhân theo Điều 13 Nghị định số 13/2023/NĐ-CP; nhưng không cần đăng ký, thông báo với cơ quan nhà nước có thẩm quyền trước khi thực hiện hoạt động này); hoặc qua quy định cấm thực hiện một số hành vi nhất định (ví dụ, Điều 290 Bộ luật Hình sự năm 2015, sửa đổi, bổ sung năm 2017 cấm sử dụng mạng máy tính, mạng viễn thông, phương tiện điện tử thực hiện hành vi chiếm đoạt tài sản). Cơ chế hậu kiểm hướng đến kiểm soát hành vi thay vì kiểm soát các điều kiện của chủ thể; do đó, cơ chế hậu kiểm phát huy tác dụng khi có hành vi vi phạm trách nhiệm của các chủ thể và thể hiện rõ nét nhất ở hệ thống chế tài hành chính và hình sự[29].
Về nguyên tắc, đối tượng xử lý vi phạm hành chính chỉ bao gồm cá nhân, tổ chức (Điều 5 Luật Xử lý vi phạm hành chính năm 2012, sửa đổi, bổ sung năm 2020); đối tượng chịu trách nhiệm hình sự chỉ bao gồm cá nhân, pháp nhân thương mại (khoản 1 Điều 8 Bộ luật Hình sự). Như vậy, hiện nay, AI không thể chịu trách nhiệm hành chính, hình sự kể cả khi hành vi vi phạm pháp luật có thể được xác định là do AI thực hiện. Có ý kiến cho rằng, dưới góc độ hiệu quả của trách nhiệm hình sự đối với AI, do AI là sản phẩm do con người tạo ra, được lập trình về khả năng tư duy, trí nhớ, suy đoán, hành động; không có khả năng nhận thức được hành vi của mình là trái pháp luật hay không cũng như không có khả năng nhận thức được ý nghĩa của chế tài xử lý, việc đặt ra trách nhiệm hình sự đối với bản thân thực thể AI hiện nay là không có ý nghĩa[30].
Thay vào đó, trách nhiệm hành chính, hình sự được áp dụng đối với các đối tượng sử dụng AI vào thực hiện hành vi vi phạm pháp luật. Trong Bộ luật Hình sự, việc sử dụng AI để thực hiện hành vi gây thiệt hại có thể cấu thành một số tội phạm trong lĩnh vực công nghệ thông tin, mạng viễn thông (từ Điều 285 đến Điều 294). Trong khi đó, việc xử phạt vi phạm hành chính được thực hiện theo Nghị định số 15/2020/NĐ-CP ngày 03/02/2020 của Chính phủ quy định xử phạt vi phạm hành chính trong lĩnh vực bưu chính, viễn thông, tần số vô tuyến điện, công nghệ thông tin và giao dịch điện tử; Nghị định của Chính phủ quy định xử phạt vi phạm hành chính trong lĩnh vực an ninh mạng (đang trong quá trình xây dựng)…
Qua những phân tích trên, hệ thống pháp luật Việt Nam hiện hành về cơ bản đáp ứng được yêu cầu kiểm soát rủi ro từ ứng dụng AI. Tuy nhiên, trong tương lai, các rủi ro từ ứng dụng AI có thể vượt ra ngoài những rủi ro truyền thống, cố hữu; phát sinh một số rủi ro mới, chưa có tiền lệ như sau:
Thứ nhất, mức độ tự động hóa cao và khả năng tiếp cận người dùng với quy mô lớn của ứng dụng AI có thể bị lợi dụng để thực hiện các hành vi chưa vi phạm pháp luật một cách rõ ràng, nhưng có mục tiêu không trong sáng về mặt đạo đức, chưa phù hợp với các nguyên tắc cơ bản về chống phân biệt đối xử, bảo đảm các quyền tự do chính đáng của con người. Một ví dụ điển hình là hệ thống AI hỗ trợ người sử dụng lao động kiểm soát hành vi của người lao động tại nơi làm việc[31]; hoạt động giám sát này càng phổ biến với xu hướng làm việc từ xa[32]. Nhận diện nguy cơ của AI với công tác bảo vệ sức khỏe, an ninh, quyền cơ bản của con người và bảo đảm các nguyên tắc dân chủ, pháp quyền và bảo vệ môi trường trong khối EU[33], Điều 5 Đạo luật AI của EU đã quy định cấm phân phối, sử dụng các ứng dụng AI phân loại con người dựa trên đặc điểm nhạy cảm như chủng tộc, đảng phái, quan điểm chính trị, tôn giáo, khuynh hướng tính dục; chấm điểm hành vi của con người; xây dựng cơ sở dữ liệu nhận diện khuôn mặt thông qua việc thu thập hình ảnh khuôn mặt từ Internet hoặc video giám sát mà không có mục tiêu, định hướng… Tại Việt Nam, việc bảo vệ các quan hệ xã hội nói trên được ghi nhận tại Hiến pháp và pháp luật về lao động, bình đẳng giới, người khuyết tật… nhưng chưa có cơ chế thực thi hữu hiệu, đặc biệt là trước khả năng xâm phạm từ ứng dụng AI.
Ngoài ra, ứng dụng AI có thể bị lợi dụng để trực tiếp thực hiện hành vi vi phạm pháp luật hoặc che giấu hành vi vi phạm pháp luật trên quy mô lớn và mức độ phức tạp cao. Bên cạnh đó, việc ứng dụng AI dễ tiếp cận với cả người dùng phổ thông cũng làm phức tạp hóa công tác đấu tranh phòng, chống tội phạm công nghệ cao, tội phạm trên không gian mạng. Vừa qua, tại Việt Nam cũng xuất hiện nhiều vụ việc lừa đảo chiếm đoạt tài sản bằng công nghệ ứng dụng AI[34]. Tuy nhiên, đây là vấn đề có thể giải quyết thông qua nâng cao hiệu quả thi hành pháp luật.
Thứ hai, trong tương lai khi AI ngày càng hoạt động ít phụ thuộc vào những thuật toán và dữ liệu đầu vào được con người cung cấp, AI có khả năng được xem xét trao tư cách pháp lý hay không? Giả sử, một hệ thống AI khuyến nghị hoặc tự đưa ra quyết định gây thiệt hại; được xác định là “có lỗi” đối với thiệt hại xảy ra. Dưới góc độ của khoa học pháp lý truyền thống, các hành vi gây thiệt hại của AI gắn liền với trách nhiệm pháp lý của nhà cung cấp dịch vụ AI hoặc người sử dụng ứng dụng AI. Tuy nhiên, đối với một số hệ thống AI có mức độ phức tạp cao, nhà cung cấp dịch vụ và người dùng không thể lường trước hoặc kiểm soát được hành vi của AI một cách hợp lý. Trong trường hợp này, việc xác định trách nhiệm thuộc về nhà cung cấp dịch vụ AI hay người dùng AI còn phù hợp hay không[35]? Có ý kiến cho rằng, việc trao cho hệ thống AI tư cách pháp lý (hoặc thành lập pháp nhân đại diện cho hành vi của AI) là cần thiết nhằm xác định trách nhiệm pháp lý của hệ thống AI trong bối cảnh AI ngày càng có khả năng tự quyết vượt ngoài phạm vi điều khiển và nhận thức của con người[36].
Thứ ba, việc huấn luyện mô hình AI đòi hỏi phải xử lý khối lượng dữ liệu rất lớn. Trong đó, nhiều dữ liệu có thể được thu thập, lưu trữ, xử lý, đăng tải trái pháp luật, như dữ liệu cá nhân hoặc các đối tượng được bảo hộ quyền sở hữu trí tuệ. Tính hợp pháp của việc sử dụng các dữ liệu nói trên để huấn luyện mô hình AI là vấn đề đang tranh cãi trong các vụ tranh chấp dân sự. Ví dụ, tại Hoa Kỳ, OpenAI đang bị kiện tập thể với cáo buộc đã “đánh cắp thông tin cá nhân, bao gồm cả những thông tin nhận dạng từ hàng trăm triệu người dùng Internet, bao gồm cả trẻ em, mà họ không được biết hoặc đồng ý”[37]; The New York Times kiện OpenAI và Microsoft vì đã sử dụng các bài viết của tờ báo này để huấn luyện mô hình ngôn ngữ lớn GPT[38].
Từ các lý do trên, mặc dù các quy định hiện hành đã cơ bản đáp ứng được các yêu cầu về bảo vệ quyền và lợi ích chính đáng của các chủ thể khỏi các rủi ro từ AI nhưng vào thời điểm hiện tại, cần phải tiếp tục nghiên cứu một cách nghiêm túc, bài bản và có lộ trình hoàn thiện hệ thống pháp luật của Việt Nam, nâng cao mức độ sẵn sàng của hệ thống pháp luật trước những rủi ro mới từ ứng dụng AI trong tương lai.
4. Một số đề xuất nâng cao mức độ sẵn sàng của hệ thống pháp luật trước rủi ro từ trí tuệ nhân tạo ở Việt Nam
Thứ nhất, cần lựa chọn phương thức kiểm soát rủi ro từ AI phù hợp. Như đã phân tích, có 03 nhóm cơ chế pháp lý kiểm soát rủi ro từ AI, bao gồm cơ chế các chủ thể tự kiểm soát rủi ro, cơ chế quản lý tiền kiểm và cơ chế quản lý hậu kiểm. Trong đó, ưu tiên hàng đầu là xây dựng hành lang pháp lý thông thoáng, linh hoạt, thống nhất, công bằng để các bên có thể chủ động tự bảo vệ hoặc thông qua các thiết chế giải quyết tranh chấp bảo vệ quyền và lợi ích hợp pháp của mình. Đây là cách thức thể hiện sự tôn trọng quyền tự quyết, tự thỏa thuận của các bên; tận dụng các nguồn lực xã hội; hạn chế sự can thiệp quá mức của Nhà nước vào các quan hệ dân sự và phù hợp nhất với cơ chế thị trường.
Đối với những khía cạnh của AI mà thị trường không thể tự điều tiết và bắt buộc Nhà nước phải đặt vấn về quản lý trực tiếp, Nhà nước cũng cần phải xác định cơ chế tiền kiểm hay hậu kiểm là phù hợp để kiểm soát những rủi ro đặc thù của AI. Để trả lời câu hỏi này, chúng ta cần phải nhận diện một số khác biệt cơ bản giữa cơ chế tiền kiểm và cơ chế hậu kiểm như sau:
– Về tính chất tuân thủ, cơ chế tiền kiểm đưa ra các quy trình, thủ tục chặt chẽ, rõ ràng, cụ thể và thường mang tính định lượng, do đó các chủ thể dễ tuân thủ hơn; hoạt động áp dụng pháp luật của các cơ quan quản lý cũng được thống nhất. Việc các chủ thể tuân thủ đầy đủ các trình tự, thủ tục là “tấm khiên” bảo vệ các chủ thể khỏi nhiều trách nhiệm pháp lý. Nói cách khác, khi các chủ thể hoàn thành nghĩa vụ pháp lý của mình và được cơ quan nhà nước có thẩm quyền chấp thuận, xác nhận, chứng nhận, một phần rủi ro đã được chuyển cho cơ quan nhà nước nói trên. Trong khi đó, cơ chế hậu kiểm là phương thức quản lý có độ mở cao, linh hoạt hơn cho các chủ thể tự lựa chọn phương thức tuân thủ, nhưng dễ phát sinh rủi ro pháp lý trong quá trình thanh tra, kiểm tra, xác minh và xử lý vi phạm nếu không thống nhất cách hiểu, cách áp dụng với cơ quan quản lý nhà nước. Trong trường hợp này, các chủ thể phải chịu trách nhiệm toàn diện về hành vi của mình.
– Về chi phí tuân thủ, do bản chất của cơ chế tiền kiểm là các chủ thể phải đáp ứng các điều kiện trước khi tiến hành các hoạt động thuộc phạm vi quản lý, chi phí tuân thủ thường sẽ dồn vào giai đoạn chuẩn bị ban đầu. Sau giai đoạn này, các chi phí duy trì điều kiện hoạt động sẽ phát sinh nhưng thường với mức thấp hơn. Đồng thời, đối với cùng một điều kiện thì chi phí tuân thủ sẽ có sự tương đồng giữa các chủ thể (ví dụ, để được cấp một loại giấy phép thì các cá nhân, tổ chức sẽ phải bỏ ra khoản chi phí cơ bản như nhau). Ngược lại, chi phí tuân thủ khi áp dụng cơ chế hậu kiểm có thể được phân bổ linh hoạt trước, trong và sau khi tiến hành các hoạt động thuộc phạm vi quản lý; mức chi phí sẽ không cố định mà phụ thuộc vào phương thức tuân thủ mà các chủ thể lựa chọn để phù hợp với điều kiện về tổ chức, tài chính, nhân lực của mình.
– Về hiệu quả, cơ chế tiền kiểm có hiệu quả phòng ngừa rủi ro từ xa, trong khi cơ chế hậu kiểm hướng đến kiểm soát rủi ro đã thành hình, kiểm soát hậu quả và có tác dụng răn đe.
Do đó, cơ chế tiền kiểm là phù hợp hơn để điều chỉnh những vấn đề đã được xác định cụ thể, khoanh vùng được nội hàm đối tượng quản lý và phương pháp quản lý để đạt được các mục tiêu quản lý đối với mỗi đối tượng quản lý cụ thể (do cơ chế tiền kiểm quản lý về điều kiện chủ thể). Khi các vấn đề trên được xác định đầy đủ và chính xác, cơ chế tiền kiểm sẽ phòng ngừa tối đa những rủi ro có thể phát sinh. Trong khi đó, cơ chế hậu kiểm phát huy tác dụng khi quản lý những vấn đề chưa rõ ràng về đối tượng quản lý, chưa xác định được phải áp dụng điều kiện nào mới phù hợp; chỉ kiểm soát những hành vi gây thiệt hại đến trật tự quản lý nhà nước, quyền và lợi ích hợp pháp của các chủ thể trong xã hội. Vì vậy, từ góc độ quản lý nhà nước, AI nên được quản lý theo cơ chế hậu kiểm.
Từ góc độ hiệu quả kinh tế – xã hội, hiện nay, công nghệ AI phát triển nhanh chóng với nhiều hình thức đa dạng, phong phú; mức độ cạnh tranh của ngành công nghiệp AI trên thế giới là rất cao, các sản phẩm, dịch vụ AI phát triển tại nước ngoài rất dễ tiếp cận tại thị trường Việt Nam. Do đó, nếu xác định AI là công nghệ cần ưu tiên phát triển ở Việt Nam, chúng ta cần có cơ chế quản lý thông thoáng, linh hoạt, tiết kiệm thời gian, chi phí tuân thủ để khuyến khích các cá nhân, tổ chức ở Việt Nam nghiên cứu, phát triển, thương mại hóa các hệ thống AI; ưu tiên quản lý hậu kiểm để hạn chế rào cản tiếp cận thị trường AI. Đây cũng là quan điểm quản lý nhà nước được nêu tại Văn kiện Đại hội đại biểu toàn quốc lần thứ XIII của Đảng: “thực hiện phương thức, công cụ quản lý nhà nước chủ yếu bằng điều tiết gián tiếp, tăng cường hậu kiểm; giảm tối đa rủi ro pháp lý và chi phí tuân thủ đối với người dân và doanh nghiệp”[39].
Thứ hai, nhằm tạo điều kiện cho các bên tự kiểm soát rủi ro từ trí tuệ nhân tạo, Nhà nước cần hoàn thiện hệ thống pháp luật chung và pháp luật chuyên ngành liên quan đến vấn đề AI để tránh các khoảng trống pháp lý trong hoạt động nghiên cứu AI; huấn luyện, xây dựng thuật toán, mô hình AI; thương mại hóa AI và sử dụng các ứng dụng AI. Ngoài các nhóm quy định mà Thủ tướng Chính phủ đã giao cho các Bộ quản lý chuyên ngành rà soát theo Quyết định số 127/QĐ-TTg, pháp luật về bảo vệ dữ liệu cá nhân, bảo vệ quyền lợi người tiêu dùng, lao động, bình đẳng giới, người khuyết tật… cũng cần được đặc biệt chú trọng nghiên cứu, rà soát để bảo vệ nhóm người dễ bị tổn thương khỏi những rủi ro đến từ AI.
Thứ ba, việc quản lý các hoạt động liên quan đến AI cần bảo đảm công khai, minh bạch, khách quan, tiết kiệm thời gian, chi phí tuân thủ của cá nhân, tổ chức. Ngoài ra, hình thức quản lý cần được xem xét trên cơ sở phân loại hệ thống AI theo mức độ rủi ro (tương tự như Đạo luật AI của EU). Mức độ rủi ro của mỗi hệ thống AI cần phải được đánh giá toàn diện, minh bạch và công bằng theo quy mô, mức độ thông minh, mục đích sử dụng, lĩnh vực sử dụng và cách thức huấn luyện. Trong bối cảnh Chính phủ quyết tâm cắt giảm, đơn giản hóa ngành nghề kinh doanh có điều kiện, điều kiện kinh doanh[40] và cải thiện môi trường kinh doanh, nâng cao năng lực cạnh tranh quốc gia[41], hình thức quản lý AI cần phải được nghiên cứu một cách nghiêm túc, thận trọng; tránh quản lý “cào bằng” giữa các hệ thống AI với mức độ rủi ro khác nhau; tránh hiện tượng “không quản được thì cấm”; không hình sự hóa quan hệ kinh tế[42]. Đối với những ngành, nghề có ứng dụng AI nhưng đã có điều kiện đầu tư kinh doanh để kiểm soát rủi ro và cơ chế bảo đảm chất lượng sản phẩm, dịch vụ, cần phải tận dụng tối đa cơ chế kiểm soát đã quy định trong pháp luật hiện hành; tránh đặt thêm điều kiện quản lý ứng dụng AI trong ngành, nghề đó. Ngoài ra, việc xây dựng cơ chế thử nghiệm có kiểm soát (regulatory sandbox) đối với hoạt động AI cũng nên được cân nhắc.
Thứ tư, Việt Nam cần tích cực, chủ động tham khảo kinh nghiệm quốc tế liên quan đến kiểm soát rủi ro từ AI để tăng tốc độ phản ứng chính sách, tránh tình trạng bị động trước những vấn đề pháp lý mới liên quan đến AI. Trong bối cảnh nhiều quốc gia có hệ thống AI phát triển trên thế giới đã và đang hình thành khung pháp lý về AI, việc pháp luật Việt Nam có sự hài hòa về quan điểm, định hướng, nguyên tắc chung được cộng đồng quốc tế thừa nhận trong quản lý AI sẽ tạo môi trường thuận lợi để thu hút nguồn vốn đầu tư nước ngoài cũng như giúp doanh nghiệp Việt Nam tiếp cận thị trường nước ngoài dễ dàng hơn trong lĩnh vực AI. Minh chứng cho xu hướng này, Bộ Thông tin và Truyền thông đã tham khảo kinh nghiệm xác định hệ thống AI có rủi ro cao của EU tại Điều 65 Dự thảo Luật Công nghiệp công nghệ số[43]./.
(Nguồn tin: Bài viết đăng tải trên ấn phẩm Nghiên cứu lập pháp số 17(496), tháng 9/2024)

Lưu ý: Các nội dung tư vấn hoặc văn bản pháp luật được trích dẫn trên có thể đã thay đổi hoặc hết hiệu lực tại thời điểm hiện tại. Khách hàng vui lòng liên hệ với chúng tôi qua số điện thoại: 0867.678.066 để được tư vấn hỗ trợ một cách chính xác.


Khách hàng cần tư vấn chi tiết mời liên hệ:
VĂN PHÒNG LUẬT SƯ DƯƠNG CÔNG
Văn phòng: Số 10 ngõ 40 Trần Vỹ, phường Mai Dịch, quận Cầu Giấy, Hà Nội
Số điện thoại: 0867.678.066
Email: vanphongluatsuduongcong@gmail.com
Tikok: www.tiktok.com/@lscchannel

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *