Công nghệ

Phát triển bền vững trí tuệ nhân tạo: Cần khung khổ pháp lý phù hợp

Thu Hằng 25/03/2024 - 06:31

Trí tuệ nhân tạo (AI) phát triển nhanh chóng và đang có những tác động to lớn đối với kinh tế - xã hội. Bên cạnh lợi ích to lớn, sự phát triển của AI đang làm dấy lên những quan ngại sâu sắc về các rủi ro tiềm ẩn từ khía cạnh đạo đức, xã hội, pháp lý.

Do đó, các cơ quan chức năng cần xây dựng khung pháp lý phù hợp nhằm phát triển AI bền vững, có trách nhiệm.

ai.jpg
Công ty Javis Home giới thiệu giải pháp AI nhận diện chủ nhân, mở cửa tự động bằng khuôn mặt cũng như chống đột nhập từ xa.

Tiềm ẩn nhiều nguy cơ, rủi ro

Những năm gần đây, trước sự phát triển mạnh mẽ của công nghệ, AI đã thâm nhập vào nhiều lĩnh vực trong đời sống. Tuy nhiên, một mặt AI giúp nâng cao năng suất lao động, tạo ra nhiều của cải hơn cho xã hội, song mặt khác cũng đem lại không ít lo ngại. Các nhà nghiên cứu đã đưa ra dự báo sự phát triển của AI sẽ gây ra những hệ lụy, đó là mất việc làm và sự tái cơ cấu lao động; bất bình đẳng trong tiếp cận công lý và hưởng thụ; mất tự do và xâm phạm quyền riêng tư; quyền sở hữu trí tuệ và tin giả.

Tại Việt Nam, tháng 1-2021, Chính phủ đã ban hành Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng trí tuệ nhân tạo đến năm 2030. Chiến lược tập trung vào phát triển AI tại Việt Nam nhưng thiếu định hướng quản trị rủi ro đến từ công nghệ này.

Theo PGS.TS Bùi Thu Lâm (Học viện Kỹ thuật mật mã), hiện nay đang có một loạt thách thức đối với phát triển AI ở Việt Nam. Đó là thiếu nhân công về AI; nền tảng mở cho AI (dữ liệu, phần mềm, ứng dụng) mang đặc thù Việt Nam hầu như chưa có. Bên cạnh đó là các thách thức pháp lý như: Địa vị pháp lý của AI; trách nhiệm pháp lý trong ứng dụng AI (dân sự, hình sự, hành chính); bảo vệ dữ liệu cá nhân trong ứng dụng AI; quyền sở hữu trí tuệ trong ứng dụng AI...

Trong bối cảnh AI đang “tăng tốc” và được ứng dụng mạnh mẽ, việc có một chính sách cân bằng giữa tạo môi trường thuận lợi cho phát triển AI, đồng thời giảm rủi ro, bảo vệ người dùng, rộng hơn là bảo vệ xã hội và con người là yêu cầu đang đặt ra cấp thiết.

Xây dựng khung pháp lý phù hợp với thực tiễn

Hiện nay, nhiều tổ chức và quốc gia trên thế giới đã có những nỗ lực nhằm phát triển khung pháp lý và đạo đức để quản lý, kiểm soát và thúc đẩy AI có trách nhiệm. Cuối năm 2023, Liên minh châu Âu đã thông qua các nguyên tắc trong đạo luật AI Act, dự kiến công bố muộn nhất vào quý II-2024. Đây là bộ luật đầu tiên và toàn diện nhất, có nhiều sáng kiến nhằm đối phó với nguy cơ từ AI.

Khác với châu Âu, Mỹ lại xem xét các phản ứng từ khu vực tư nhân để xây dựng cách quản lý AI. Còn Trung Quốc, năm 2023, nước này đã ban hành Hướng dẫn về tiêu chuẩn quản trị AI có đạo đức. Các nước ASEAN cũng ban hành khuôn khổ chung về quản trị AI (năm 2023)...

Ngày 21-3 vừa qua, Đại hội đồng Liên hợp quốc đã thông qua nghị quyết toàn cầu đầu tiên về AI. Có thể nói, thế giới đang tương đối thống nhất về các nguyên tắc cơ bản của AI có trách nhiệm, đó là: AI phải vì con người, không gây hại cho con người; AI phải bảo đảm thực hiện đúng như mục tiêu thiết kế đề ra; an toàn và bảo mật; bình đẳng, công bằng; bảo vệ dữ liệu cá nhân và bảo hộ quyền tác giả. Trong đó, Việt Nam hiện cũng đang nghiên cứu việc triển khai các quy định về phát triển AI tại nhiều quốc gia trên thế giới để xây dựng khung pháp lý phù hợp với thực tiễn trong nước nhằm phát triển AI có trách nhiệm.

Theo Thứ trưởng Bộ Khoa học và Công nghệ Bùi Thế Duy, đạo đức và trách nhiệm trong AI nằm ở tất cả các khâu, từ xây dựng thuật toán, thu thập dữ liệu, đến công cụ huấn luyện và ứng dụng. Vì vậy, vấn đề này phải được quan tâm ngay từ khâu xây dựng hệ thống, liên quan đến nhiều bộ, ngành. Bên cạnh đó, việc bảo đảm an toàn dữ liệu cá nhân, tôn trọng quyền tác giả, bản quyền sở hữu trí tuệ, nâng cao năng suất lao động nhưng cần bảo vệ môi trường, an sinh xã hội cũng được coi trọng.

“Với mô hình nhận diện giọng nói bằng AI, nếu chỉ thu thập nguồn dữ liệu từ người Hà Nội, hệ thống sẽ sai lệch khi tương tác với người vùng miền khác. Mở rộng ra, nguồn dữ liệu AI có thể gây bất công giữa các giới tính, các nhóm trong xã hội... Do đó, để phát triển AI công bằng, ngoài các chuyên gia luật, còn cần sự đóng góp của chuyên gia tâm lý học, xã hội học”, Thứ trưởng Bùi Thế Duy nhấn mạnh.

Bà Nguyễn Lan Phương, Viện Nghiên cứu chính sách và Phát triển truyền thông (Hội Truyền thông số Việt Nam) cho rằng, dựa trên nền tảng và điều kiện quốc gia, Việt Nam cần tìm ra hướng tiếp cận chính sách phù hợp với mình, thay vì chờ đợi sự thành công của các mô hình quản lý AI trên thế giới rồi học tập, vay mượn.

“Với bài toán vừa phải tận dụng thành tựu của công nghệ AI để bứt phá thành quốc gia phát triển vào năm 2045, vừa phải quản lý rủi ro do AI tạo ra để phát triển bền vững, các công cụ chính sách mềm dẻo có thể là lời giải cho Việt Nam, bao gồm chính sách quản lý thử nghiệm và bộ quy tắc ứng xử. Việc sớm hoàn thiện chiến lược và ban hành chính sách phù hợp liên quan đến AI sẽ giúp Việt Nam tận dụng thời cơ để phát triển kinh tế - xã hội”, bà Nguyễn Lan Phương nêu ý kiến.

(0) Bình luận
Nổi bật
Đừng bỏ lỡ
Phát triển bền vững trí tuệ nhân tạo: Cần khung khổ pháp lý phù hợp

(*) Không sao chép dưới mọi hình thức khi chưa có sự đồng ý bằng văn bản của Báo Hànộimới.