Hiệu trưởng Trường ĐH Luật Nguyễn Thị Quế Anh phát biểu tại hội thảo Hiệu trưởng Trường ĐH Luật Nguyễn Thị Quế Anh cho biết, mục tiêu của hội thảo là thảo luận kinh nghiệm quốc tế về xây dựng Bộ nguyên tắc thúc đẩy sự phát triển và ứng dụng của AI có trách nhiệm; trên cơ sở đó, tổng hợp khuynh hướng - mô hình điển hình trên thế giới và bước đầu rút ra một số hàm ý chính sách về phát triển AI có trách nhiệm ở Việt Nam. Các ý kiến tại Hội thảo cho rằng điểm chung của các bộ nguyên tắc trí tuệ nhân tạo (AI) có trách nhiệm trên thế giới là các nguyên tắc nền tảng: vì lợi ích của con người; đa dạng, bao trùm, không phân biệt đối xử; an toàn, bảo đảm quyền riêng tư và quản trị dữ liệu; minh bạch, trách nhiệm và trách nhiệm giải trình, … Các tham luận trình bày cũng như các ý kiến thảo luận tại hội thảo đều khẳng định, AI ngày càng phát triển nhanh chóng và tác động tới mọi mặt kinh tế - xã hội của các quốc gia. Bên cạnh những lợi ích to lớn, sự phát triển của AI cũng đã và đang làm dấy lên những quan ngại về các rủi ro tiềm ẩn khi các ứng dụng AI vi phạm các chuẩn mực đạo đức và pháp lý như việc các thuật toán có thể gây ra sự thiên vị, phân biệt đối xử, bất bình đẳng, xâm phạm quyền riêng tư và dữ liệu cá nhân… Khuyến khích phát triển và ứng dụng AI có trách nhiệm Trong 5 năm từ 2019 - 2024, các tổ chức quốc tế, các quốc gia và khu vực đã có động thái tích cực, khẩn trương trong xây dựng thể chế, chính sách, bộ nguyên tắc đạo đức nhằm thúc đẩy sự phát triển của AI đáng tin cậy và có trách nhiệm, hạn chế rủi ro, tác động tiêu cực do AI mang lại. Đáng chú ý, năm 2021, UNESCO đã ban hành “Khuyến nghị về các khía cạnh đạo đức của AI” nhằm hướng dẫn các quốc gia giải quyết một cách có trách nhiệm những tác động của AI đối với con người, xã hội, môi trường và hệ sinh thái. TS. Jonathan Wallace Baker - Trưởng đại diện UNESCO tại Việt Nam cho biết, Khuyến nghị dựa trên các giá trị và nguyên tắc được kết nối với nhau. Các giá trị gồm: tôn trọng, bảo vệ và thúc đẩy quyền con người, các quyền tự do cơ bản và phẩm giá con người; môi trường và hệ sinh thái hưng thịnh; bảo đảm tính đa dạng và toàn diện; xã hội hòa bình, công bằng và gắn kết. Bên cạnh đó là 10 nguyên tắc, trong đó cân đối và không gây hại; an toàn và bảo mật; công bằng và không phân biệt đối xử; bền vững; quyền riêng tư và bảo vệ dữ liệu; sự giám sát và quyết tâm của con người; minh bạch và khả năng giải thích; trách nhiệm và trách nhiệm giải trình... TS. Jonathan Wallace Baker - Trưởng đại diện UNESCO tại Việt Nam “Các nguyên tắc đã có từ nhiều năm nhưng Khuyến nghị đi vào chi tiết các hành động cụ thể nhằm bảo đảm trách nhiệm giải trình, trách nhiệm, minh bạch cũng như các quy định cần thiết để bảo đảm nhà nước pháp quyền”, TS. Jonathan Wallace Baker nhấn mạnh. Năm 2023, Australia trở thành quốc gia đầu tiên trên thế giới công bố việc thành lập mạng lưới về AI có trách nhiệm để khuyến khích phát triển và ứng dụng AI có trách nhiệm ở nước này. Theo GS. TS. Andy Hall, nghiên cứu viên cao cấp, Tổ chức Nghiên cứu Khoa học và Công nghiệp Australia (CSIRO), AI có trách nhiệm ở Australia là một ví dụ về quy trình tư vấn xây dựng lòng tin. Chính phủ Australia sử dụng khuôn khổ dựa trên rủi ro để hỗ trợ việc sử dụng AI một cách an toàn và ngăn ngừa tác hại xảy ra từ AI, bao gồm cả việc xem xét nghĩa vụ đối với các nhà phát triển và triển khai AI dựa trên mức độ rủi ro do việc sử dụng, triển khai hoặc phát triển AI gây ra. Cân bằng nhu cầu đổi mới và nhu cầu bảo vệ lợi ích cộng đồng, bao gồm quyền riêng tư, bảo mật và an toàn công cộng và trực tuyến. “Đặc biệt, Chính phủ Australia đặt người dân và cộng đồng làm trung tâm khi phát triển và thực hiện các phương pháp quản lý của mình. Điều này có nghĩa là giúp bảo đảm AI được thiết kế, phát triển và triển khai có xem xét nhu cầu, khả năng và bối cảnh xã hội của mọi người”, GS. TS. Andy Hall nhấn mạnh. GS. TS. Andy Hall, nghiên cứu viên cao cấp, Tổ chức Nghiên cứu Khoa học và Công nghiệp Australia (CSIRO) Bảo đảm các nguyên tắc nền tảng Tại Việt Nam, năm 2021, Thủ tướng Chính phủ đã ban hành Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng AI đến năm 2030, trong đó nêu rõ định hướng: “Phát triển và ứng dụng AI lấy con người và doanh nghiệp làm trung tâm, tránh lạm dụng công nghệ và xâm phạm quyền, lợi ích hợp pháp của tổ chức cá nhân”. Đây là định hướng quan trọng và xuyên suốt phải bảo đảm trong việc hoàn thiện, xây dựng hệ thống văn bản quy phạm pháp luật và hành lang pháp lý liên quan đến AI. Trên cơ sở nghiên cứu kinh nghiệm quốc tế, có xem xét đến các đặc thù Việt Nam, ngày 11/6 vừa qua, Bộ Khoa học và Công nghệ đã ban hành Quyết định số 1290/QĐ-BKHCN hướng dẫn một số nguyên tắc về nghiên cứu, phát triển các hệ thống AI có trách nhiệm (Hướng dẫn AI R&D). Theo ông Trần Anh Tú, Phó Vụ trưởng Vụ Công nghệ cao, Bộ Khoa học và Công nghệ, cần thúc đẩy áp dụng, thực hành các nguyên tắc này vào thực tiễn. Tiếp tục nghiên cứu kinh nghiệm các nước, khuyến nghị của các tổ chức quốc tế về AI; hướng dẫn để phát triển AI có trách nhiệm trong các ngành/lĩnh vực, dựa trên đặc thù của từng lĩnh vực như y tế, giáo dục, nông nghiệp… Ông Trần Anh Tú, Phó Vụ trưởng Vụ Công nghệ cao, Bộ Khoa học và Công nghệ Từ kinh nghiệm quốc tế, các chuyên gia, nhà nghiên cứu đã đưa ra một số khuyến nghị cho quá trình xây dựng Bộ nguyên tắc và một số hướng dẫn cho phát triển AI có trách nhiệm ở Việt Nam. Theo đó, để phát triển AI có trách nhiệm, cần hệ thống thể chế, chính sách, nguyên tắc điều chỉnh, với sự kết hợp chặt chẽ giữa các quy định pháp luật cứng mang tính ràng buộc với các quy tắc “mềm” như đạo đức, hướng dẫn, khuyến nghị. Bởi pháp luật thường đi sau sự phát triển công nghệ, đối với các công nghệ mới nổi, cách tiếp cận kết hợp giữa luật cứng và luật mềm là sự lựa chọn phù hợp nhất. Việc xây dựng Bộ nguyên tắc đạo đức thúc đẩy sự phát triển của AI có trách nhiệm là nhu cầu tất yếu khách quan để xây dựng niềm tin của người dùng và xã hội nói chung vào các hệ thống AI đang được phát triển và ứng dụng ngày càng sâu rộng vào mọi mặt đời sống xã hội. Do AI đang phát triển nhanh chóng nên Bộ nguyên tắc và các hướng dẫn về AI có trách nhiệm cần mang tính linh hoạt, thích ứng, thường xuyên được đánh giá, cập nhật, bổ sung. Điểm chung của các bộ nguyên tắc AI có trách nhiệm trên thế giới là các nguyên tắc nền tảng: vị nhân sinh, vì lợi ích của con người; tôn trọng tính tự chủ và sự giám sát của con người; bền vững và an toàn; bảo đảm quyền riêng tư và quản trị dữ liệu; minh bạch và có thể giải thích được; đa dạng, bao trùm; bình đẳng, không phân biệt đối xử; trách nhiệm và trách nhiệm giải trình… Đó là những kinh nghiệm có giá trị tham khảo đối với Việt Nam, tuy nhiên khi áp dụng cần xem xét đến những đặc thù kinh tế - xã hội của Việt Nam để có quy định phù hợp.
>>> Tin tức liên quan: - Trí tuệ nhân tạo có trách nhiệm trong lĩnh vực y tế: Nhận diện các rủi ro và thách thức - Trí tuệ nhân tạo có trách nhiệm trong lĩnh vực giáo dục - Nâng cao nhận thức xã hội về các cam kết sở hữu trí tuệ trong các hiệp định thương mại tự do thế hệ mới |