Việt Nam ra nguyên tắc AI không được gây tổn hại tính mạng, tài sản người dùng

Việt Nam lần đầu có bộ quy tắc về đạo đức

Trí tuệ nhân tạo (AI) được nhận định sẽ mang lại lợi ích to lớn cho con người, xã hội và cả nền kinh tế Việt Nam. Song song với việc ứng dụng AI, Việt Nam đã bước đầu nghiên cứu, có biện pháp giảm thiểu các rủi ro trong quá trình phát triển, sử dụng AI, cân đối giữa các yếu tố kinh tế, đạo đức và pháp lý.

Đây cũng là lý do Bộ Khoa học & Công nghệ (KH&CN) ban hành bộ Tài liệu hướng dẫn một số nguyên tắc về nghiên cứu, phát triển các hệ thống trí tuệ nhân tạo có trách nhiệm.

Tài liệu hướng dẫn nêu ra một số nguyên tắc chung, các khuyến nghị tự nguyện tham khảo, áp dụng trong quá trình nghiên cứu, thiết kế, phát triển, cung cấp các hệ thống trí tuệ nhân tạo.

Cơ quan, tổ chức khoa học và công nghệ, tổ chức, doanh nghiệp, cá nhân có hoạt động nghiên cứu, thiết kế, phát triển, cung cấp các hệ thống trí tuệ nhân tạo được khuyến khích áp dụng tài liệu hướng dẫn này.

Các mẫu robot của Viện Hàn lâm Khoa học Công nghệ Việt Nam tại Triển lãm quốc tế Đổi mới sáng tạo Việt Nam năm 2023. Ảnh: Trọng Đạt

Theo đó, việc nghiên cứu, phát triển các hệ thống AI ở Việt Nam cần dựa trên quan điểm cơ bản là hướng đến một xã hội lấy con người làm trung tâm, mọi người được hưởng những lợi ích từ trí tuệ nhân tạo, đảm bảo sự cân bằng hợp lý giữa lợi ích và rủi ro.

Hoạt động nghiên cứu, phát triển các hệ thống AI tại Việt Nam hướng đến việc đảm bảo tính trung lập về công nghệ. Trong mọi trường hợp, Bộ KH&CN khuyến khích việc trao đổi, thảo luận với sự tham gia của các bên liên quan. Các nguyên tắc, hướng dẫn sẽ tiếp tục được nghiên cứu, cập nhật để phù hợp với tình hình thực tiễn.

Bộ KH&CN cho biết, sự ra đời của bộ tài liệu nhằm thúc đẩy sự quan tâm nghiên cứu, phát triển và sử dụng trí tuệ nhân tạo ở Việt Nam một cách an toàn và có trách nhiệm, hạn chế tối đa các ảnh hưởng tiêu cực cho con người và cộng đồng. Điều này sẽ tăng sự tin tưởng của người dùng và xã hội đối với AI và tạo điều kiện thuận lợi cho việc nghiên cứu, phát triển trí tuệ nhân tạo ở Việt Nam.

Các nguyên tắc phát triển AI có trách nhiệm

Trong bộ tài liệu, các nhà phát triển được khuyến khích thể hiện tinh thần hợp tác, thúc đẩy đổi mới sáng tạo thông qua việc kết nối và tương tác của các hệ thống trí tuệ nhân tạo. Nhà phát triển phải đảm bảo tính minh bạch bằng việc kiểm soát đầu vào/đầu ra của hệ thống AI và khả năng giải thích các phân tích có liên quan.

Nhà phát triển cần chú ý đến khả năng kiểm soát hệ thống trí tuệ nhân tạo và đánh giá trước các rủi ro liên quan. Một trong những phương pháp đánh giá rủi ro là tiến hành thử nghiệm trong một không gian riêng như phòng thí nghiệm hoặc môi trường nơi đảm bảo an ninh, an toàn trước khi đưa vào áp dụng thực tế.

Ngoài ra, để đảm bảo khả năng kiểm soát hệ thống trí tuệ nhân tạo, các nhà phát triển nên chú ý đến việc giám sát hệ thống (có công cụ đánh giá/giám sát hoặc hiệu chỉnh/cập nhật dựa trên các phản hồi của người dùng) và các biện pháp ứng phó (ngắt hệ thống, ngắt mạng…) được thực hiện bởi con người hoặc các hệ thống AI đáng tin cậy.

Một bạn trẻ đặt câu hỏi cho "robot" trí tuệ nhân tạo Anan do các kỹ sư Việt Nam phát triển. Ảnh: Trọng Đạt

Nhà phát triển cần đảm bảo rằng, hệ thống trí tuệ nhân tạo sẽ không gây tổn hại đến tính mạng, thân thể hoặc tài sản của người dùng hoặc bên thứ ba, kể cả thông qua trung gian; cần chú ý đến tính bảo mật của hệ thống trí tuệ nhân tạo, độ tin cậy và khả năng chống chịu các dạng tấn công hoặc tai nạn vật lý của hệ thống; cần đảm bảo hệ thống AI không vi phạm quyền riêng tư của người dùng hoặc bên thứ ba. Quyền riêng tư được đề cập trong nguyên tắc bao gồm quyền riêng tư về không gian (sự yên bình trong cuộc sống cá nhân), quyền riêng tư về thông tin (dữ liệu cá nhân) và sự bí mật của việc thông tin liên lạc.

Khi phát triển các hệ thống trí tuệ nhân tạo, nhà phát triển phải đặc biệt quan tâm đến việc tôn trọng quyền và phẩm giá con người. Trong phạm vi có thể, tùy theo đặc điểm của công nghệ được áp dụng, nhà phát triển cần thực hiện các biện pháp đảm bảo không gây ra sự phân biệt đối xử, không công bằng do thiên vị (định kiến) trong dữ liệu huấn luyện. Không chỉ vậy, nhà phát triển cần thực hiện trách nhiệm giải trình của mình đối với các bên liên quan và hỗ trợ người dùng.