EU công bố hướng dẫn về phát triển trí tuệ nhân tạo có đạo đức
Cập nhật vào: Chủ nhật - 12/05/2019 21:40 Cỡ chữ
Ngày 8/4/2019, Liên minh châu Âu (EU) đã công bố Hướng dẫn về phát triển trí tuệ nhân tạo có đạo đức (Guidelines on Developing ethical AI). Đây là một bộ hướng dẫn về cách các công ty và chính phủ nên phát triển các ứng dụng của trí tuệ nhân tạo có đạo đức.
Để xây dựng Hướng dẫn, EU đã triệu tập một nhóm gồm 52 chuyên gia từ các học viện, cơ quan công nghiệp và các công ty để đưa ra 7 yêu cầu mà họ nghĩ rằng các hệ thống AI trong tương lai nên đáp ứng, đó là:
Con người can thiệp và giám sát: AI không nên chà đạp lên quyền tự chủ của con người. Mọi người không nên bị thao túng hoặc ép buộc bởi các hệ thống AI và con người sẽ có thể can thiệp hoặc giám sát mọi quyết định mà phần mềm đưa ra.
An toàn và tin cậy về kỹ thuật: AI phải an toàn, chính xác, không dễ dàng bị xâm phạm bởi các cuộc tấn công bên ngoài, và đáng tin cậy.
Quyền riêng tư và quản trị dữ liệu: Dữ liệu cá nhân được thu thập bởi các hệ thống AI phải được bảo mật, riêng tư, không nên được tiếp cận bởi bất cứ ai, và không dễ dàng bị đánh cắp.
Tính minh bạch: Dữ liệu và thuật toán được sử dụng để tạo ra một hệ thống AI nên được truy cập và các quyết định được đưa ra bởi phần mềm nên được hiểu và có thể được truy tìm bởi con người. Nói cách khác, các nhà khai thác có thể giải thích các quyết định mà hệ thống AI của họ đưa ra.
Đa dạng, không phân biệt đối xử và công bằng: Các dịch vụ do AI cung cấp phải có sẵn cho tất cả mọi người, bất kể tuổi tác, giới tính, chủng tộc hoặc các đặc điểm khác.
Môi trường và xã hội: Các hệ thống AI phải bền vững (nghĩa là chúng phải đảm bảo về mặt sinh thái) và thúc đẩy thay đổi xã hội theo hướng tích cực.
Trách nhiệm: Các hệ thống AI phải được kiểm toán và được bảo vệ. Tác động tiêu cực của hệ thống nên được thừa nhận và báo cáo trước.
Ông Andrus Ansip, Phó Chủ tịch EU về thị trường kỹ thuật số, cho rằng “Khía cạnh đạo đức của AI không là phần xa xỉ hay một đặc tính bổ sung. Xã hội chúng ta phải có sự tin tưởng để hưởng lợi hoàn toàn từ công nghệ”. EU nhận định AI đã và đang chuyển đổi doanh nghiệp theo nhiều hướng khác nhau. Nó giúp doanh nghiệp tự động hóa các nhiệm vụ lặp đi lặp lại và phân tích luồng dữ liệu. Dù vậy, công nghệ này đặt ra một loạt câu hỏi về mặt đạo đức, chẳng hạn như làm thế nào để bảo đảm rằng các thuật toán được lập trình mà không có sự thiên vị, và làm thế nào để AI chịu trách nhiệm nếu sự cố xảy ra. Do đó, EU muốn rằng công nghệ AI được kiểm soát và phát triển một cách có đạo đức. Theo EU, các công ty liên quan tới AI cần thiết lập các cơ chế trách nhiệm để ngăn chặn nó bị lạm dụng. Nhiều doanh nghiệp công nghệ lớn cũng đang cố gắng đảm bảo điều này. Hướng dẫn mới về phát triển AI của cho thấy nỗ lực của EU để trở thành khu vực đi đầu trong việc quản lý AI. EU đã thực thi nhiều luật bảo mật dữ liệu mang tính bước ngoặt trong năm 2018, trong đó phạt nhiều hãng công nghệ như Google và Apple. Trong đầu tư cho AI, EU vẫn kém Mỹ và châu Á: EU đầu tư từ 2,4 - 3,2 tỉ EUR (2,7 - 4,15 tỉ USD) trong năm 2016, so với mức 10,9 tỉ USD ở châu Á và 20,9 tỉ USD ở Bắc Mỹ.
NASATI (Theo The Verge)