Định nghĩa
AI có trách nhiệm đề cập đến việc thiết kế, phát triển và triển khai các hệ thống AI có đạo đức, minh bạch, công bằng và có trách nhiệm. Nó nhấn mạnh việc giảm thiểu rủi ro và tối đa hóa lợi ích xã hội.
Mục đích
Mục đích là đảm bảo AI phù hợp với quyền con người, an toàn và công bằng. Các hoạt động AI có trách nhiệm sẽ hướng dẫn các tổ chức triển khai AI đáng tin cậy.
Tầm quan trọng
- Xây dựng niềm tin vào việc áp dụng AI.
- Ngăn ngừa những tác động có hại hoặc phân biệt đối xử.
- Đảm bảo tuân thủ các quy định.
- Thúc đẩy tính minh bạch và trách nhiệm giải trình.
Quy trình triển khai
- Xác định các nguyên tắc và hướng dẫn đạo đức.
- Đánh giá rủi ro trong suốt vòng đời của AI.
- Áp dụng các biện pháp bảo vệ như kiểm tra tính công bằng và kiểm toán thiên vị.
- Giám sát liên tục các hệ thống đã triển khai.
- Ghi chép và truyền đạt các hoạt động thực hành cho các bên liên quan.
Ví dụ (Thực tế)
- Tiêu chuẩn AI có trách nhiệm của Microsoft.
- Nguyên tắc AI của Google.
- Các nguyên tắc AI của OECD được chính phủ trên toàn thế giới áp dụng.
Tài liệu tham khảo / Đọc thêm
- Nguyên tắc AI của OECD.
- Khung quản lý rủi ro AI của NIST.
- Jobin, A. và cộng sự. “Bối cảnh toàn cầu của các nguyên tắc đạo đức AI.” Nature.
- AI có trách nhiệm là gì?