NIST wydał raport na temat zapobiegania uprzedzeniom systemów sztucznej inteligencji

15 marca br. amerykański Narodowy Instytut Standaryzacji i Technologii (National Institute of Standards and Technology, odpowiednik polskiego Głównego Urzędu Miar) opublikował opracowanie pt. W kierunku standaryzacji identyfikacji i zarządzania uprzedzeniami w sztucznej inteligencji (Towards a Standard for Identifying and Managing Bias in Artificial Intelligence).

Dokument ten stanowi praktyczny przewodnik pokazujący, jak zapobiegać powstawaniu uprzedzeń przy projektowaniu, wdrażaniu oraz wykorzystywaniu systemów sztucznej inteligencji. Autorzy opracowania wskazują, że opracowanie obiektywnego systemu AI (ang. artificial intelligence, sztuczna inteligencja) wymaga szerszego podejścia, niż tylko wykorzystanie statystycznych i technicznych metod zapobiegania uprzedzeniom. W opinii autorów kluczowe jest szersze spojrzenie na tę kwestię, co oznacza, branie pod uwagę także uprzedzeń zakorzenionych w jednostkach, jak i uprzedzeń społecznych oraz systemowych.

Raport zawiera szereg wskazówek dotyczących zarządzania, testowania, a także weryfikacji systemów AI. Autorzy między innymi sugerują, by osoby odpowiedzialne za tworzenie systemów AI brały pod uwagę, czy wykorzystywane przez nich zbiory danych są odpowiednie do okoliczności społecznych, w których dany system AI będzie wykorzystywany. Raport zawiera także sugestie dotyczące uwzględniania czynników ludzkich, które mogą przyczyniać się do stronniczości, takich jak uprzedzenia społeczne.

Źródło: https://www.nist.gov/publications/towards-standard-identifying-and-managing-bias-artificial-intelligence