PolskiEnglish
Strona Główna |Impressum |Kariera tel.:(+48) 22 440 15 00
creditreform@creditreform.pl
Creditreform Polska Sp. z o.o.
Kontakt 08:00 - 16:00

22 440 15 00

creditreform@creditreform.pl

Narzędzie PwC zmierzy uczciwość sztucznej inteligencji

Całkowite wyeliminowanie uprzedzeń AI jest niemożliwe, ale eksperci twierdzą, że firmy powinny zobowiązać się do stworzenia definicji sprawiedliwości i zaakceptowania kompromisy

narzedzie-pwc-zmierzy-uczciwosc-sztucznej-inteligencji-jpg

 

Wykorzystanie sztucznej inteligencji (AI) coraz bardziej skupia uwagę na niewygodnym pytaniu: czym jest sprawiedliwość? Przemysł sztucznej inteligencji od kilku lat formułuje i kompiluje definicje uczciwości, które można stosować w celu zminimalizowania stronniczości w systemach sztucznej inteligencji. Eksperci od sztucznej inteligencji podkreślają jednak, że wybór jednej definicji spośród innych wymaga kompromisów i może kolidować z cudzym pojęciem sprawiedliwości.


- Ostatecznie definicja uczciwości określa, które grupy społeczne powinny być chronione przed stronniczością, w jakim stopniu i za jaką cenę - zauważa Anand Rao, globalny lider sztucznej inteligencji w PricewaterhouseCoopers LLP.
W rzeczywistości sytuacja jest taka, że ??zawsze ktoś będzie pokrzywdzony. To jakby redystrybucja szkód.  Jeżeli przyjmujemy na studia więcej kandydatów z nieuprzywilejowanych warstw społecznych, co często postrzegane jest jako niezbędne do osiągnięcia sprawiedliwości, oznacza to, że zamożniejsi studenci z lepszymi wynikami mogą nie zostać przyjęci.
PricewaterhouseCoopers planuje zaoferować klientom zestaw narzędzi Odpowiedzialny AI. Ma on zawierać narzędzie z 32 ustawieniami różnych rodzajów uprzedzeń. Użytkownik będzie mógł dokonać selekcji informacji w celu osiągnięcia pożądanego parytetu wyników dla różnych grup społecznych.


Ta kwestia zyskała na pilności, ponieważ maszyny coraz częściej decydują o tym, kto otrzymuje pożyczkę, kredyt hipoteczny, zostaje zaproszony na rozmowę o pracę lub ma mieć… przedłużony wyrok więzienia. Sztuczna inteligencja jest również wykorzystywana do innych decyzji, np. do tego, kto może zobaczyć określone reklamy. W niektórych przypadkach algorytmy sztucznej inteligencji, wyszkolone na danych historycznie tendencyjnych, wykazały tendencję do faworyzowania białych mężczyzn. Gdy użytkownicy sztucznej inteligencji wybierają definicję uczciwości, która jest dla nich ważna, pierwszym krokiem jest podjęcie decyzji, która kategoria społeczna - taka jak rasa, płeć, religia, wiek, orientacja seksualna lub niepełnosprawność - powinna być chroniona.


Narzędzie AI PricewaterhouseCoopers może pokazywać wyniki analityczne dla wszystkich 32 ustawień uczciwości, umożliwiając urzędnikom firmy podjęcie ostatecznej decyzji w sprawie tego, co ich zdaniem jest najbliższe spełnieniu wymogów prawnych i oczekiwań społecznych.  Ludzkie zaangażowanie jest zatem niezbędne do ochrony przed stronniczością sztucznej inteligencji.

Pan/Pani
Firma:
Imię:
Nazwisko:
Adres e-mail:
*
Współpracujemy z

Federation of Business Information Service

Monitor Urzędowy

Polsko-Niemiecka Izba Przemysłowo-Handlowa