8. Monitoring
8.19 ImageNet Roullette
Sztuczna inteligencja „uczy się” dzięki analizowaniu obrazów. Analizuje ich strukturę, a następnie przyporządkowuje do kategorii. Projekt ImageNet Roullette artysty Trevora Paglena oraz badaczki Kate Crawford ujawnił, że sztuczna inteligencja (służąca m.in. do automatycznego przyporządkowywania obrazów w bazach danych) powiela rasistowskie i seksistowskie stereotypy, których uczy się od ludzi. ImageNet Roullette pozwalała użytkownikom i użytkowniczkom internetu dodawać swoje zdjęcia (np. selfie) do bazy danych i sprawdzać, jak zostaną przyporządkowane do kategorii przez sztuczną inteligencję „wytrenowaną” przez analizę milionów obrazów dostępnych w sieci. Bardzo szybko okazało się, że osoby czarne przyporządkowywane są do kategorii określających je przez pryzmat wyłącznie koloru skóry, podczas gdy osoby białe były opisywane o wiele większą różnorodnością kategorii.
Co ciekawe, projekt zadziałał dzięki stworzeniu aplikacji umożliwiającej łatwe i szybkie załadowanie selfie. Efekty, czyli zdjęcia opatrzone kategoriami przez sztuczną inteligencję, były publikowane przez użytkowników i użytkowniczki w mediach społecznościowych i zadziałały jak viral. ImageNet Roullette stworzyła algorytm opisu zdjęć w oparciu o zasoby ImageNet – jednej z największych baz obrazów (14 milionów) służących do treningu sztucznej inteligencji. Projekt, w zamierzeniu krytyczny, doprowadził do tego, że ImageNet usunęła ze swojej bazy ponad 600 tysięcy fotografii (to połowa z kategorii „osoby”), których sposób przyporządkowania skutkował dyskryminującymi opisami.