W ramach Warsaw Gallery Weekend, 26-29.09.2024, godz. 11-19 Czas trwania wystawy: 26.09-16.11.2024 Kontroler Osądu – urządzenie do monitorowania wymiaru sprawiedliwości
Przemysław Jasielski

Miejsce

26.09.2024 - 16.11.2024
Zakończone

W erze sztucz­nych sys­te­mów „sztucz­na spra­wie­dli­wość” zda­je się wyzna­czać gra­ni­ce ety­ki tech­no­lo­gicz­nej. W mia­rę jak sys­te­ma­tycz­nie odda­je­my osąd nad naszy­mi zacho­wa­nia­mi spo­łecz­ny­mi w ręce sztucz­nej inte­li­gen­cji, nasze ludz­kie poczu­cie dobra i zła sta­je się coraz bar­dziej powierz­chow­ne. Ta powierz­chow­ność nie wyni­ka jed­nak z powszech­no­ści maszyn inte­li­gent­nych czy algo­ryt­micz­ne­go podej­mo­wa­nia decy­zji, lecz z dłu­giej histo­rii sto­so­wa­nia przez ludz­kość sys­te­mów moni­to­ro­wa­nia moral­no­ści. Kon­tro­ler wymia­ru spra­wie­dli­wo­ści czer­pie z tej histo­rii, bada­jąc, w jaki spo­sób wyko­rzy­sta­nie zaawan­so­wa­nej tech­no­lo­gii ujaw­nia para­doks eks­ter­na­li­za­cji osą­du moral­ne­go i posta­ci auto­ry­te­tu moral­ne­go. KWS opie­ra się zarów­no na subiek­tyw­no­ści AI, jak i na ludz­kich odnie­sie­niach spra­wie­dli­wo­ści. Wszyst­kie te odnie­sie­nia, któ­re okre­śla­ją moral­ne postę­po­wa­nie i upraw­nie­nia spo­łecz­ne (wszyst­kie one są subiek­tyw­ne i kul­tu­ro­wo stron­ni­cze), zawie­ra­ją wewnętrz­ny błąd, któ­ry urzą­dze­nie ujaw­nia na zasa­dzie „maszy­ni­stycz­ne­go kapry­su”. To, dla­cze­go coś jest uwa­ża­ne za spra­wie­dli­we lub nie­spra­wie­dli­we — lub, co waż­niej­sze, w jaki spo­sób decy­du­je­my o czy­jejś winie i karze – sta­no­wi kon­fi­gu­ra­cję nie­ja­snych decy­zji. Jak widać w wie­lu eks­pe­ry­men­tach psy­cho­lo­gicz­nych i wyni­kach badań nad tech­no­lo­gią spra­wie­dli­wo­ści, decy­zje te są zbyt czę­sto spro­wa­dza­ne do abs­trak­cyj­nych para­me­trów i miar uży­wa­nych, oraz nad­uży­wa­nych, przez spo­łe­czeń­stwo. Jest to szcze­gól­nie widocz­ne w eks­pe­ry­men­cie Stan­leya Mil­gra­ma, z któ­re­go „Kon­tro­ler” czer­pie inspi­ra­cję. W prze­pro­wa­dzo­nym na począt­ku lat sześć­dzie­sią­tych dwu­dzie­ste­go wie­ku eks­pe­ry­men­cie Mil­gram badał, w jakim stop­niu jed­nost­ki mogą być posłusz­ne wobec auto­ry­te­tów, nawet jeśli wyda­wa­ne im pole­ce­nia są moral­nie wąt­pli­we lub wręcz szko­dli­we dla innych. W ramach eks­pe­ry­men­tu, pewien auto­ry­tet poin­stru­ował uczest­ni­ków bada­nia (sędziów), aby za każ­dym razem, gdy w zada­niu pamię­cio­wym ucznio­wie popeł­nią jakiś błąd, apli­ko­wa­li im coraz sil­niej­sze wstrzą­sy elek­trycz­ne. Pomi­mo nasi­la­ją­cych się pro­te­stów i widocz­ne­go cier­pie­nia uczniów, wie­lu uczest­ni­ków nadal sto­so­wa­ło wstrzą­sy, jeśli auto­ry­tet ich do tego zachę­cał. Poka­zu­je to, że zwy­kli ludzie są zdol­ni do wyrzą­dza­nia krzyw­dy innym, jeśli pro­wa­dzi ich ktoś, kto jest dla nich auto­ry­te­tem. Inte­rak­tyw­na maszy­na — ucie­le­śnie­nie auto­ry­te­tu i sędzie­go w jed­nym — Kon­tro­ler Wymia­ru Spra­wie­dli­wo­ści wyko­rzy­stu­je algo­ryt­my sztucz­nej inte­li­gen­cji do oce­ny praw­do­po­do­bień­stwa popeł­nie­nia prze­stęp­stwa przez użyt­kow­ni­ka, a następ­nie samo­dziel­nie wymie­rza spra­wie­dli­wość. Jego struk­tu­ra przy­po­mi­na fał­szy­wy gene­ra­tor wstrzą­sów elek­trycz­nych zbu­do­wa­ny przez Mil­gra­ma i może być ste­ro­wa­ny za pomo­cą pokrę­teł, któ­re odpo­wia­da­ją płci, kolo­ro­wi skó­ry, sta­tu­so­wi eko­no­micz­ne­mu, pocho­dze­niu etnicz­ne­mu, toż­sa­mo­ści sek­su­al­nej itp. W opar­ciu o te para­me­try tech­no­lo­gia roz­po­zna­wa­nia twa­rzy pro­wa­dzi urzą­dze­nie do osta­tecz­ne­go wer­dyk­tu w spra­wie skłon­no­ści użyt­kow­ni­ka do popeł­nie­nia prze­stęp­stwa, a następ­nie tych, któ­rych uzna za win­nych, pora­ża impul­sem elek­trycz­nym. Para­me­try oce­ny, któ­re decy­du­ją o stop­niu „winy” użyt­kow­ni­ka, decy­du­ją rów­nież o sile kar­ne­go impul­su elek­trycz­ne­go. W ten spo­sób pra­ca bez­po­śred­nio nawią­zu­je do tech­no­lo­gii sztucz­nej inte­li­gen­cji wyko­rzy­sty­wa­nych w sys­te­mach wymia­ru spra­wie­dli­wo­ści w USA i Chi­nach, a któ­re obec­nie są wciąż w fazie pla­no­wa­nia w Euro­pie. Inte­rak­cja z Kon­tro­le­rem Wymia­ru Spra­wie­dli­wo­ści pozwa­la na doświad­czal­ną kon­cep­tu­ali­za­cję tych tech­no­lo­gii, a zwłasz­cza loso­wo­ści algo­ryt­micz­ne­go podej­mo­wa­nia decy­zji, któ­re­go impli­ka­cje dla nad­zo­ru nad spo­łe­czeń­stwem zwy­kli­śmy igno­ro­wać. Jak wska­zu­je Jon Fasman, autor „We See It All”, wyko­rzy­sta­nie tech­no­lo­gii obser­wa­cji ope­ra­cyj­nej — w tym tech­no­lo­gii roz­po­zna­wa­nia twa­rzy, auto­ma­tycz­ne­go odczy­tu tablic reje­stra­cyj­nych, dro­nów i algo­ryt­mów pre­dyk­cyj­nych — budzi poważ­ne oba­wy doty­czą­ce pry­wat­no­ści, wol­no­ści i praw oby­wa­tel­skich. Włą­cze­nie tych tech­no­lo­gii do arse­na­łu orga­nów ści­ga­nia wyma­ga kry­tycz­ne­go zba­da­nia ich impli­ka­cji moral­nych, praw­nych i poli­tycz­nych. Pod­sta­wo­wą kwe­stią jest to, w jaki spo­sób tech­no­lo­gie te wpły­wa­ją na pra­wa jed­nost­ki i bez­pie­czeń­stwo publicz­ne. Fasman pod­kre­śla rów­nież potrze­bę nowe­li­za­cji prze­sta­rza­łych prze­pi­sów pra­wa regu­lu­ją­cych kwe­stie pry­wat­no­ści, pier­wot­nie zapro­jek­to­wa­nych na potrze­by ery przed­cy­fro­wej, w celu spro­sta­nia nowym wyzwa­niom sta­wia­nym przez nowo­cze­sne narzę­dzia nad­zo­ru. Ist­nie­je rów­nież głę­bo­ka oba­wa o moż­li­wość nie­wła­ści­we­go wyko­rzy­sta­nia tych tech­no­lo­gii przez rzą­dy, co może być źró­dłem poważ­ne­go zagro­że­nia dla swo­bód oby­wa­tel­skich. Nad­zór AI jest zna­ny z nie­od­łącz­nej stron­ni­czo­ści cechu­ją­cej wie­le jej algo­ryt­mów, czę­sto odzwier­cie­dla­ją­cej i wzmac­nia­ją­cej ist­nie­ją­ce uprze­dze­nia spo­łecz­ne, co pro­wa­dzi do dys­kry­mi­na­cji lub nie­pro­por­cjo­nal­ne­go ukie­run­ko­wa­nia na „okre­ślo­ne” gru­py spo­łecz­ne i oso­by. Tech­no­lo­gia roz­po­zna­wa­nia twa­rzy wyka­zu­je wyż­sze wskaź­ni­ki błę­dów dla osób kolo­ro­wych, co rodzi poważ­ne pyta­nia o jej rze­tel­ność i dokład­ność. Ale to nie wszyst­ko. Algo­ryt­my pre­dyk­cyj­ne w orga­nach ści­ga­nia zapro­jek­to­wa­ne w celu pro­gno­zo­wa­nia aktyw­no­ści prze­stęp­czej w opar­ciu o dane histo­rycz­ne utrwa­la­ją nad­mier­ny nad­zór nad nie­któ­ry­mi gru­pa­mi spo­łecz­ny­mi. Powszech­ny brak uwzględ­nie­nia czyn­ni­ków spo­łecz­no-eko­no­micz­nych i sys­te­mo­wych, któ­re przy­czy­nia­ją się do skrzy­wio­nej inter­pre­ta­cji danych, skut­ku­je podej­ściem repre­syj­nym i uprze­dze­nia­mi w spra­wach kar­nych. Rodzi to istot­ne pyta­nia moral­ne i praw­ne doty­czą­ce roli sztucz­nej inte­li­gen­cji w utrwa­la­niu ist­nie­ją­cych nie­rów­no­ści, ale tak­że nie­uda­nej sku­tecz­no­ści osą­du moral­ne­go.

Ania Mali­now­ska

źró­dło: https://leguern.pl/pl/wystawy/4343-wgw-2024-przemyslaw-jasielski-kontroler-osadu