Współcześnie dość często, jeśli nie coraz częściej mówi się o algorytmach, które mają nam proponować określone treści na podstawie naszych indywidualnych preferencji. Czy zatem jako użytkownicy nie przeoczyliśmy momentu ograniczenia naszej autonomii? A może dobrowolnie zrzekamy się jej na rzecz łatwego dostępu do preferowanych treści?
Pytania te dość często zdają się nam umykać w świecie przesyconym informacjami. Zarówno tymi, które mają jakiś związek z naszym życiem, przeszłością czy przyszłością, jak i tymi które są nam zbędne i zasadniczo – dość często trudne do weryfikacji.
Jako członek redakcji Blogosfery doświadczyłem niedawno dość ciekawej rozmowy o temacie, którego nie chcę tu przytaczać. Jednak przedmiot tej rozmowy (w mojej skromnej ocenie, niewidoczny dla adwersarza) zdaje się znajdować nieco obok tematu rozmowy. Ta enigmatyczna struktura poprzedniego zdania, zmierza do tego, że coraz częściej zdarza nam się zamykać w tzw. bańkach informacyjnych i zbierać oraz komentować te informacje, które krótko mówiąc odpowiadają naszej optyce i preferencjom. Należy w takim wypadku zadać sobie pytanie dot. etyki użytkowania mediów społecznościowych. Kto ponosi odpowiedzialność za dezinformację, algorytmy czy człowiek ? To wydawałoby się łatwe pytanie, gdyby nie fakt, że sam użytkownik w pewnym momencie traci czujność i nie zdaje sobie już w pełni sprawy z tego, że poddaje się działaniu algorytmu, który czasem potrafi otrzeć się o inne bańki informacyjne. Dziś struktury i mnogość spersonalizowanych algorytmów powoduje, że tak naprawdę bańkę informacyjną może skonstruować każdy człowiek, który zna odpowiednie zagrywki socjotechniczne, szczególnie dla społeczności internetowej. Z kolei owe otarcie się o inne bańki skutkuje a priori odrzuceniem informacji w nań się znajdujących. I tu właśnie punkt centralny ma pytanie o etykę użytkowania social mediów.
Istnieje też inne pytanie, tym razem fenomenologiczne – czy wolność jakiej doświadczamy w social mediach stoi równomiernie na tej samej płaszczyźnie co wolność rozumiana w sposób cielesny, osobisty? Odpowiedź jest oczywista (że, nie) choć wkrada się tu jeszcze jeden wątek. Mianowicie gdybyśmy mieli sobie wyobrazić użytkownika social mediów, który stara się ponad wszystko, być uczciwym w korzystaniu ze swojej wolności, to czy przypadkiem nie zrzeka się on automatycznie wolności do działań jakkolwiek ,,anonimowych”? Chcąc ponosić odpowiedzialność za swoje słowa, zachowanie czy po prostu sposób bycia w social mediach, musi on podpisywać się pod swoimi działaniami swoim imieniem i nazwiskiem. Widzimy zatem pewien paradoks, związany z niemożliwością korzystania w pełni z tego co na wyciągnięcie ręki w internecie niezależnie od naszych intencji.
Trzecie pytanie to pytanie ontologiczne – Czy AI jest nowym bytem rodzaju sprawczego?
Istnieje pewien haniebny proceder, polegający na stawianiu przez niektórych lekarzy diagnoz na podstawie analizy różnych chatbotów z AI. Ten proceder na razie coraz częściej jest upubliczniany w USA, niemniej również i w Polsce istnieją doniesienia o podobnych przypadkach. Czy lekarz w takim razie korzystając z takiej możliwości podpisuje się pod diagnozą czy tylko nią kieruje w orzeczeniu swojej? Jakikolwiek przypadek by to nie był, to lekarz w ten sposób sam ujmuje sobie kompetencji. Tłumaczenie, że jest to jedynie narzędzie jest ontologicznie niespójne. Z narzędzia korzysta się w świadomym procesie działania. Tu zaś owo narzędzie, występuje w roli eksperta uosobionego.
Franciszek Cwalina – absolwent reżyserii dźwięku na wydziale fizyki UAM w Poznaniu oraz magister Kognitywistyki na wydziale filozofii UJ w Krakowie. Kocha muzykę, Kraków i jego historię. W wolnym czasie zgłębia kuchnię starokrakowską i galicyjską.


