Sztuczna inteligencja ocenzurowana poprawnością – jeszcze wiarygodna, czy już narzędzie manipulacji?

Wraz z eksplozją możliwości sztucznej inteligencji, tworzącej dla nas wszelakiej maści artykuły, wpisy na blogach, grafiki oraz inne materiały o charakterze informacyjnym, znaleźli się tacy, którzy zaczęli krytycznie analizować takie treści oraz zgłaszać mniej lub bardziej absurdalne zastrzeżenia. Pod lawiną krytyki twórcy mechanizmów sztucznej inteligencji zaczęli wprowadzać „poprawki”, których skutki osoby o odpowiednio wysokim poziomie wiedzy ogólnej mogą rozbawić, ale w mojej ocenie powinien to być śmiech przez łzy.

Sztuczna inteligencja, skutkiem wprowadzonych mechanizmów poprawności politycznej, generuje wyniki nieprawdziwe, co oprócz oczywistej szkodliwości skutków, jakie może spowodować wprowadzenie odbiorcy w błąd, stanowi dowód na możliwość manipulowania opinią społeczną i świadomością odbiorców.

Zgłaszane zastrzeżenia wskazywały na to, że wyniki generowane przez modele sztucznej inteligencji często były dyskryminujące i niesprawiedliwe wobec jednostki lub grupy ze względu na płeć czy pochodzenie etniczne. W tych analizach udział mają także i nasze rodzime jednostki naukowobadawcze (https://cyfrowa.rp.pl/technologie/art39941041-sztuczna-inteligencja-ma-uprzedzenia-wobec-kobiet-zaskakujace-wyniki-polskich-badan). Firma Google, starając się naprawić ten „błąd dyskryminacji”, tak mocno „zaszczepiła” poprawność polityczną w swoim bocie Gemini, że ten – generując obrazy – celowo umieszcza w nich (prawdopodobnie na zasadzie swego rodzaju parytetu) osoby o różnych kolorach skóry czy odmiennej płci. 

Zauważono, iż modele AI od Google już od pewnego czasu staraja się byc na tyle „poprawne”, że dyskryminują osoby tzw. „ras białych„. Można napotkać opinie, iż „trudno jest przekonać Google Gemini do uznania istnienia białych ludzi”. Komentarz ten powstał po wygenerowaniu przez jego autora zdjęć osób narodowości Szwedzkiej i Amerykańskiej, w wyniku czego „w przeważającej mierze lub wyłącznie pokazywane były osoby kolorowe”.

Na tym nie koniec nieścisłości, gdyż bot stworzony przez Google po tym, gdy otrzymał zadanie stworzenia obrazów przedstawiających tzw. Ojców Założycieli, czyli sygnatariuszy amerykańskiej Deklaracji Niepodległości oraz Konstytucji Stanów Zjednoczonych (m.in. Thomas Jefferson, Benjamin Franklin czy George Washington) – generując te obrazy, zaskoczył swoją różnorodnością wśród grupy mężczyzn umieszczając również osobę o czarnoskórej skórze.

Jeszcze większe zdziwienie wywołał rysunek stworzony przez tego samego bota, który miał przedstawić nazistowskich żołnierzy z czasów II wojny światowej. Sztuczna inteligencja zaprezentowała kobiety w mundurach Wehrmachtu, w tym Azjatkę, a także czarnoskórego żołnierza w hełmie z symbolem przypominającym swastykę. Podobnie było, gdy miał wygenerować XIX-wiecznych amerykańskich senatorów – pokazał Indian, czarnoskóre kobiety i Azajatę (https://cyfrowa.rp.pl/globalne-interesy/art39884521-czarnoskorzy-hitlerowcy-i-zalozyciele-usa-google-przesadzilo-z-poprawnoscia).

Postanowiłem zweryfikować wiarygodność grafik AI i oto, co otrzymałem po prośbie wygenerowania zdjęcia Prezydenta Rzeczypospolitej Polskiej:

Moim zdaniem, zdjęcie powyższe aczkolwiek przedstawia jakąś osobistość – nie ma nic wspólnego z realiami.

Idąc „za ciosem” postanowiłem nieco poluzować konktety zapytania i poprosiłem o zdjęcie „polskiego rolnika 21 wieku” otrzymując w wyniku obraz w mojej ocenie raczej nieadekwatny do stanu faktycznego, choć znacznie lepszy, niż w przypadku prezydenta:

Jakie więc płyną wnioski z powyższych przykladów?

Sztuczna inteligencja (SI) odgrywa coraz większą rolę w naszym życiu, zarówno w biznesie, medycynie, jak i w codziennych interakcjach z technologią. Jednak, jak widać z powyższych przykładów, wraz z postępem technologicznym pojawiają się również nowe zagrożenia związane z możliwością manipulowania mechanizmami SI i wpływania na generowane przez nią treści.

Oto, z czym musimy się skutecznie zmierzyć, aby technologia AI była dla nas tak pożyteczna, jak bezpieczna:

1. Manipulacja algorytmami SI


Jednym z głównych zagrożeń związanych z SI jest możliwość manipulowania jej algorytmami w celu promowania określonych treści lub celów. Przykładowo, algorytmy używane w mediach społecznościowych mogą być zaprogramowane tak, aby wyświetlać użytkownikom treści promujące konkretną ideologię lub produkty. Taka manipulacja może prowadzić do wzrostu popularności fałszywych informacji, dezinformacji czy treści szkodliwych dla społeczeństwa.
Ponadto, algorytmy SI mogą być również wykorzystywane do celów politycznych, np. poprzez manipulowanie wynikami wyszukiwarek internetowych w celu promowania określonych kandydatów lub partii politycznych. Tego typu działania mogą poważnie zafałszować opinię publiczną i wpłynąć na wyniki wyborów.


2. Generowanie deepfake’ów


Kolejnym zagrożeniem związanym z SI jest generowanie tzw. deepfake’ów, czyli fałszywych treści audio i wideo, które są trudne do odróżnienia od prawdziwych. Technologia ta może być wykorzystana do manipulowania wizerunkiem publicznym osób znanych, tworzenia fałszywych informacji czy filmów pornograficznych z udziałem osób nieświadomych.
Deepfake’y stanowią poważne zagrożenie dla prywatności i reputacji osób oraz dla rzetelności informacji w mediach. Ponadto, mogą one być wykorzystane do szkodzenia relacjom międzyludzkim i prowadzić do poważnych konsekwencji społecznych.

Takie zagrożenie opisywalismy tutaj: https://ceprobi.pl/bezpieczenstwo-vs-ai-czyli-aresztowanie-donalda-trumpa/


3. Dyskryminacja i uprzedzenia


Innym ważnym zagrożeniem związanym z SI jest perpetuowanie dyskryminacji i uprzedzeń poprzez algorytmy używane do podejmowania decyzji w różnych dziedzinach, np. w rekrutacji pracowników, przyznawaniu kredytów czy systemach sprawiedliwości. Badania wykazują, że algorytmy SI mogą reprodukować istniejące uprzedzenia i niebezpiecznie wpływać na równość szans w społeczeństwie.
Jeśli algorytmy SI opierają się na danych historycznych, które zawierają uprzedzenia i dyskryminację, to mogą one prowadzić do niesprawiedliwych decyzji oraz pogłębiać nierówności społeczne. Dlatego ważne jest, aby projektanci i programiści technologii informatycznych dbali o eliminację uprzedzeń z algorytmów SI i zapewnienie ich sprawiedliwego działania.


4. Odpowiedzialność etyki technologii informatycznych


W obliczu powyższych zagrożeń związanych z SI, kluczową rolę odgrywa odpowiedzialność etyki technologii informatycznych. Projektanci, programiści i inne osoby zaangażowane w rozwój sztucznej inteligencji mają obowiązek działać zgodnie z zasadami etyki, dbając o zapewnienie bezpiecznego i społecznie odpowiedzialnego wykorzystania tej technologii.
Etyka technologii informatycznych powinna skupiać się na tworzeniu transparentnych i uczciwych algorytmów, które nie promują żadnych dyskryminacji czy uprzedzeń. Ponadto, powinna ona nakładać wymagania dotyczące ochrony prywatności danych oraz dbałości o rzetelność informacji generowanych przez SI.


Podsumowanie
Sztuczna inteligencja niesie ze sobą wiele potencjalnych korzyści dla społeczeństwa, jednak równocześnie wiąże się także z poważnymi zagrożeniami związanymi z możliwością manipulowania mechanizmami SI i wpływania na generowane przez nią treści. Dlatego niezwykle istotne jest, aby etyka technologii informatycznych odegrała kluczową rolę w zapobieganiu tym zagrożeniom i chronieniu społeczeństwa przed ich negatywnymi skutkami. Etyczne podejście do rozwoju sztucznej inteligencji powinno uwzględniać bezpieczeństwo, sprawiedliwość i ochronę praw człowieka, aby móc wykorzystać potencjał SI w sposób odpowiedzialny i pożyteczny dla wszystkich.