Jeżeli sztuczna, to na pewno nie inteligencja?

Wyrażenie „sztuczna inteligencja” (artificial intelligence – AI) należy niewątpliwie do najbardziej popularnych określeń ostatnich miesięcy. Wywołuje ono w takim samym stopniu fascynację, co poważny obawy. Niektórzy próbują bagatelizować te ostatnie, mówiąc, że jeżeli jest ona sztuczna, to już na pewno nie jest inteligencją. Jednak tak proste to zagadnienie nie jest. To, że ludzie stanęli po raz kolejny przed problemem technicznym, który sami wytworzyli, nie ulega żadnej wątpliwości. Jednak wydaje się, że jest to najpoważniejszy z dotychczasowych problemów związanych z techniką. Tak jednak, jak przesadzone wydają się obawy jednych, że sztuczna inteligencja przejmie ostatecznie władzę nad ludzkością i zniszczy ją, tak też naiwna wydaje się wiara innych, którzy twierdzą, że ludzkości na pewno bardzo szybko uda się znaleźć środki zaradcze na problemy, które sama stworzyła. Nie ulega wątpliwości, że mamy tu do czynienia z bardzo sprawnym narzędziem, dlatego warto najpierw docenić to, co w rozwoju sztucznej inteligencji jest niewątpliwie prawdziwym błogosławieństwem.

Obszarem, w którym systemy sztucznej inteligencji przynoszą człowiekowi oczywistą korzyść, jest medycyna. Systemy te potrafią o wiele bardziej precyzyjnie i o wiele szybciej postawić prawidłową diagnozę, porównując setki tysięcy obrazów i danych, co pozwala wychwycić nieregularności i odchylenia od normy. Ale także w innych, bardzo nietypowych dziedzinach ludzkiej aktywności, sztuczna inteligencja oddaje nieocenione usługi. Potrafi np. bezbłędnie rozpoznawać i odróżniać pojedyncze osobniki jakiegoś zagrożonego gatunku w oparciu o zdjęcia i filmy, co nie zawsze jest możliwe dla badających te zwierzęta naukowców. Sztuczna inteligencja może także oddać nieocenione usługi w zakresie wyszukiwania szczegółowych informacji w sieci, spersonalizowanych ofert na rynku pracy lub też konkretnych produktów w gąszczu ofert.

Obok tych pozytywnych stron sztucznej inteligencji, istnieją jednak także takie jej możliwości, które budzą niepokój. Niepokojący może być sam fakt, że systemy sztucznej inteligencji potrafią już same się rozwijać i rozwiązywać pojawiające się problemy w sposób, którego ich konstruktorzy nierzadko sami nie są w stanie do końca zrozumieć. Wreszcie, jak wszystkie narzędzia wytwarzane przez człowieka, sztuczna inteligencja może zostać użyta do bardzo problematycznych celów, np. do jeszcze sprawniejszej kontroli nad społeczeństwem, do celów militarnych czy też do działań przestępczych.

Wobec tych wyzwań społeczność międzynarodowa nie pozostaje całkowicie bierna. Warto tu wskazać na dwa dokumenty, które zostały opublikowane w pierwszym półroczu 2024 r. Pierwszym z nich jest przyjęty przez Parlament Europejski 13 marca 2024 Artificial Intelligence Act – pierwszy dokument prawny w tej dziedzinie na świecie. W dokumencie dokonano kategoryzacji potencjalnych zagrożeń płynących z używania sztucznej inteligencji. Określono cztery kategorie, charakteryzujące się ryzykiem minimalnym, ograniczonym, wysokim i nieakceptowalnym. Podczas gdy używanie systemów mieszczące się w pierwszych trzech kategoriach mają być poddane odpowiednim do stopnia zagrożenia regułom i ograniczeniom, rozwój i używanie systemów o nieakceptowalnym ryzyku mają zostać wykluczone.

Drugi dokument, któremu tu warto poświęcić więcej miejsca, to przemówienie papieża Franciszka z 14 czerwca 2024, na szczycie państw grupy G7 (najbardziej rozwinięte państwa świata) w Borgo Egnazia we włoskiej Apulii. Papież szeroko omawia w nim różne kwestie związane z rozwojem sztucznej inteligencji. Franciszek nie ma wątpliwości, że „pojawienie się sztucznej stanowi prawdziwą rewolucję poznawczo-przemysłową, która przyczyni się do stworzenia nowego systemu społecznego, charakteryzującego się złożonymi przemianami epokowymi”. Papież pozytywnie ocenia sam fakt, że człowiek tworzy coraz to doskonalsze narzędzia, gdyż technologia ucieleśnia zdolność ludzkiej osoby do wykraczania poza siebie, do transcendowania swoich ograniczeń.

Jednocześnie Franciszek nie zamyka oczu na potencjalne niebezpieczeństwa. Jednym z nich byłaby sytuacja, gdyby to maszyny miały dokonywać kluczowych wyborów, pozbawiając ludzi możliwości decydowania o sobie i swoim życiu. Jak podkreśla papież, „potrzebujemy gwarancji i ochrony pewnej przestrzeni znaczącej kontroli dokonywanej przez istoty ludzkie, nad procesem wyboru programów sztucznej inteligencji: chodzi o samą godność ludzką”.  Franciszek przestrzega także przed sytuacją, gdy systemom sztucznej inteligencji zostają przekazane kompetencje decydowania o losie danej osoby. Systemy te mogą dokonywać tego w oparciu o ideologicznie uwarunkowane uprzedzenia i stereotypy, które zostały uprzednio umieszczone w ich oprogramowaniu. Algorytmy nie są nigdy ani neutralne, ani w pełni obiektywne. Kategorycznie domaga się papież, aby żadna maszyna nie została obdarzona zdolnością ostatecznego decydowania, czy odebrać życie danej osobie.

Innym niebezpieczeństwem jest ryzyko użycia systemów sztucznej inteligencji do legitymizacji fałszywych wiadomości. Ostatecznie może to godzić w cały system edukacyjny, w którym w miejsce autentycznej refleksji pojawić się może dominacja treści, których jedyną legitymizacją jest fakt, że są uznane przez systemy sztucznej inteligencji za niebudzące zastrzeżeń i dlatego często powtarzane. Papież Franciszek domaga się poważnej etycznej refleksji nad zjawiskiem sztucznej inteligencji w ramach „algoretyki”.

Specyfika tego niezwykłego narzędzia, jakim jest sztuczna inteligencja, polega na tym, że w mniejszym czy większym stopniu każdy obecnie żyjący obywatel świata już korzysta z jej usług w ramach sieci informatycznej, a jednocześnie – często nie zdając z tego sprawy – jest już dzięki niej kontrolowany przez nie zawsze przejrzyste i legalne ośrodki decyzyjne o skali globalnej. Sprawą polityki jest ustanowienie odpowiednich ram prawnych, by narzędzie to służyło ludziom. Sprawą pojedynczego człowieka jest to, by nauczył się korzystać z tego narzędzia, nie stając się jego niewolnikiem.  

                                                                                                                                    Ks. Marian Machinek MSF