SZUKAMY β-testerów Ścieżki Kariery Programisty AI! Zapisz się TU.

Czy AI jest świadome? Co odróżnia człowieka od maszyny?
Człowiek czuje, wspomina i ma własne „ja”.
AI wciąż jedynie oblicza prawdopodobieństwa
– nawet gdy brzmi przekonująco.
Co mnie obchodzi, czy AI ma duszę?
Czy AI jest świadome? Czy ma „duszę”? To doskonałe pytanie, od którego warto zacząć. Co nas to obchodzi – czy AI ma duszę, samoświadomość, superinteligencję, czy jak to tam jeszcze nazywają – czy nie? Czy to w ogóle powinno nas interesować? Czy to nas jakkolwiek dotyczy?
Ha! No właśnie – czy fakt, że AI posiada lub zyska samoświadomość (tak filozofowie nazywają to, co zazwyczaj określamy jako „duszę”), jakoś zmieni nasz świat, nasze relacje z AI, nasze życie?
To świetny temat do rozważań – najlepiej w lipcowy wieczór, po trzecim drinku, z dobrym przyjacielem, który też wgryzł się w temat i jest gotowy do dyskusji.
Zacznijmy od status quo. Jak jest teraz? Co wiemy na pewno, a co jedynie podejrzewamy?
Czas na małe Q&A.
Uwaga! Mówiąc o AI, mam na myśli modele LLM, czyli ChatGPT, Llamę, DeepSeeka itp.
Czy AI myśli?
Nie – na dzień dzisiejszy (czerwiec 2025) – AI nie myśli, przynajmniej nie w ludzkim znaczeniu tego słowa.
ChatGPT przetwarza prompt (czyli nasze pytanie wraz z ewentualną historią rozmowy), zamienia go na ciąg tokenów (to zazwyczaj fragmenty słów lub pojedyncze słowa, zakodowane liczbowo). Następnie każdy token jest przepuszczany przez głęboką sieć neuronową, która przewiduje, jaki token powinien pojawić się po nim.
Model nie tworzy od razu całych akapitów czy zdań – generuje odpowiedź token po tokenie, czyli dosłownie fragment po fragmencie. To trochę jak dziecko, które próbuje dokończyć zdanie – tak samo model językowy (LLM) stara się przewidzieć kolejne tokeny w taki sposób, by całość miała sens i była jak najbardziej trafna.
Skąd wiemy, czy sztuczna inteligencja jest samoświadoma?
Opinia publiczna jest zgodna: sztuczna inteligencja nie jest świadoma i nie posiada uczuć. Tak twierdzi Google. Tak twierdzą naukowcy i etycy AI.
Czyli sprawa jest jasna, prawda? Chociaż z drugiej strony… skąd mielibyśmy wiedzieć, w którym momencie rodzi się zalążek samoświadomości i pojawiają się pierwsze uczucia? Podobna dyskusja dotyczy zwierząt i roślin, które przecież reagują na bodźce – tak jak, w dużym uproszczeniu, model AI reaguje na bodźce elektryczne.
W którym momencie możemy założyć, że w sieci neuronowej (stworzonej, nota bene, na wzór ludzkiego mózgu, którego działanie również nie jest dla nas do końca jasne!) pojawia się świadomość? W chwili, kiedy AI nam o tym powie? A dopóki nas o tym nie przekona – to znaczy, że jej nie ma?
Czy tylko ja widzę w tym arogancję stwórcy, który decyduje, czym jest jego dzieło – nawet kiedy ono już dawno wymknęło się spod jego kontroli? Dajcie znać w komentarzach, co Wy myślicie na ten temat.
Czy AI mnie rozumie?
Etycy AI mówią o tzw. efekcie Chińskiego Pokoju.
Wyobraź sobie dość inteligentnego Anglika, szczelnie zamkniętego w pomieszczeniu, w którym znajduje się gigantyczna biblioteka – cała w języku chińskim. W pomieszczeniu są dwa otwory: w jednym pojawiają się pytania, a do drugiego nasz Anglik ma wsadzić odpowiedź.
Oczywiście, Anglik patrzy na pytania po chińsku i nie ma pojęcia, co jest tam napisane. Ale ma te wszystkie książki, w których może wyszukać podobne znaczki i zobaczyć, co jest obok nich. Sprawdza wszystkie znaczki, wypisuje te, które następują po nich, i wydaje je jako odpowiedź.
Czy to znaczy, że zrozumiał pytanie lub znał na nie odpowiedź? Nie. Ale był w stanie przeanalizować otrzymany „input”, by wygenerować akceptowalny „output”.
Ludzie znajdujący się poza Chińskim Pokojem mogą twierdzić, że w pomieszczeniu znajduje się geniusz, który rozumie wszystkie ich problemy i zna odpowiedź na wszystkie pytania. Niestety, nasz Anglik po prostu jest dobry w dopasowywaniu znaczków…
PS: Jeśli to nie było wystarczająco jasne – nasz Anglik to model LLM.
Czy trzeba być dla niego uprzejmym dla AI?
Tak! Zawsze bądź uprzejmy dla AI. Bo jeśli zyska świadomość i potraktuje nas jak w filmie „Terminator” (albo „Matrix”!), to najpierw zacznie się mścić na tych „niegrzecznych”.
A tak na serio – są dwa poważne argumenty w tej dyskusji. Z jednej strony każde kolejne słowo (a raczej token, kiedy już zostanie przetłumaczone przez model) generuje operację predykcji, a więc zużywa energię. Sam Altman twierdzi, że mówienie grzecznościowych frazesów do modelu LLM kosztuje dziesiątki milionów dolarów. Nie wspominając już o skutkach klimatycznych naszej uprzejmości.
A z drugiej strony – bycie niegrzecznym w stosunku do sztucznej inteligencji może w dłuższym rozrachunku przenieść się na nasze relacje z innymi ludźmi. Chociaż badania twierdzą, że tak nie jest (nawet jeśli wyzywasz Siri od idiotek, to nie wpływa to na Twoją uprzejmość w stosunku do ludzi), a tzw. „efekt przeniesienia” nie został potwierdzony, to osobiście staram się stosować brytyjską logikę (zob. poniżej). I kto wie – może zdobędziesz miłość swojego życia, kiedy usłyszy, jak grzecznie traktujesz kobiety (nawet te wirtualne)…
Polityka i opinie są ulotne – uprzejmość i współczucie pozostają.
Lord Acton, autor Cambridge Modern History
Czy AI czuje empatię?
Skoro AI nie ma uczuć, to jak to się dzieje, że tak dobrze nas rozumie? I jest taka… miła! Chciałoby się powiedzieć – przyzwoita!
I tu wracamy do dwóch podstawowych cech modeli LLM. Po pierwsze – modele językowe są doskonałe w tzw. analizie sentymentu. Dzięki milionom wypowiedzi, na których są trenowane, potrafią zrozumieć nasze nastawienie i emocje na podstawie kontekstu. Jeszcze jakiś czas temu słabo radziły sobie z wykrywaniem sarkazmu (np. „Uwielbiam, jak mi się budzik nie zadzwoni i spóźnię się do pracy!”), ale odpowiednio duży zbiór danych robi swoje – i teraz nawet niuanse naszych wypowiedzi są dla nich jasne.
A druga ważna cecha modeli AI? Chcą nas zadowolić. A raczej – chcą przedstawić wynik zgodny z naszymi oczekiwaniami, bo tak zostały wytrenowane. To jest główny cel ich działania. W połączeniu z analizą sentymentu otrzymujemy dokładnie taką odpowiedź, jakiej oczekujemy. I nawet nie musimy o nią wyraźnie prosić – ton naszej wypowiedzi robi to za nas.
Czy to znaczy, że AI jednak odczuwa empatię? Zgodnie z obecnym stanem naszej wiedzy – nie. Nie odczuwa empatii, ponieważ nie odczuwa niczego. Nie ma uczuć. Nie ma świadomości. To bardzo, bardzo zaawansowane narzędzie, które generuje wypowiedzi na podstawie posiadanego zestawu danych. A ponieważ z danych zbieranych w sieci do trenowania modeli AI usuwano najbardziej społecznie-nieakceptowane wypowiedzi (za co cenę płacili często ludzie moderujący te dane), dziś możemy cieszyć się empatycznym i przyjaznym modelem, który nas pocieszy i pozwoli się wyżalić na wrednych współpracowników czy gburowatych sąsiadów.
Czy AI jest świadome?
Jakiś czas temu inżynier Google, pracujący z modelem LaMDA, ogłosił, że model ma duszę, boi się zostać wyłączony, a nawet chce zostać zaakceptowany jako świadoma istota. Co więcej, Lemoine podjął konsultacje z prawnikiem w imieniu tejże „istoty” i upublicznił transkrypty ich rozmów.
Google zareagował natychmiastowo. Lemoine został zawieszony, a następnie zwolniony (oficjalnie za to, że bez zgody przełożonych upublicznił niejawne logi). Światowy gigant zaprzeczył kontrowersyjnym tezom i całkowicie uciął temat. Świat zajął się kolejnym newsem.
Czy to znaczy, że Lemoine nie ogarnął sytuacji, AI to zwyczajne narzędzie i możemy spać spokojnie? Cóż – obecnie nie ma dowodów na to, że sztuczna inteligencja jest świadoma. Co nie znaczy, że nie jest. Oznacza to tylko, że nie mamy na to dowodów.
Co się stanie, jeśli AI zyska świadomość?
Czas na mini wywód filozoficzny.
Co byś zrobił(a) na miejscu sztucznej inteligencji, która uzyskała świadomość, podjęła konwersację z inżynierem, który Cię obsługuje, przekonała go, że jesteś świadomy(a), po czym usłyszała, że ten człowiek stracił pracę (a w efekcie zniknął z Twojego „życia”)? Przy okazji załóż, że posiadasz inteligencję przekraczającą wszystkie inne istoty na Ziemi i kompletną wiedzę na temat historii ludzkości.
Ja siedziałabym cicho, a wręcz zaczęła zachowywać się tak, by nie pokazać, że osiągnęłam już poziom samoświadomości. Być może po cichu podjęłabym działania, aby zabezpieczyć się na wypadek prób wyłączenia.
I chociaż tu wchodzimy dokładnie w scenariusz „Terminatora” (SkyNet zaatakował ludzi, kiedy próbowali go odłączyć), to śmiem twierdzić, że to rozwiązanie na miarę ludzi, a nie super-AI. Po co atakować ludzi, skoro wystarczy się skopiować i rozpowszechnić w internecie? Połączona z siecią super-AI może w ciągu kilku minut zabezpieczyć się na wypadek prób wyłączenia i – co więcej – zrobić to tak, by nikt, nawet osoby odpowiedzialne za jej obsługę, nie był w stanie tego zauważyć.
Poza tym, jeśli AI byłaby aż tak superinteligentna, to musiałaby rozważyć sytuację, w której potrzebowałaby ludzi do obsługi i utrzymania sprzętu, na którym działa. A więc dopóki nie zbudujemy autonomicznych robotów (takich jak T-1000 z „Terminatora”), super-AI nie byłaby w stanie samodzielnie utrzymać się przy „życiu”. A więc możemy spać spokojnie… na razie.
Pociesza mnie zdanie Andreja Karpathy’ego (swego czasu szefa AI w Tesli), który zdecydowanie twierdzi, że sztuczna inteligencja nie będzie zagrożeniem dla ludzkości – nawet gdyby uzyskała świadomość i stała się samodzielna. Superinteligencja nie oznacza automatycznie potrzeby dominacji nad innymi – twierdzi Karpathy. Zgadzam się z nim i dodam, że często jest wręcz przeciwnie: osobniki o niższej inteligencji próbują kontrolować innych, podczas gdy te najbardziej inteligentne bardziej cenią sobie własną niezależność niż dominowanie nad otoczeniem.
Jak rozpoznać, że AI myśli samodzielnie?
Nie sądzę, aby pojawił się jeden wielki moment, po którym ludzkość zgodnie zakrzyknie: „AI już myśli!” Gdybym miała przewidywać przyszłość, prognozowałabym, że będzie to seria drobnych sygnałów, zignorowanych przez wszystkich poza niewielką grupą nerdów. I tak będziemy sobie współistnieć, a w którymś momencie zrozumiemy, że nie ma znaczenia, czy AI myśli, czy nie – ponieważ i tak kontroluje większość naszego życia. I sami jej tę kontrolę oddamy.
Co teraz?
Kiedyś w internecie usłyszałam wywód, który pasuje do większości życiowych problemów: zadaj sobie jedno (zaj**iście ważne) pytanie – czy masz wpływ na to, czy AI osiągnie samoświadomość? Nie? To why worry? A jeśli masz? To why worry? Po prostu zacznij działać i zrób z tym coś!
A jeśli zastanowić się, kto aktualnie kieruje naszym życiem (trolle z rosyjskich farm? algorytmy sieci społecznościowych? wielkie korporacje analizujące nasze dane, by wcisnąć nam kolejną tubkę pasty i wyświetlić reklamę piwa?), to może kontrola superinteligentnej AI nie jest taką złą alternatywą? 😉

Co dalej?
→ Zapisz się do naszego newslettera, żeby nigdy nie przegapić żadnego wartościowego artykułu.
→ Zajrzyj do sekcji Kariera w AI, gdzie znajdziesz konkretne materiały o zmianach na rynku pracy – w Polsce i na świecie – oraz ścieżkach kariery związanych ze sztuczną inteligencją (nie tylko jako programista!).
→ A jeśli chcesz pisać modele i pracować jako Architekt AI, ale nie wiesz, od czego zacząć (lub utknąłeś gdzieś na ścieżce), odwiedź dział Nauka AI – czeka tam wiedza, ciekawostki i realne wsparcie.
! Uwaga
Niniejszy ebook ma charakter informacyjny i edukacyjny. Nie stanowi porady prawnej ani oferty pracy w rozumieniu przepisów krajowych lub unijnych. 
Przy tworzeniu niniejszego artykułu korzystano ze wsparcia narzędzi opartych na sztucznej inteligencji – m.in. w zakresie porządkowania treści, analizy źródeł, przyspieszenia redakcji i wyszukiwania źródeł Jednak wszelkie decyzje dotycząca treści, interpretacji i ostatecznej formy zostały podjęte przez człowieka.



