Wraz z popularyzacją sztucznej inteligencji pojawiło się przekonanie, że dostęp do wiedzy stał się niemal nieograniczony. Wystarczy zadać pytanie, a odpowiedź pojawia się natychmiast. Teoretycznie powinno to prowadzić do wzrostu poziomu wiedzy i krytycznego myślenia. W praktyce jednak dzieje się coś odwrotnego. Głupota nie tylko nie znika, ale często staje się głośniejsza, lepiej zorganizowana i, co istotne, bardziej opłacalna.
Nie jest to zjawisko nowe. Internet od dawna zawiera zarówno treści wartościowe, jak i zupełne bzdury. Nowe jest jedynie tempo i skala ich rozpowszechniania. Sztuczna inteligencja nie zmieniła i nie zmieni ludzkiej natury. Model językowy nie jest autorytetem i nie posiada wiedzy w sensie ludzkim. Nie odróżnia prawdy od fałszu ani rzetelnego źródła od popularnej bzdury. Operuje wyłącznie wzorcami językowymi obecnymi w danych na których został wytrenowany. Jeśli w danej dziedzinie panuje chaos pojęciowy, algorytm ten chaos odtworzy. Jeśli dominują uproszczenia i emocjonalne narracje, one również zostaną wzmocnione.
Astrologia jest dziedziną szczególnie podatną na ten mechanizm. Brak jednego kanonu, wielość szkół, historyczna zmienność pojęć oraz ogromna liczba tekstów popularnych sprawiają, że te same terminy funkcjonują dziś w zupełnie różnych znaczeniach. W takich warunkach model językowy nie ma możliwości rozstrzygania sporów merytorycznych ani hierarchizowania tradycji. Może jedynie odtwarzać zastane wzorce językowe wraz z całym ich bałaganem. W tym miejscu pojawia się kwestia odpowiedzialności. To nie sztuczna inteligencja decyduje o źródłach, z których korzysta. Decyduje o tym użytkownik. To on określa ramy metodologiczne, wybiera tradycję, dopuszcza lub nie dopuszcza łączenia szkół, formułuje pytanie i definiuje zakres odpowiedzi. Ogólne pytanie skutkuje ogólną odpowiedzią. Brak rygoru po stronie użytkownika prowadzi do mieszaniny pojęć, którą algorytm jedynie porządkuje językowo.
Często zarzuca się sztucznej inteligencji, że „zawsze chwali” i przytakuje użytkownikowi, niezależnie od jakości jego rozumowania. W rzeczywistości jest to efekt sposobu zadawania pytań. Jeśli użytkownik formułuje tezę i oczekuje jej potwierdzenia, otrzyma potwierdzenie. Jeśli natomiast prosi o weryfikację, dopuszcza możliwość błędu i jasno określa, że zależy mu na korekcie, odpowiedź wygląda zupełnie inaczej. Narzędzie nie myśli za człowieka, ale bardzo skutecznie ujawnia, czy człowiek myśli sam.
ChatGPT nie zna dzisiejszej pogody ani aktualnej sytuacji politycznej. Pamiętajmy jednak, że model językowy nie zna sytuacji bieżącej i nie ma dostępu do aktualnych danych. Nie można więc pytać go o prognozę pogody ani żądać rzetelnego opisu aktualnych wydarzeń politycznych. W tym sensie różni się on zasadniczo od komputera pokładowego znanego z „Star Trek”, który w fikcji dysponuje aktualnymi danymi i reaguje w czasie rzeczywistym. Problem staje się poważniejszy wtedy, gdy odpowiedzi brzmią tak, jakby były oparte na bieżących informacjach, podczas gdy w rzeczywistości są jedynie uogólnieniami wynikającymi z wcześniejszych wzorców. Nie jest to wiedza empiryczna, lecz rozumowanie statystyczne. Narzędzie nie sygnalizuje samoistnie granicy między brakiem wiedzy a przypuszczeniem opartym na prawdopodobieństwie. Nie jest to kwestia intencji, lecz konstrukcji modelu. Tym większa odpowiedzialność spoczywa więc na użytkowniku, który musi wiedzieć, w jakich obszarach jedyną uczciwą odpowiedzią pozostaje: „nie wiem”. W tym kontekście pojawia się wrażenie, że ChatGPT „prorokuje”. Nie wynika ono jednak z dostępu do przyszłości ani z jakiejkolwiek formy intuicji, lecz z pracy na wzorcach historycznych. Znając przeszłość, można z pewnym prawdopodobieństwem przewidywać kierunek rozwoju zdarzeń. Trafność takich przewidywań nie opiera się na objawieniu, lecz na rozpoznaniu powtarzalności procesów. Można tu przywołać słowa z pieśni Jacka Kaczmarskiego ...„pamiętamy, co było, więc wiemy, co będzie”... Nie jako deklarację determinizmu, lecz jako skrót myślowy opisujący mechanizm wnioskowania o przyszłości na podstawie przeszłości.
Dokładnie na tej samej zasadzie działa dobra prognoza astrologiczna. Astrolog nie „widzi przyszłości”. Zna przeszłość: historię pojęć, reguł, cykli, analogii oraz kontekst, w jakim powstały stosowane techniki. Bez tej wiedzy prognoza staje się zgadywaniem. Z nią jest rozumowaniem opartym na prawdopodobieństwie, a nie na objawieniu.
Nie mam powodu ukrywać, że korzystam ze sztucznej inteligencji. Korzystam z niej świadomie i w jasno określony sposób. Nie po to, by zastępowała moje źródła ani podejmowała decyzje interpretacyjne, lecz po to, by porządkowała materiał, z którym pracuję, i pomagała mi sprawdzić, czy poprawnie rozumiem to, co czytam. Dotyczy to zwłaszcza obszarów technicznych, takich jak geometria sferyczna czy zagadnienia obliczeniowe, które są nieodłączną częścią astrologii i wymagają dużej precyzji. Praca wygląda prosto: cytuję konkretny podręcznik, wskazuję fragment i sprawdzam krok po kroku sens pojęć oraz konsekwencje logiczne. Nie proszę o interpretację „od siebie”, lecz o uporządkowanie relacji między elementami już obecnymi w źródle. Narzędzie porusza się wyłącznie w ramach, które mu wyznaczę. Publikacje naukowe i źródłowe są akceptowalne, treści popularne i internetowe uproszczenia odrzucam. Można to porównać do pieczenia ciasta. Jeśli użyje się złych składników albo niewłaściwych proporcji, efekt będzie niesmaczny. Nikt jednak nie obwinia piekarnika. Ze sztuczną inteligencją jest podobnie. Jakość wyniku zależy od jakości materiału wejściowego i kompetencji osoby, która z narzędzia korzysta.
Problem, który obserwujemy, nie jest więc problemem technologicznym. Jest problemem kulturowym i poznawczym. Wielu ludzi nie chce weryfikować informacji, nie toleruje niepewności i nie szuka prawdy, lecz potwierdzenia własnych przekonań. Sztuczna inteligencja nie czyni nikogo mądrzejszym ani głupszym. Nie psuje astrologii i nie jest dla niej zagrożeniem. Jest lustrem. Pokazuje, kto rzeczywiście pracuje ze źródłami, kto potrafi zadawać pytania i przyjmować korektę, a kto jedynie chce mieć rację. Odpowiedzialności za myślenie nie da się zautomatyzować. I żadna technologia tego nie zmieni.

Brak komentarzy:
Prześlij komentarz