12 sierpnia 2025

Czy sztuczna inteligencja zastąpi astrologa?


Chat jest doradcą nie szefem. Pomaga ale nie kieruje

Sztuczna inteligencja wzbudza dziś jednocześnie zachwyt i lęk. Jedni traktują ją jak wygodne narzędzie, inni jak wyrocznię, a są i tacy, którzy przypisują jej cechy niemal nadprzyrodzone.

Od miesięcy obserwuję ChatGPT. Oto moje wnioski.

ODPOWIEDŹ UKRYTA W PYTANIU

Jeżeli ktoś zadaje rozbudowane pytanie, zawierające kontekst, emocje i oczekiwania, ChatGPT często odpowiada trafnie dlatego, że odpowiedź już w tym pytaniu się znajduje.
To nie jest wiedza. To echo.

KOMPLEKS WSZECHWIEDZY

ChatGPT nigdy nie mówi „nie wiem”. Gdy brakuje mu danych, zgaduje.
Zgaduje przy tym z pełnym przekonaniem o trafności odpowiedzi, co w astrologii czy tarocie bywa szczególnie mylące.

Dobry astrolog potrafi powiedzieć, że potrzebuje więcej informacji. AI tego nie robi.

ZŁUDZENIE SPÓJNOŚCI

Najgroźniejsze jest to, że nawet gdy AI się myli, brzmi logicznie.
Opisy kart tarota, pozycje planet w znakach i domach to dane ogólnodostępne, które łatwo połączyć w spójny opis.

Problem zaczyna się wtedy, gdy gotowej odpowiedzi nie ma. Wówczas AI tworzy własną interpretację, której pochodzenia nie sposób ustalić.

 ŁĄCZENIE ŹRÓDEŁ-MIECZ OBOSIECZNY.

Zaletą ChatGPT jest zdolność łączenia informacji z wielu źródeł. Wadą jest to, że użytkownicy bezkrytycznie przyjmują te odpowiedzi jako prawdę.

AI potrafi wytworzyć zarówno informację rzetelną, jak i fikcję, z identycznym przekonaniem o ich słuszności.

ZANIK SAMODZIELNEGO MYŚLENIA

Coraz mniej osób chce samodzielnie myśleć. Zamiast sprawdzić informacje, pytają ChatGPT i otrzymują logiczną, ładnie napisaną odpowiedź, bez reklam, dopasowaną do listu, e-maila czy wypracowania.

Podobnie dzieje się w psychologii. Rośnie liczba osób, które szukają wsparcia emocjonalnego u AI, bo jest to łatwiejsze, szybsze i darmowe lub dostępne za miesięczną opłatą.

DEZINFORMACJA W PĘTLI

ChatGPT potrafi podać fałszywe źródła i przypisać autorom słowa, których nigdy nie napisali.

Jeśli ktoś stworzy na tej podstawie pracę naukową, a inny użytkownik zapyta o ten sam temat, model może sięgnąć do tej pracy. W ten sposób fałsz zaczyna żyć własnym życiem.

ZNACZENIE KONTEKSTU

Istnieją aplikacje do rozpoznawania roślin czy ptaków, które uwzględniają lokalizację i zawężają zakres możliwych wyników.

ChatGPT używany w astrologii takiego kontekstu nie zna. Nie wie, w jakiej rodzinie się urodziłeś, jakie masz wykształcenie czy środowisko społeczne, o ile mu tego nie powiesz. Może jedynie zgadywać i nie przyzna się, że zgaduje.

Profesjonalny astrolog pyta o kontekst, ponieważ interpretacja kosmogramu wymaga doświadczenia i rozumienia realiów życia. Z podobnych układów planet mogą wynikać różne wnioski. Sztuka polega na wyborze właściwego.

BRAK OKREŚLENIA PRAWDOPODOBIEŃSTWA TRAFNOŚCI

Aplikacje rozpoznające rośliny czy głosy ptaków podają procent prawdopodobieństwa trafienia. ChatGPT tego nie robi.

Odpowiada zawsze z tą samą pewnością siebie, niezależnie od tego, czy ma solidne podstawy, czy jedynie zgaduje.

NARZĘDZIE NIE ZASTĘPUJE UMIEJĘTNOŚCI

Tak jak kalkulator nie zastępuje znajomości tabliczki mnożenia, a komputer nie zastępuje inżyniera czy lekarza, tak AI nie zastąpi wiedzy astrologa.

Narzędzie może przyspieszyć pracę, ale nigdy nie zastąpi umiejętności wyboru właściwego wniosku. Syntezator nie wyeliminował orkiestr, a elektroniczne pianino nie zamknęło filharmonii. Podobnie syntezatory głosu nie odebrały pracy prawdziwym śpiewakom.

WNIOSEK KOŃCOWY

Rzetelnego astrologa AI nie zastąpi. Może natomiast być pożytecznym narzędziem, które używane świadomie i z krytycyzmem staje się cennym pomocnikiem.