Podajesz Chatowi GPT metraż, dzielnicę i standard wykończenia – a po chwili dostajesz konkretną kwotę. 800 tysięcy złotych. Brzmi profesjonalnie, prawda? Problem w tym, że rzeczoznawca mógłby na to powiedzieć jedno: halucynacja.
Coraz więcej osób traktuje sztuczną inteligencję jak uniwersalnego doradcę – od diety, przez ubrania, aż po wycenę nieruchomości. I o ile źle dobrana koszula nikogo nie zrujnuje, o tyle błędna wycena mieszkania może kosztować dziesiątki tysięcy złotych.
ChatGPT generuje wyceny, które brzmią wiarygodnie, ale opiera się na uogólnionych wzorcach i danych historycznych. Nie weryfikuje tego, co mu napiszesz – jeśli opiszesz swoje mieszkanie w superlatywach, algorytm grzecznie to przyjmie i wypluję zawyżoną kwotę. Rzeczoznawca tak nie działa. On porównuje, analizuje kontekst, zna lokalny rynek.
AI tego nie robi.
Najgorsze jest to, co dzieje się potem. Ludzie zaczynają podważać opinie specjalistów, bo „chat wyliczył inaczej". Wchodzą w spory z rzeczoznawcami, bo