Sam Altman ostrzega! Mamy potężne narzędzie, ale nie ufaj mu bezkrytycznie

Sam Altman, CEO OpenAI, apeluje o ostrożność w korzystaniu z ChatGPT. Popularny chatbot, choć potężny, często generuje błędne informacje i wymaga weryfikacji – ostrzega Altman w pierwszym odcinku podcastu OpenAI.
ChatGPT zdobył ogromną popularność, wspierając miliony użytkowników w odrabianiu prac domowych, badaniach czy nawet poradach rodzicielskich. Jednak Altman podkreśla, że technologia ta nie jest niezawodna. „Ludzie mają zaskakująco duże zaufanie do ChatGPT, mimo że AI halucynuje” – mówi.




Halucynacje to zjawisko, w którym model generuje przekonujące, ale fałszywe lub mylące informacje, co wynika z jego działania opartego na przewidywaniu słów, a nie rzeczywistym rozumieniu świata. Szef OpenAI zwraca uwagę na konieczność transparentności.
„To nie jest super wiarygodne narzędzie, musimy być z tym szczerzy” – zaznacza Altman.
Podkreśla, że użytkownicy nie powinni przyjmować odpowiedzi chatbota bezkrytycznie, zwłaszcza w kluczowych sprawach. Popularność ChatGPT rośnie, przez co pojawia się ryzyko związane z nadmiernym zaufaniem.
Altman zapowiedział także nowe funkcje, takie jak pamięć kontekstowa czy możliwe modele wspierane reklamami, co budzi obawy o prywatność i wykorzystanie danych. Nowe rozwiązania mają poprawić personalizację.
Debata o wiarygodności AI toczy się także wśród ekspertów. Geoffrey Hinton, pionier AI, przyznał w rozmowie z CBS, że sam zbyt często ufa GPT-4, choć wie, że powinien być sceptyczny.
Testując model prostą zagadką, zauważył, że AI wciąż popełnia błędy, ale przyszłe wersje, jak GPT-5, mogą być bardziej precyzyjne. Sam Altman radzi, że AI to potężne narzędzie, ale zawsze warto zweryfikować jego odpowiedzi.