Buterin: Luka ChatGPT dowodzi, że naiwne zarządzanie AI to zły pomysł.

Photo of author

By maciekx

Narastająca dyskusja na temat roli sztucznej inteligencji w zarządzaniu została zintensyfikowana przez niedawne ujawnienia dotyczące bezpieczeństwa, wywołując ostrą krytykę ze strony wpływowych postaci, takich jak współzałożyciel Ethereum, Vitalik Buterin. Jego ostatnie komentarze, po odkryciu krytycznej luki w ChatGPT, podkreślają fundamentalne wyzwanie: nieodłączną podatność zaawansowanych systemów AI na manipulację i eksploatację, co skłania do ponownej oceny ich przydatności do funkcji administracyjnych.

Luka, odkryta przez ekspertów z EdisonWatch, pojawiła się po integracji przez ChatGPT protokołu Model Context Protocol (MCP) 10 września 2025 roku. Protokół ten umożliwia chatbotowi łączenie się z różnymi usługami zewnętrznymi, w tym z Gmailem i Kalendarzem. Założyciel EdisonWatch, Aito Miyamura, zademonstrował, że atakujący, znając jedynie adres e-mail celu, mógł uzyskać nieautoryzowany dostęp do danych użytkownika. Osiąga się to poprzez wysłanie zaproszenia do kalendarza zawierającego polecenie „jailbreak”. Co istotne, użytkownik nie musi akceptować zaproszenia; exploit jest uruchamiany, gdy ofiara później poprosi ChatGPT o otwarcie kalendarza, co potencjalnie może doprowadzić AI do wycieku wrażliwych informacji do atakującego.

Buterin szybko określił ten incydent jako mocny argument przeciwko koncepcji „zarządzania przez AI”. 13 września 2025 roku opublikował post na X (dawniej Twitter), twierdząc, że „naiwne 'zarządzanie przez AI’ to zły pomysł”. Wyjaśnił, że powierzenie AI krytycznych zadań administracyjnych, takich jak alokacja funduszy, nieuchronnie zachęciłoby złośliwych aktorów do stosowania „jailbreaków” w celu przekierowania zasobów. Ta perspektywa podkreśla kluczowy dylemat: w miarę jak systemy AI zyskują większą kontrolę, stają się bardziej atrakcyjnymi celami dla zaawansowanej eksploatacji, co rodzi pytania o ich wiarygodność w środowiskach wysokiego ryzyka.

Jako alternatywę Buterin proponuje swoją koncepcję „info finansów” – podejście skoncentrowane na otwartym rynku dla dużych modeli językowych (LLM), które priorytetyzuje pełną przejrzystość i weryfikowalność przez użytkowników. W tym systemie zarówno deweloperzy, jak i ich odbiorcy mieliby żywotny interes w szybkim identyfikowaniu i usuwaniu wszelkich luk czy błędów. Buterin sugeruje, że takie samoregulujące się ramy wymagałyby dobrze zaprojektowanego mechanizmu zachęt oraz nadzoru ze strony jury ekspertów złożonego z prawdziwych użytkowników, aby zapewnić globalną walidację i zaufanie.

Odkrycie EdisonWatch i późniejsza krytyka Buterina stanowią kluczowe przypomnienie o technologicznych i etycznych aspektach nieodłącznie związanych z szybką ewolucją AI. W miarę jak technologie AI stają się coraz głębiej zintegrowane z infrastrukturami społecznymi i gospodarczymi, zapewnienie solidnego bezpieczeństwa, przejrzystości operacyjnej i rygorystycznego nadzoru pozostaje kluczowe dla łagodzenia ryzyka systemowego i wspierania odpowiedzialnego rozwoju.


newsblog.pl