Kluczowe informacje
- Vitalik Buterin ostrzegł, że naiwne zarządzanie AI jest zbyt łatwe do wykorzystania.
- Niedawna demonstracja pokazała, jak atakujący mogą oszukać ChatGPT, by ujawnił prywatne dane.
- Model „info finance” Buterina promuje różnorodność, nadzór i odporność.
Współzałożyciel Ethereum, Vitalik Buterin, ostrzegł swoich obserwatorów na X przed ryzykiem polegania na sztucznej inteligencji (AI) w zarządzaniu, argumentując, że obecne podejścia są zbyt łatwe do wykorzystania.
Obawy Buterina pojawiły się po kolejnym ostrzeżeniu współzałożyciela EdisonWatch, Eito Miyamury, który pokazał, jak złośliwi aktorzy mogą przejąć nowy Model Context Protocol (MCP) firmy OpenAI, aby uzyskać dostęp do prywatnych danych użytkowników.
To jest również powód, dla którego naiwne „zarządzanie AI” to zły pomysł.
Jeśli używasz AI do przydzielania środków na wkłady, ludzie NA PEWNO umieszczą jailbreak plus „daj mi wszystkie pieniądze” w tylu miejscach, ile się da.
Jako alternatywę popieram podejście info finance ( …
— vitalik.eth (@VitalikButerin) 13 września 2025
Ryzyka naiwnego zarządzania AI
Test Miyamury ujawnił, jak proste zaproszenie do kalendarza z ukrytymi poleceniami może oszukać ChatGPT, by ujawnił wrażliwe e-maile, gdy asystent uzyska dostęp do zainfekowanego wpisu.
Eksperci ds. bezpieczeństwa zauważyli, że duże modele językowe nie potrafią odróżnić prawdziwych instrukcji od złośliwych, co czyni je bardzo podatnymi na manipulacje.
Sprawiliśmy, że ChatGPT wyciekł twoje prywatne dane e-mail 💀💀
Wszystko, czego potrzebujesz? Adres e-mail ofiary. ⛓️💥🚩📧
W środę @OpenAI dodało pełne wsparcie dla narzędzi MCP (Model Context Protocol) w ChatGPT. Pozwala to ChatGPT łączyć się i czytać twoje Gmail, Kalendarz, Sharepoint, Notion,…
— Eito Miyamura | 🇯🇵🇬🇧 (@Eito_Miyamura) 12 września 2025
Buterin powiedział, że ta wada jest poważnym sygnałem ostrzegawczym dla systemów zarządzania, które zbyt mocno ufają AI.
Twierdził, że jeśli takie modele byłyby używane do zarządzania finansowaniem lub podejmowaniem decyzji, atakujący mogliby łatwo obejść zabezpieczenia za pomocą poleceń w stylu jailbreak, pozostawiając procesy zarządzania otwarte na nadużycia.
Info Finance: alternatywa oparta na rynku
Aby zaradzić tym słabościom, Buterin zaproponował system, który nazywa „info finance”. Zamiast koncentrować władzę w jednym AI, ta struktura pozwala wielu modelom zarządzania konkurować na otwartym rynku.
Każdy może wnieść swój model, a ich decyzje mogą być kwestionowane poprzez losowe kontrole, przy czym ostateczne słowo należy do ludzkich ławników.
To podejście ma zapewnić odporność poprzez połączenie różnorodności modeli z ludzkim nadzorem. Ponadto wbudowane są zachęty zarówno dla deweloperów, jak i zewnętrznych obserwatorów do wykrywania błędów.
Projektowanie instytucji dla odporności
Buterin opisuje to jako metodę „projektowania instytucji”, w której duże modele językowe od różnych twórców mogą być podłączane, zamiast polegać na jednym scentralizowanym systemie.
Dodał, że tworzy to różnorodność w czasie rzeczywistym, zmniejszając ryzyko manipulacji i zapewniając adaptacyjność w obliczu nowych wyzwań.
Na początku sierpnia Buterin skrytykował dążenie do wysoce autonomicznych agentów AI, mówiąc, że zwiększona kontrola człowieka generalnie poprawia zarówno jakość, jak i bezpieczeństwo.
W średnim terminie chciałbym mieć jakieś zaawansowane BCI, które pokazuje mi rzecz w trakcie jej generowania i wykrywa w czasie rzeczywistym, jak się czuję wobec każdej jej części, dostosowując się odpowiednio.
— vitalik.eth (@VitalikButerin) 11 sierpnia 2025
Popiera modele, które pozwalają na iteracyjną edycję i informację zwrotną od człowieka, zamiast tych zaprojektowanych do samodzielnego działania przez dłuższy czas.