84.93K
2.05M
2024-09-20 09:00:00 ~ 2024-10-22 07:30:00
2024-10-22 12:00:00
Całkowita podaż1.00B
Materiały
Wprowadzenie
Scroll to rozwiązanie rollup warstwy 2. wykorzystujące technologię zero-knowledge proof do skalowania blockchaina Ethereum, z misją wprowadzenia miliardów użytkowników do ekosystemu Ethereum, bycia najbezpieczniejszą i najbardziej zaufaną siecią warstwy 2. do przetwarzania bilionów dolarów w łańcuchu i domyślnym miejscem dla nowych innowacji. Całkowita podaż SCR wynosi 1 000 000 000.
Oryginalny tytuł: Crypto Marketing Trends & Predictions: 2026 and Beyond Oryginalny autor: @emilyxlai Tłumaczenie: Peggy, BlockBeats Nota redakcyjna: Marketing w branży kryptowalut przechodzi głęboką transformację: cykle trendów stają się coraz krótsze, konkurencja coraz bardziej zacięta, a tradycyjne metody przestają działać. Dla przedsiębiorców, osób odpowiedzialnych za wzrost i zespołów marketingowych zrozumienie tych zmian to nie tylko kwestia przetrwania, ale klucz do zdobycia przewagi. Artykuł oparty jest na wystąpieniu Emily Lai, CMO Hype Partners, i systematycznie przedstawia 7 kluczowych trendów marketingu kryptowalutowego w 2026 roku, obejmujących marketing efektywnościowy, tworzenie treści, dywersyfikację kanałów, doświadczenia eventowe, mechanizmy motywacyjne oraz operacje napędzane przez AI. Dodatkowo, zawiera prognozy branżowe i ramy myślenia pozwalające utrzymać przewagę. Branża ewoluuje w przyspieszonym tempie – jak wykorzystać szanse i nie zostać w tyle? Odpowiedź znajdziesz w tym artykule. Poniżej oryginalny tekst: Branża kryptowalut zmienia się błyskawicznie, cykle uwagi są bardzo krótkie, trendy pojawiają się szybko i znikają jeszcze szybciej, a ich cykl życia jest coraz krótszy. W zeszłą niedzielę (16 listopada) podczas konferencji g(t)m con1 podzieliłam się obserwacjami i doświadczeniami z ostatniego roku oraz przedstawiłam prognozy na 2026 rok. Sercem tego wystąpienia było podzielenie się z przedsiębiorcami, osobami odpowiedzialnymi za wzrost i ekspertami marketingu naszymi przewidywaniami dotyczącymi przyszłości branży, omówienie, co to oznacza dla Twojej strategii marketingowej i jak utrzymać przewagę w konkurencji. Dziesięć miesięcy wystarczy, by zmienić wiele Od mojego wystąpienia na EthDenver w lutym 2025 roku byliśmy świadkami: ponad 319 nowych stablecoinów; wejścia instytucji i Wall Street, w tym blockchainów korporacyjnych, DAT, ETF oraz wdrożenia stablecoinów przez gigantów fintech; złagodzenia regulacji, wprowadzenia ustawy GENIUS i pojawienia się „przyjaznego kryptowalutom” prezydenta w USA; wzrostu liczby nowych tokenów o ponad 27%, do 567 milionów w momencie pisania; gwałtownego wzrostu opcji kart płatniczych opartych na kryptowalutach – tylko w październiku 2025 roku wolumen transakcji kartowych na śledzonych blockchainach osiągnął 375 milionów dolarów; eksplozji rynków predykcyjnych, gdzie @Kalshi i @Polymarket ustanowiły nowe rekordy wolumenu, a na rynek weszli nowi gracze; uruchomienia nowych banków i aplikacji finansowych mobile-first opartych na infrastrukturze kryptowalutowej. Krypto w 2024 roku vs. dziś W listopadzie ubiegłego roku pierwsza edycja g(t)m con odbyła się w Bangkoku. Wówczas główne trendy obejmowały: marketing prowadzony przez zespoły, osobiste marki założycieli, agentów AI, interaktywnych „odpowiadaczy”, maskotki marek, airdropy, konta stażystów oraz tajemniczy koncept „mindshare” (świadomość marki) zaproponowany przez platformę InfoFi. Po roku układ sił w branży wyraźnie się zmienił: od koncentracji płynności w regionie Azji i Pacyfiku, przez powrót ICO, po wzrost znaczenia „CT Leads” – tempo zmian w kryptowalutach jest zdumiewające. Mindshare użytkowników ≠ wzrost RIP Mindshare W minionym roku wiele oczekiwanych TGE (Token Generation Event) mimo dużego zainteresowania odnotowało słaby popyt i wyniki cenowe znacznie poniżej oczekiwań społeczności kryptowalutowej (CT). Z perspektywy KPI branża ponownie skupia się na pozyskiwaniu i utrzymaniu użytkowników (zarówno B2B, jak i B2C). Na poziomie narracji i meta-trendów ekosystemy i aplikacje zaczynają podkreślać komunikaty o „przychodach i wykupach”. Wewnętrzne dyskusje koncentrują się na strategiach tokenów, modelach tokenomiki i projektowaniu mechanizmów motywacyjnych, by ograniczyć presję sprzedażową. Wraz z postępującym rozwojem infrastruktury, protokołów bazowych i middleware, branża przesuwa się z poziomu łańcuchów i ekosystemów na poziom aplikacji. Gdy tradycyjne instytucje finansowe zaczynają inwestować, a aplikacje fintech z milionami użytkowników integrują blockchain, przynosi to nie tylko legitymizację całej branży, ale – co ważniejsze – pozwala dotrzeć do nowych użytkowników spoza CT. Wraz z poprawą doświadczenia użytkownika, pojawianiem się nowych aplikacji i budowaniem zaufania, rynek i grupa docelowa stale się powiększają. Oznacza to również, że strategie pozyskiwania użytkowników Web2, wcześniej uznawane za nieopłacalne pod względem ROI/ROAS, zaczynają ponownie mieć sens. Hot & Cold: przegląd trendów Poniżej subiektywna i niepełna lista „na czasie i przestarzałych” trendów. Najpierw zebrałam własne przemyślenia, potem zapytałam znajomego z VC oraz zebrałam opinie z grup marketingowych i CT. Następnie rozłożyłam te trendy i obserwacje na 7 tematów, dokonując ich ogólnego przeglądu i podsumowując moje lekcje i obserwacje z 2025 roku. Pierwotnie miałam 25 minut na wystąpienie, ale dzięki wyrozumiałości @clairekart mogłam podzielić się przemyśleniami przez 45 minut. Marketing efektywnościowy (Performance Marketing) Podczas zeszłorocznej konferencji g(t)m con w Bangkoku mówiłam o marketingu opartym na danych, skupiając się na modelu lejka i kluczowych wskaźnikach. Wtedy wydawało się to ważne, dziś jest jeszcze bardziej aktualne. Marketing efektywnościowy wraca do łask, ponieważ branża ponownie skupia się na pozyskiwaniu i utrzymaniu użytkowników. Oznacza to: instalację narzędzi śledzących (on-chain, produkt/strona, kanały dystrybucji); eksperymenty wzrostowe; łączenie ruchu płatnego i organicznego; przejście od zadań społecznościowych do zadań związanych z płynnością; precyzyjne kampanie z KOL itd. Coraz więcej projektów korzysta lub pyta o narzędzia takie jak: @spindl_xyz, @gohypelab, @themiracle_io: do natywnych kampanii portfelowych @tunnl_io, @yapdotmarket: precyzyjne kampanie bounty dla małych KOL @turtledotxyz, @liquidity_land: do kampanii marketingowych związanych z płynnością Pojawiają się też bardziej precyzyjne strategie: rozmawiałam z kilkoma DEX-ami perpetual, które stosują „białorękawiczkowe” podejście do onboardingu użytkowników, a nawet indywidualnie kontaktują się z wielorybami lub korzystają z KOL tradingowych z regionu Azji i Pacyfiku, by zdobyć początkowy ruch (oczywiście z nagrodami). Jednocześnie kanały płatnej reklamy Web2 wracają do łask, w tym płatne social media, reklamy w wyszukiwarkach, reklama outdoorowa (OOH). Niedocenianym kanałem pozostaje reklama na Telegramie. W przyszłości, wraz z rozwojem produktów reklamowych przez LLM i OpenAI, pojawią się nowe scenariusze reklamowe. Treści, treści i jeszcze raz treści W tym roku obserwujemy eksplozję twórców treści i wideo na platformach społecznościowych – timeline’y zalewają różne rodzaje treści: od vlogerów, twórców krótkich filmów, przez techniczne tutoriale, live’y, aż po narracje na poziomie filmowym… Jednocześnie platforma InfoFi promowała rolę „ambasadora marki” – osoby, które aktywnie publikują posty („yap”), by promować projekty i liczą na zyski. Uważam jednak, że ten trend nie przetrwa – „yapperzy” trafili na moją listę OUT. Wychodząc z DevConnect w zeszłym tygodniu żartowałam, że przychody DJI muszą rosnąć, bo wszędzie były mikrofony i kamery. Jesteśmy w sezonie twórców treści. Niektórzy twórcy są freelancerami i tworzą treści dla ulubionych marek, jak @coinempress i @DAppaDanDev. Marki zaczynają zatrudniać dedykowanych twórców do produkcji wideo, vlogów, prowadzenia space’ów, a nawet korzystają z osobistej marki twórcy (np. CT Leads @alexonchain). @dee_centralized to jeden z liderów fali krótkich filmów o kryptowalutach. Sześć tygodni temu odwiedziłam nowojorskie biuro @solana i zobaczyłam Solana Studio – przestrzeń dla założycieli i twórców, gdzie powstają treści od @bangerz i @jakeclaychain. Widzimy też, że marki zatrudniają aktorów, hollywoodzkie studia i fotografów do produkcji wysokiej jakości treści i reklam. @aave zaczęło mocno działać na Instagramie (promując swoją aplikację mobilną dla detalistów – sprytna strategia), a @ethereumfnd wprowadziło twórców narracji, jak @lou3ee. Formy treści również się różnicują: poza tekstem i wideo są serie live (np. @boysclubworld), serie statyczne, podcasty, krótkie klipy, ogłoszenia 3D lub AI. @OctantApp wspiera twórców grantami, a ja niedawno prowadziłam warsztaty o psychologicznych aspektach treści z perspektywy marki. W Hype (@hypepartners) podczas tygodnia DevConnect zorganizowaliśmy 4 warsztaty dla twórców treści, a w styczniu wprowadziliśmy @web3nikki na czele nowego działu krótkich filmów. Treści będą się dalej nasycać, a jakość, głębia i poziom produkcji będą coraz ważniejsze – równie istotne jest wyjście poza CT i dotarcie do nowych użytkowników. Świat poza X W tym roku w Hype eksplorowaliśmy (i ponownie eksplorowaliśmy) nowe kanały, w tym YouTube, Reddit, AI SEO (np. Perplexity, GPT), Instagram i Whop. W wystąpieniu szczególnie podkreśliłam LinkedIn i TikTok. Przykład @Scroll_ZKP i współzałożycielki @sandypeng: dla osób niekorzystających z LinkedIn, Sandy w 2025 roku regularnie publikowała posty, zwiększając zasięg do 6,3 miliona wyświetleń i 31 tysięcy obserwujących, dzieląc się strategią i danymi (po raz pierwszy publicznie, dzięki Sandy). LinkedIn Sandy Peng (współzałożycielka Scroll) W styczniu zauważyliśmy wyraźny wzrost zapotrzebowania marek na kanały takie jak Instagram, YouTube i TikTok, dlatego wprowadziliśmy @web3nikki i utworzyliśmy dział krótkich filmów skupiony na wzroście marki i pozyskiwaniu użytkowników, z naciskiem na TikTok. Wszyscy członkowie zespołu to natywni użytkownicy TikTok, znający algorytmy, wiedzący jak tworzyć viralowe treści i potrafiący dostosować strategię do perspektywy krypto. Od powstania działu współpracowaliśmy już z 12 klientami, zdobywając mnóstwo doświadczeń i insightów. Eventy stają się bardziej immersyjne i ekskluzywne Wraz z przesyceniem wydarzeń towarzyszących konferencjom kryptowalutowym (ponad 500 w jednym tygodniu), organizatorzy coraz bardziej konkurują o uczestników. Trend ten dotyczy także gadżetów: są one lepszej jakości, lepiej zaprojektowane i bardziej ekskluzywne. W tym roku wyraźnie wzrosła liczba prywatnych kolacji. @metamask podczas EthCC w Cannes w lipcu ustanowił nowy standard: tylko dla zaproszonych gości, z KOL i twórcami treści na pokładzie motorówek, helikopterów i samolotów. @raave nieustannie wyznacza standardy dla kryptowalutowych wydarzeń muzycznych, zapraszając światowej klasy DJ-ów i tworząc topową oprawę sceniczną. Bilety są przyznawane w sposób stopniowy, ekskluzywny i uwalniane poprzez szereg działań marketingowych. To doświadczenie przenosi się także do świata cyfrowego: airdropy, minigry, quizy w stylu Buzzfeed – coraz więcej interaktywnych, łatwych do udostępnienia doświadczeń. Coraz więcej inspiracji pochodzi z eventów Web2, pop-upów i wydarzeń influencerów, które są adaptowane do krypto. W zeszłym tygodniu wraz z @octantapp zorganizowaliśmy koncert przy świecach – fragmenty wydarzenia można zobaczyć tutaj. Event był tylko na zaproszenie, bo miejsce nie pomieściłoby wszystkich 20 tysięcy chętnych. Jeśli chcesz wziąć udział w kolejnym, skontaktuj się z @cryptokwueen lub ze mną. Przebudowa i redizajn mechanizmów motywacyjnych W tym roku widzimy, że działania motywacyjne wracają od airdropów do nowych przywilejów. Część nagród jest pozycjonowana jako przywileje: „Możliwość zakupu tego tokena to już przywilej” (jak whitelisty NFT w 2021 roku) „Kup teraz, a otrzymasz przywilej zakupu ze zniżką” „Stakuj teraz, by zarabiać więcej i/lub zdobywać punkty z wielu protokołów” „Aby zdobyć najwięcej airdropów, zniżek lub punktów, musisz wejść do topowej grupy członkowskiej” (jak programy lojalnościowe linii lotniczych i hoteli) Wszystko to przypomina mi banki i fintechy Web2, które opakowują korzystanie z produktu jako przywilej. Maile z Chase często zaczynają się od: „Gratulacje! Wstępnie zakwalifikowałeś się do refinansowania kredytu hipotecznego.” W przyszłości będziemy obserwować dalszą ewolucję programów motywacyjnych, coraz bardziej zbliżającą się do logiki programów lojalnościowych i statusowych. Zastosowanie AI w marketingu i operacjach Oto trendy AI, które widzę w marketingu, oraz nasze doświadczenia z budowy wewnętrznego „silnika kontekstowego” w Hype. We wrześniu powołaliśmy dział Hype AI, kierowany przez @antefex_moon (naszego VP AI). Więcej szczegółów w prezentacji CEO @0xDannyHype. Testujemy AI na każdym etapie, by poprawić jakość pracy, badania, operacje, pomiar danych i zarządzanie projektami. Wymaga to ciągłego testowania i iteracji. Wprowadziliśmy też nową linię usług: AI SEO / LLM SEO, czyli zapewnienie obecności firmy w promptach AI, co zależy od obecności w odpowiednich danych treningowych. Narzędzia Web2 jak Ahrefs i SEMrush już oferują pomiar widoczności w AI. Tymczasem OpenAI oficjalnie ogłosiło prace nad platformą reklamową, co przyniesie nowe scenariusze reklamowe i strategie marketingowe. Inne prognozy Powyższe trendy i obserwacje bezpośrednio wpłynęły na niektóre decyzje biznesowe i marketingowe w Hype. Przed podzieleniem się moimi ramami „utrzymania przewagi” zebrałam prognozy zespołu Hype dotyczące marketingu kryptowalutowego. Możesz przeczytać opinie @0xdannyhype, @ChrisRuzArc, @groverGPT, @izaakonx, @Timmbo_Slice i innych: Jak utrzymać przewagę (HOW TO STAY AHEAD) Cykl życia trendów stale się skraca z powodu: Osłabienia barier wejścia (np. dzięki AI, internetowi i narzędziom tworzenie treści jest łatwiejsze niż kiedykolwiek) Ograniczonej wielkości odbiorców w branży kryptowalut Pojawiania się nowych firm codziennie walczących o uwagę Marketing wymaga ciągłej innowacji, testowania i eksperymentowania. Zespoły, które jako pierwsze wdrażają nowe strategie, mogą wykorzystać „efekt świeżości” do zdobycia świadomości marki, aż do momentu nasycenia rynku. Możesz też ponownie testować stare strategie i estetykę, by przywrócić „poczucie nowości”. To niekończąca się gra. Kiedy inni skręcają w lewo, Ty skręć w prawo; kiedy wszyscy skręcają w lewo i prawo, usiądź pod drzewem i przejdź na wyższy poziom, eksplorując nieodkryte obszary. Następnie powtórz ten proces. Aby utrzymać przewagę, musisz: śledzić trendy branżowe; czerpać inspiracje spoza kryptowalut; myśleć w oparciu o pierwsze zasady (to wymaga burzy mózgów, głębokiej refleksji i oceny, a nie tylko kopiowania innych). Pytania, które pomogą Ci zdefiniować prognozy i marketingowe zakłady: które trendy wygasną w ciągu 6-12 miesięcy? Jakie strategie działają w Web2 lub innych branżach, ale nie zostały jeszcze zastosowane w kryptowalutach? Jakie zmiany w zachowaniach użytkowników lub technologii przekształcą marketing? Ostatecznie stawiasz na przyszłość. A by wygrać, musisz dostrzec wzorce i wyobrazić sobie lepsze możliwości. Polecane lektury: Przepisanie scenariusza z 2018 roku: czy koniec shutdownu rządu USA = eksplozja ceny bitcoin? 1.1 miliardów dolarów stablecoinów wyparowało – jaka jest prawda o serii eksplozji DeFi? Analiza short squeeze MMT: starannie zaprojektowana gra o pieniądze
W obliczu gwałtownie rosnącego globalnego zapotrzebowania na infrastrukturę AI, tradycyjne scentralizowane systemy chmury obliczeniowej stopniowo ujawniają ograniczenia pojemności i efektywności. Wraz z szybkim przenikaniem treningu dużych modeli, wnioskowania AI i zastosowań agentów inteligentnych, GPU przekształcają się z „zasobu obliczeniowego” w „strategiczny zasób infrastrukturalny”. W tej strukturalnej transformacji rynku, Aethir, wykorzystując zdecentralizowany model fizycznej sieci infrastrukturalnej (DePIN), zbudował największą i najbardziej skomercjalizowaną w branży sieć obliczeniową GPU klasy korporacyjnej, szybko ustanawiając wiodącą pozycję w branży. Przełom komercjalizacji infrastruktury obliczeniowej na dużą skalę Do tej pory Aethir wdrożył na całym świecie ponad 435 000 kontenerów GPU klasy korporacyjnej, obejmujących najnowsze architektury sprzętowe NVIDIA, takie jak H100, H200, B200 i B300, dostarczając klientom korporacyjnym łącznie ponad 1.4 miliarda godzin rzeczywistych usług obliczeniowych. Tylko w trzecim kwartale 2025 roku Aethir osiągnął przychód w wysokości 39.8 miliona dolarów, co pozwoliło platformie przekroczyć roczny przychód powtarzalny (ARR) na poziomie 147 milionów dolarów. Wzrost Aethir pochodzi z rzeczywistego zapotrzebowania korporacyjnego, obejmującego usługi wnioskowania AI, trening modeli, platformy dużych agentów AI oraz produkcyjne obciążenia globalnych wydawców gier. Ta struktura przychodów oznacza, że po raz pierwszy na torze DePIN pojawiła się W obliczu gwałtownie rosnącego globalnego zapotrzebowania na infrastrukturę AI, tradycyjne scentralizowane systemy chmury obliczeniowej stopniowo ujawniają ograniczenia pojemności i efektywności. Wraz z szybkim przenikaniem treningu dużych modeli, wnioskowania AI i zastosowań agentów inteligentnych, GPU przekształcają się z „zasobu obliczeniowego” w „strategiczny zasób infrastrukturalny”. W tej strukturalnej transformacji rynku, Aethir, wykorzystując zdecentralizowany model fizycznej sieci infrastrukturalnej (DePIN), zbudował największą i najbardziej skomercjalizowaną w branży sieć obliczeniową GPU klasy korporacyjnej, szybko ustanawiając wiodącą pozycję w branży. Przełom komercjalizacji infrastruktury obliczeniowej na dużą skalę Do tej pory Aethir wdrożył na całym świecie ponad 435 000 kontenerów GPU klasy korporacyjnej, obejmujących najnowsze architektury sprzętowe NVIDIA, takie jak H100, H200, B200 i B300, dostarczając klientom korporacyjnym łącznie ponad 1.4 miliarda godzin rzeczywistych usług obliczeniowych. Tylko w trzecim kwartale 2025 roku Aethir osiągnął przychód w wysokości 39.8 miliona dolarów, co pozwoliło platformie przekroczyć roczny przychód powtarzalny (ARR) na poziomie 147 milionów dolarów. Wzrost Aethir pochodzi z rzeczywistego zapotrzebowania korporacyjnego, obejmującego usługi wnioskowania AI, trening modeli, platformy dużych agentów AI oraz produkcyjne obciążenia globalnych wydawców gier. Ta struktura przychodów oznacza, że po raz pierwszy na torze DePIN pojawiła się platforma obliczeniowa na dużą skalę, napędzana głównie przez płatności korporacyjne. Infrastruktura Aethir została włączona do kluczowych systemów produkcyjnych przez wiele wiodących firm AI. 1. Kluster.ai, opierając się na sieci obliczeniowej Aethir, skrócił proces selekcji pacjentów do badań klinicznych z kilku miesięcy do kilku minut, znacznie zwiększając komercyjną wykonalność medycznej AI. 2. Attentions.ai buduje i wdraża prywatne modele dużej skali dla przedsiębiorstw za pośrednictwem Aethir, wspierając wdrażanie platform AI bez kodowania w tradycyjnych branżach. 3. Mondrian AI, wybrany do „KOREA AI STARTUP 100”, wykorzystuje Aethir jako podstawę mocy obliczeniowej dla swoich usług AI klasy korporacyjnej. Na poziomie branży gier, zdolność produkcyjna Aethir została już szeroko zweryfikowana komercyjnie. 1. Testy SuperScale wykazały, że produkty oparte na architekturze cloud gamingu Aethir zwiększyły preferencje użytkowników o 43%, współczynnik konwersji kliknięć o 35%, a ostateczny współczynnik konwersji płatności o 45% w porównaniu z tradycyjnymi metodami pobierania. 2. W projekcie Reality+ „Doctor Who: Worlds Apart” Aethir zwiększył współczynnik konwersji instalacji o 201%, a ARPU o 61%. Obecnie ponad 400 gier zostało podłączonych do testów przez Xsolla, a czołowi globalni wydawcy, tacy jak Scopely, Zynga i Jam City, przeprowadzają dogłębną ocenę tego systemu. Instytucjonalne poparcie: narodziny strategicznych rezerw mocy obliczeniowej W październiku 2025 roku Aethir zakończył ukierunkowaną inwestycję tokenową ATH o wartości 344 milionów dolarów (NASDAQ: POAI) i oficjalnie uruchomił Aethir Digital Asset Treasury (DAT). Mechanizm ten został określony jako pierwszy na świecie framework „Strategic Compute Reserve” (SCR), którego celem jest włączenie zdecentralizowanych zasobów obliczeniowych do długoterminowego bilansu przedsiębiorstw oraz eksploracja głębokiej integracji zasobów obliczeniowych z tradycyjnymi rynkami kapitałowymi. Na dzień 10 listopada 2025 roku DAT ujawnił posiadanie 5.7 miliarda ATH i planuje świadczyć usługi dla firm AI poprzez wdrażanie zasobów GPU, a uzyskane przychody zostaną przeznaczone na wykup ATH, tworząc pozytywną pętlę „dostawa mocy obliczeniowej — monetyzacja przedsiębiorstw — ekosystemowy wykup”. Ta strukturalna operacja kapitałowa sprawia, że Aethir jest jednym z nielicznych projektów DePIN, które uzyskały rzeczywiste uznanie na tradycyjnych rynkach kapitałowych, a także po raz pierwszy wprowadza „zdecentralizowaną moc obliczeniową” na poziom instytucjonalnej alokacji aktywów. Zdolność dostarczania usług korporacyjnych w zdecentralizowanej architekturze Zdecentralizowana sieć GPU zbudowana przez Aethir pod względem wydajności, stabilności i struktury kosztów dorównuje, a nawet przewyższa tradycyjnych dostawców scentralizowanej chmury. GPU klasy H100 obecnie obsługują ponad 90% głównych zadań wnioskowania dużych modeli na świecie, a w pierwszym kwartale 2025 roku NVIDIA przeznaczyła 60% swojej produkcji dla klientów AI klasy korporacyjnej, co jeszcze bardziej podkreśla strategiczny niedobór zaawansowanych GPU. Aethir, dzięki rozproszonemu systemowi dostaw sprzętu, omija cykle budowy tradycyjnych centrów danych i wąskie gardła łańcucha dostaw, oferując przedsiębiorstwom wydajność zbliżoną do bare-metal przy wyższej efektywności wykorzystania zasobów i bardziej elastycznym modelu cenowym, jednocześnie znacząco obniżając całkowite koszty użytkowania. DePIN wchodzi w erę „napędzaną rzeczywistymi przychodami” Zgodnie z prognozami McKinsey, do 2030 roku globalne inwestycje w budowę centrów danych osiągną 6.7 biliona dolarów. Jednocześnie przewiduje się, że rynek DePIN wzrośnie do 3.5 biliona dolarów do 2028 roku. Jednak tylko platformy, które mają rzeczywiste przychody korporacyjne i zdolność do skalowalnej dostawy, będą w stanie zbudować trwałą przewagę konkurencyjną na tym rynku. O Aethir Aethir to wiodąca na świecie zdecentralizowana platforma infrastruktury chmurowej GPU, dedykowana świadczeniu usług obliczeniowych klasy korporacyjnej dla AI, gier i aplikacji Web3 nowej generacji. Dzięki rozproszonej architekturze sieci GPU, Aethir przekształca globalnie niewykorzystaną moc obliczeniową w zasoby chmurowe dostępne na żądanie dla przedsiębiorstw, budując bardziej otwartą, wydajną i zdecentralizowaną infrastrukturę cyfrową.
Źródło: Aethir Na tle globalnego wybuchu zapotrzebowania na infrastrukturę AI, tradycyjny scentralizowany system chmury obliczeniowej stopniowo ujawnia ograniczenia wydajności i efektywności. Wraz z szybkim rozpowszechnianiem się treningu dużych modeli, inferencji AI oraz zastosowań inteligentnych agentów, GPU przechodzą z roli „zasobów obliczeniowych” do „strategicznych aktywów infrastrukturalnych”. W tej transformacji strukturalnej rynku, Aethir szybko ugruntował swoją pozycję lidera branży, budując największą i najbardziej zaawansowaną komercyjnie sieć obliczeniową GPU dla przedsiębiorstw, opartą na zdecentralizowanym modelu Physical Infrastructure Network (DePIN). Przełom komercyjny w skalowalnej infrastrukturze mocy obliczeniowej Do tej pory Aethir wdrożył ponad 435 000 kontenerów GPU klasy enterprise na całym świecie, obejmując najnowsze architektury sprzętowe NVIDIA, takie jak H100, H200, B200 i B300, dostarczając klientom korporacyjnym ponad 1,4 miliarda godzin rzeczywistych usług obliczeniowych. Tylko w trzecim kwartale 2025 roku Aethir osiągnął przychody w wysokości 39,8 miliona dolarów, co pozwoliło platformie przekroczyć roczny powtarzalny przychód (ARR) na poziomie 147 milionów dolarów. Wzrost Aethir wynika z rzeczywistych potrzeb przedsiębiorstw, w tym usług inferencji AI, treningu modeli, dużych platform AI Agent oraz obciążeń produkcyjnych dla globalnych wydawców gier. Ta struktura przychodów oznacza pierwsze pojawienie się skalowalnej platformy mocy obliczeniowej na torze DePIN, z płatnościami przedsiębiorstw jako główną siłą napędową. Infrastruktura Aethir została zintegrowana z kluczowymi systemami produkcyjnymi kilku wiodących firm AI. 1. Wykorzystując sieć obliczeniową Aethir, Kluster.ai skrócił proces selekcji pacjentów do badań klinicznych, który wcześniej trwał miesiące, do zaledwie kilku minut, znacząco zwiększając komercyjną opłacalność medycznej AI. 2. Attentions.ai zbudował i wdrożył niestandardowe modele dużej skali klasy enterprise za pośrednictwem Aethir, napędzając praktyczne zastosowanie platformy AI bez kodowania w tradycyjnych branżach. 3. Mondrian AI, wybrany do „KOREA AI STARTUP 100”, wykorzystuje Aethir jako podstawową moc obliczeniową dla swoich usług AI dla przedsiębiorstw. Na poziomie branży gier, możliwości produkcyjne Aethir przeszły szeroko zakrojoną walidację komercyjną. 1. Dane testowe SuperScale pokazują, że produkty oparte na architekturze cloud gamingu w czasie rzeczywistym Aethir zwiększyły preferencje użytkowników o 43%, współczynnik klikalności o 35%, a końcowy współczynnik konwersji o 45% w porównaniu z tradycyjnymi metodami pobierania. 2. W projekcie Reality+ Doctor Who: Worlds Apart, Aethir przyczynił się do wzrostu współczynnika konwersji instalacji o 201% oraz wzrostu ARPU o 61%. Obecnie ponad 400 gier przeszło testy integracyjne przez Xsolla, a globalni liderzy wydawniczy tacy jak Scopely, Zynga i Jam City prowadzą dogłębną ocenę systemu. Poparcie instytucjonalne: Narodziny Strategic Compute Reserve W październiku 2025 roku Aethir zakończył strategiczną inwestycję w token ATH o wartości 344 milionów dolarów (NASDAQ: POAI) i oficjalnie uruchomił Aethir Digital Asset Treasury (DAT). Mechanizm ten jest pozycjonowany jako pierwszy na świecie framework „Strategic Compute Reserve” (SCR), mający na celu integrację zdecentralizowanych aktywów obliczeniowych z systemami bilansowymi klasy enterprise oraz eksplorację ścieżki głębokiej integracji aktywów obliczeniowych z tradycyjnymi rynkami kapitałowymi. Na dzień 10 listopada 2025 roku DAT ujawnił posiadanie 5,7 miliarda tokenów ATH i planuje świadczyć usługi dla firm AI poprzez wdrażanie zasobów GPU, a uzyskane przychody będą wykorzystywane do odwrotnego wykupu ATH, tworząc pozytywną pętlę „dostawa mocy obliczeniowej—monetyzacja przedsiębiorstw—ekosystemowy wykup”. Ten ruch kapitałowy uplasował Aethir jako jedną z nielicznych platform w sektorze DePIN, które uzyskały rzeczywiste uznanie ze strony tradycyjnych rynków kapitałowych i po raz pierwszy wprowadziły „zdecentralizowaną moc obliczeniową” do alokacji aktywów instytucjonalnych. Możliwości dostarczania usług dla przedsiębiorstw w zdecentralizowanej architekturze Zdecentralizowana sieć GPU zbudowana przez Aethir osiągnęła lub nawet przewyższyła tradycyjnych, scentralizowanych dostawców chmury pod względem wydajności, stabilności i struktury kosztów. GPU klasy H100 obsługują obecnie ponad 90% globalnych zadań inferencji dużych modeli, a w pierwszym kwartale 2025 roku NVIDIA skierowała 60% swojej mocy do klientów AI z sektora enterprise, co dodatkowo podkreśla strategiczny niedobór wysokiej klasy GPU. Dzięki rozproszonemu systemowi dostaw sprzętu, Aethir omija cykl budowy tradycyjnych centrów danych i wąskie gardła łańcucha dostaw, zapewniając przedsiębiorstwom wydajność obliczeniową zbliżoną do poziomu bare-metal, wyższą wykorzystanie zasobów, bardziej elastyczne możliwości wyceny oraz znacząco obniżone całkowite koszty użytkowania. DePIN wchodzi w erę „realizmu napędzanego przychodami” Zgodnie z prognozą McKinsey, globalne inwestycje w budowę centrów danych osiągną do 2030 roku 67 bilionów dolarów. Jednocześnie rynek DePIN ma wzrosnąć do poziomu 35 bilionów dolarów do 2028 roku. Jednak tylko platformy z rzeczywistą zdolnością generowania przychodów i skalowalnymi możliwościami dostarczania usług mają szansę zbudować długoterminową przewagę konkurencyjną na tym rynku. O Aethir Aethir to wiodąca na świecie zdecentralizowana platforma chmurowa GPU, zobowiązana do świadczenia usług mocy obliczeniowej klasy enterprise dla AI, gier i aplikacji Web3 nowej generacji. Dzięki rozproszonej architekturze sieci GPU, Aethir przekształca globalną niewykorzystaną moc obliczeniową w zasoby chmurowe, do których przedsiębiorstwa mogą uzyskać natychmiastowy dostęp, budując bardziej otwartą, wydajną i zdecentralizowaną infrastrukturę cyfrową.
Źródło oryginału: Aethir W obliczu globalnie rosnącego zapotrzebowania na infrastrukturę AI, tradycyjne scentralizowane systemy chmury obliczeniowej zaczynają ujawniać ograniczenia pojemności i efektywności. Wraz z szybkim rozwojem trenowania dużych modeli, wnioskowania AI oraz aplikacji agentowych, GPU przekształcają się z „zasobu obliczeniowego” w „strategiczne aktywo infrastrukturalne”. W tej strukturalnej transformacji rynku, Aethir, wykorzystując zdecentralizowany model sieci infrastruktury fizycznej (DePIN), zbudował największą i najbardziej skomercjalizowaną w branży sieć obliczeniową GPU klasy korporacyjnej, szybko zdobywając pozycję lidera w branży. Przełom komercjalizacji infrastruktury obliczeniowej na dużą skalę Do tej pory Aethir wdrożył na całym świecie ponad 435 000 kontenerów GPU klasy korporacyjnej, obejmujących najnowsze architektury sprzętowe NVIDIA, takie jak H100, H200, B200 i B300, dostarczając klientom korporacyjnym łącznie ponad 1.4 miliarda godzin rzeczywistych usług obliczeniowych. Tylko w trzecim kwartale 2025 roku Aethir osiągnął przychód w wysokości 39.8 milionów dolarów, co pozwoliło platformie przekroczyć roczny powtarzalny przychód (ARR) na poziomie 147 milionów dolarów. Wzrost Aethir pochodzi z rzeczywistego zapotrzebowania korporacyjnego, w tym usług wnioskowania AI, trenowania modeli, platform dużych AI Agent oraz produkcyjnych obciążeń globalnych wydawców gier. Ta struktura przychodów oznacza, że po raz pierwszy na torze DePIN pojawiła się platforma obliczeniowa na dużą skalę, napędzana głównie płatnościami korporacyjnymi. Infrastruktura Aethir została włączona do kluczowych systemów produkcyjnych wielu wiodących firm AI. 1. Kluster.ai, opierając się na sieci obliczeniowej Aethir, skrócił proces selekcji pacjentów do badań klinicznych z kilku miesięcy do kilku minut, znacznie zwiększając komercyjną wykonalność AI w medycynie. 2. Attentions.ai, dzięki Aethir, buduje i wdraża korporacyjne prywatne duże modele, wspierając wdrożenia platform AI bez kodowania w tradycyjnych branżach. 3. Mondrian AI, wybrany do „KOREA AI STARTUP 100”, wykorzystuje Aethir jako podstawę obliczeniową dla swoich usług AI klasy korporacyjnej. Na poziomie branży gier, zdolność produkcyjna Aethir została już szeroko zweryfikowana komercyjnie. 1. Testy SuperScale pokazują, że produkty oparte na architekturze cloud gaming Aethir zwiększają preferencje użytkowników o 43%, współczynnik konwersji kliknięć o 35%, a końcowy współczynnik konwersji płatności o 45% w porównaniu z tradycyjnymi metodami pobierania. 2. W projekcie „Doctor Who: Worlds Apart” firmy Reality+, Aethir zwiększył współczynnik konwersji instalacji o 201%, a ARPU o 61%. Obecnie ponad 400 gier zostało podłączonych do testów przez Xsolla, a czołowi światowi wydawcy, tacy jak Scopely, Zynga i Jam City, przeprowadzają dogłębną ocenę tego systemu. Instytucjonalne poparcie: narodziny strategicznych rezerw obliczeniowych W październiku 2025 roku Aethir zakończył inwestycję kierunkową w tokeny ATH o wartości 344 milionów dolarów (NASDAQ: POAI) i oficjalnie uruchomił Aethir Digital Asset Treasury (DAT). Mechanizm ten został określony jako pierwszy na świecie framework „Strategic Compute Reserve” (SCR), którego celem jest włączenie zdecentralizowanych aktywów obliczeniowych do długoterminowego bilansu korporacyjnego oraz eksploracja głębokiej integracji aktywów obliczeniowych z tradycyjnymi rynkami kapitałowymi. Na dzień 10 listopada 2025 roku DAT ujawnił posiadanie 5.7 miliarda ATH i planuje świadczyć usługi dla firm AI poprzez wdrażanie zasobów GPU, a uzyskane przychody przeznaczać na wykup ATH, tworząc w ten sposób pozytywną pętlę „dostawa mocy obliczeniowej — monetyzacja korporacyjna — ekosystemowy wykup”. Ta strukturalna operacja kapitałowa sprawia, że Aethir jest jednym z nielicznych podmiotów w sektorze DePIN, które uzyskały rzeczywiste uznanie na tradycyjnych rynkach kapitałowych, a także po raz pierwszy wprowadza „zdecentralizowaną moc obliczeniową” do poziomu alokacji aktywów instytucjonalnych. Zdolność dostaw korporacyjnych w zdecentralizowanej architekturze Zbudowana przez Aethir zdecentralizowana sieć GPU pod względem wydajności, stabilności i struktury kosztów dorównuje, a nawet przewyższa tradycyjnych scentralizowanych dostawców chmury. GPU klasy H100 obecnie obsługują ponad 90% globalnych zadań wnioskowania dużych modeli, a w pierwszym kwartale 2025 roku NVIDIA przeznaczy 60% swojej produkcji dla klientów AI klasy korporacyjnej, co dodatkowo podkreśla strategiczny niedobór zaawansowanych GPU. Aethir, dzięki rozproszonemu systemowi dostaw sprzętu, omija cykle budowy tradycyjnych centrów danych i wąskie gardła łańcucha dostaw, oferując przedsiębiorstwom wydajność zbliżoną do bare metal przy znacznie niższych kosztach i większej elastyczności cenowej. DePIN wchodzi w erę „napędzaną rzeczywistymi przychodami” Zgodnie z prognozami McKinsey, do 2030 roku globalne inwestycje w budowę centrów danych osiągną 6.7 biliona dolarów. Jednocześnie rynek DePIN ma wzrosnąć do 3.5 biliona dolarów do 2028 roku. Jednak tylko platformy, które mają rzeczywiste przychody korporacyjne i zdolność do skalowalnej dostawy, będą w stanie zbudować długoterminową przewagę konkurencyjną w tym sektorze. O Aethir Aethir to wiodąca na świecie zdecentralizowana platforma infrastruktury chmurowej GPU, której celem jest dostarczanie usług obliczeniowych klasy korporacyjnej dla AI, gier i aplikacji Web3 nowej generacji. Dzięki rozproszonej architekturze sieci GPU, Aethir przekształca globalnie niewykorzystaną moc obliczeniową w zasoby chmurowe dostępne na żądanie dla przedsiębiorstw, budując bardziej otwartą, wydajną i zdecentralizowaną infrastrukturę cyfrową.
Autor: Techub Hot News Autor: Glendon, Techub News Oryginalny tytuł: Rozwiązanie „warstwy interoperacyjnej” Ethereum: od „labiryntu” zarządzania łańcuchami do „autostrady” ery sieciowej Ethereum buduje wysoce zintegrowany i współdziałający ekosystem łańcuchów. Wczoraj wieczorem, oficjalny blog Ethereum Foundation ujawnił, że zespół ds. abstrakcji kont i łańcuchów Ethereum zaproponował rozwiązanie „Ethereum Interop Layer (EIL)”, którego celem jest połączenie wszystkich sieci warstwy drugiej (L2) w jeden, spójny łańcuch Ethereum na poziomie percepcji użytkownika, tak aby transakcje między L2 były tak proste jak transakcje na jednym łańcuchu, przy jednoczesnym zachowaniu minimalnego zaufania i decentralizacji. Koncepcja tej warstwy interoperacyjnej została po raz pierwszy przedstawiona pod koniec sierpnia tego roku i obecnie znajduje się w fazie testów i rozwoju. Wcześniej Ethereum, dzięki technologii Rollup, osiągnęło skalowalność, znacznie obniżając koszty transakcji i zapewniając wystarczającą przestrzeń blokową, co oznacza, że jego wizja globalnej platformy obliczeniowej stopniowo się realizuje. Jednak rozwój technologiczny często ma dwie strony medalu – ta ewolucja przyniosła również nieoczekiwane skutki uboczne, z których najbardziej widocznym jest fragmentacja doświadczenia użytkownika. Rozkwit i wyzwania L2 Obecny ekosystem L2 jest dość złożony, przypominając rozproszone wyspy – każdy łańcuch ma własny model Gas, system mostów międzyłańcuchowych, a nawet system portfeli. Użytkownicy przenosząc aktywa między sieciami takimi jak Arbitrum, Base czy Scroll, muszą ręcznie wybierać łańcuch, potwierdzać ścieżkę międzyłańcuchową i ufać zewnętrznym dostawcom płynności – ta złożoność operacji stoi w sprzeczności z pierwotną obietnicą Ethereum o „bezproblemowym, bez zaufania” doświadczeniu. Z perspektywy użytkownika, skutki tej fragmentacji są poważne. Pierwotna płynność doświadczenia Ethereum została poważnie osłabiona, a zastąpiły ją skomplikowane operacje wynikające z istnienia wielu niezależnych „małych Ethereum”. Użytkownicy muszą zarządzać nie tylko prostymi transakcjami, ale także wieloma L2. To nie tylko zwiększa tarcia operacyjne i obciążenie poznawcze, ale także wprowadza dodatkowe ryzyka związane z zaufaniem, takie jak zależność od mostów, przekaźników czy sekwencerów, a także zwiększa ryzyko cenzury. Chociaż przed pojawieniem się propozycji Ethereum Interop Layer (EIL) pojawiły się w branży próby ujednolicenia doświadczenia użytkownika L2, to niestety większość z nich odbiegała od podstawowych wartości Ethereum. Na przykład, niektóre rozwiązania wprowadzały pośredników do obsługi transakcji, osłabiając odporność na cenzurę; inne powierzały środki stronom trzecim, co znacznie obniżało bezpieczeństwo, a logika działająca na serwerach stron trzecich niszczyła przejrzystość i ducha open source. Te sprzeczności doprowadziły do powstania fundamentalnej potrzeby: odbudowy doświadczenia użytkownika na wzór pojedynczego łańcucha, przy jednoczesnym zachowaniu zalet skali L2. Jak zatem Ethereum Interop Layer (EIL) rozwiązuje tę sprzeczność? Filozoficzne podstawy EIL: paradygmat interoperacyjności bez zaufania Ethereum Interop Layer (EIL) ma być kluczowym przełomem w rozwiązaniu tej sprzeczności, a jego głównym celem jest bycie bezpiecznym i wydajnym protokołem komunikacyjnym, a nie narzędziem finansowym. Logika projektowa EIL polega na tym, aby transakcje Rollup na Ethereum były jak transakcje na jednym łańcuchu – użytkownik musi podpisać tylko raz, aby wykonać transakcję międzyłańcuchową, bez wprowadzania nowych założeń dotyczących zaufania. Filozofia projektu opiera się na dwóch kluczowych zasadach: abstrakcji kont ERC-4337 i deklaracji braku zaufania. Abstrakcja kont ERC-4337, poprzez standaryzację logiki kont, umożliwia EIL użytkownikom inicjowanie operacji międzyłańcuchowych bezpośrednio z portfela, bez konieczności polegania na przekaźnikach czy solverach. Konkretny mechanizm działania jest następujący: w EIL użytkownik korzysta z konta ERC-4337, którego logika została zoptymalizowana pod kątem scenariuszy wielołańcuchowych. Portfel generuje wiele różnych UserOps, a następnie podpisuje jednorazowo korzeń Merkle wszystkich tych UserOps. Weryfikacja konta na każdym łańcuchu wymaga (i) jednego UserOp, (ii) gałęzi Merkle potwierdzającej przynależność do drzewa Merkle oraz (iii) podpisu korzenia tego drzewa Merkle. Główną zaletą tego podejścia jest wsparcie dla portfeli sprzętowych, które zazwyczaj nie obsługują jednoczesnego generowania N podpisów (portfel wymaga tylko jednego kliknięcia użytkownika, aby podpisać). Na tej podstawie projekt EIL ściśle przestrzega deklaracji braku zaufania. EIL umieszcza kluczową logikę on-chain i integruje ją z portfelem użytkownika, zapewniając, że wszystkie operacje są wykonywane w weryfikowalnym środowisku on-chain. Na przykład, gdy użytkownik mintuje NFT międzyłańcuchowe, portfel automatycznie łączy salda z wielu łańcuchów i transparentnie obsługuje opłaty Gas, bez konieczności powierzania środków dostawcom płynności. Projekt ten w pełni chroni cztery kluczowe wartości Ethereum: samodzielną kontrolę (użytkownik ma pełną kontrolę nad aktywami), odporność na cenzurę (brak scentralizowanych pośredników mogących blokować transakcje), prywatność (inteligentne kontrakty zastępują pośredników, nie trzeba ujawniać adresu IP czy intencji przekaźnikom lub solverom) oraz weryfikowalność (cała logika jest open source i podlega audytowi). Jak podkreśla Ethereum Foundation, z punktu widzenia architektury technicznej, EIL jest odpowiednikiem „protokołu HTTP” dla Ethereum. Tak jak HTTP ujednolicił doświadczenie dostępu do serwerów we wczesnym Internecie, celem EIL jest uczynienie portfela uniwersalnym oknem wejściowym do ekosystemu wielołańcuchowego, ostatecznie realizując wizję „wiele warstw L2, jedno Ethereum”. Jednocześnie dla użytkowników to rewolucja od „zarządzania łańcuchami” do „świadomości łańcuchów”. Wdrożenie EIL całkowicie zmieni sposób interakcji użytkowników z ekosystemem wielołańcuchowym, szczególnie w trzech kluczowych aspektach: transferach międzyłańcuchowych, mintowaniu międzyłańcuchowym i wymianie międzyłańcuchowej. Użytkownicy mogą wykonać wszystko jednym kliknięciem, bez konieczności wyboru ścieżki międzyłańcuchowej czy ponoszenia dodatkowych opłat, jak w tradycyjnym modelu. Kluczowe jest tutaj podejście „portfel jako brama”, gdzie cała złożoność międzyłańcuchowa jest ukryta. Ostatecznie wprowadzenie EIL wywoła efekt kaskadowy w ekosystemie Ethereum: Ewolucja portfeli i DAppów: producenci portfeli nie muszą już tworzyć dedykowanych integracji dla każdego nowego łańcucha, a standaryzowany interfejs EIL sprawia, że obsługa wielu łańcuchów staje się domyślną funkcją. Deweloperzy mogą skupić się na innowacjach w doświadczeniu użytkownika, zamiast na powielaniu infrastruktury międzyłańcuchowej. Szybka integracja Rollupów: gdy nowa sieć dołącza do ekosystemu, kompatybilność EIL pozwala jej bezproblemowo zintegrować się z istniejącymi portfelami, przyspieszając iterację technologiczną i wzrost użytkowników. Wzmocnienie modelu zaufania: EIL eliminuje zależność od operatorów off-chain, podnosząc interoperacyjność międzyłańcuchową z „modelu scentralizowanej giełdy” do „modelu zdecentralizowanej giełdy”. Aktywa użytkowników są zawsze przechowywane przez smart kontrakty, bez ryzyka kontrahenta, jednocześnie wzmacniając zobowiązanie Ethereum jako „światowego komputera”. Warto zauważyć, że pojawienie się EIL wywrze ogromny wpływ na obecny układ rynku, eliminując zapotrzebowanie na przekaźniki i solverów oraz inne pośredniczące podmioty. Ponieważ użytkownicy będą preferować usługi portfeli, nieuchronnie doprowadzi to do spadku projektów zajmujących się rozwiązywaniem lub przekazywaniem transakcji L2 – ich wolumen transakcji może spaść o ponad 80%, a nawet całkowicie zniszczyć tę branżę, zmuszając pośredników do szybkiej adaptacji i transformacji lub do zniknięcia. Ogólnie rzecz biorąc, koncepcja Ethereum Interop Layer (EIL) ma znaczenie wykraczające poza samą technologię. To powrót do pierwotnych założeń Ethereum: globalnej, otwartej, bezproblemowej i bez zaufania platformy obliczeniowej. Gdy portfel stanie się uniwersalną bramą, a operacje międzyłańcuchowe będą tak proste jak transakcje na jednym łańcuchu, „era sieciowa” Ethereum naprawdę się rozpocznie.
Kluczowe informacje Ethereum Interop Layer ma na celu zapewnienie dostępu do wszystkich L2 za pomocą jednego portfela, bez potrzeby korzystania z mostów lub relayerów. EIL zachowuje samodzielną kontrolę nad środkami i odporność na cenzurę, przenosząc logikę cross-chain do zweryfikowanych smart kontraktów. Deweloperzy zyskują natywne portfele multichain, które upraszczają integrację i automatycznie obsługują nowe rollupy. Ethereum Foundation zaprezentowała Ethereum Interop Layer (EIL), inicjatywę techniczną mającą na celu ujednolicenie doświadczenia użytkownika w rozwijającym się ekosystemie rollupów Ethereum, zgodnie z najnowszą propozycją zespołu Account Abstraction. EIL obiecuje rozwiązanie oparte na portfelu, umożliwiające płynne działania na różnych warstwach Layer 2, dążąc do tego, by Ethereum funkcjonowało dla użytkowników i deweloperów jak pojedynczy łańcuch. EIL celuje w fragmentację ekosystemu layer 2 Ethereum Pojawienie się rollupów przyniosło efektywność i przystępne transakcje, ale wprowadziło również fragmentację zarówno aktywów, jak i doświadczenia użytkownika. Poruszanie się po tokenach znajdujących się na Arbitrum, Base, Scroll czy Linea obecnie wymaga znajomości specyfiki każdego łańcucha, korzystania z mostów i relayerów oraz ciągłej ręcznej interakcji. EIL dąży do wyeliminowania tych punktów styku poprzez ukrycie złożoności i konsolidację logiki transakcji wewnątrz portfela użytkownika. Dzięki warstwie interoperacyjnej użytkownicy mogą wykonywać operacje takie jak wysyłanie tokenów, mintowanie NFT czy wymiana aktywów pomiędzy Layer 2 jednym kliknięciem, bez konieczności identyfikowania lub interakcji z poszczególnymi łańcuchami. Istnieje wiele łańcuchów Layer 2, co utrudnia korzystanie z Ethereum. Źródło: CoinGecko Zachowanie kluczowych zasad bezpieczeństwa Ethereum EIL jest zbudowany na bazie ERC-4337 account abstraction i kieruje się zasadami określonymi w Trustless Manifesto, zaprezentowanym 13 listopada. System zapewnia, że wszystkie działania cross-L2 są inicjowane i rozliczane bezpośrednio z portfeli użytkowników, bez nowych założeń dotyczących zaufania czy pośredników. Podstawowe wartości, takie jak samodzielna kontrola nad środkami, odporność na cenzurę, prywatność i możliwość weryfikacji on-chain, są zachowane. Model zaufania pozostaje minimalny; użytkownicy nie polegają na zewnętrznych mostach czy operatorach off-chain, lecz dokonują transakcji zgodnie z zasadami zakodowanymi w smart kontraktach i otwartoźródłowym kodzie portfela. Wpływ na użytkowników i deweloperów Dla użytkowników EIL został zaprojektowany tak, by odczuwali „jedno Ethereum”, eliminując tarcia wynikające z rozproszonych sald i procedur specyficznych dla łańcuchów. Transakcje takie jak transfery cross-chain, mintowanie i wymiana są realizowane tak, jakby wszystkie aktywa współistniały w jednym rejestrze. Portfele stają się uniwersalnymi portalami, a wybór łańcuchów i koordynacja ruchu aktywów odbywa się niewidocznie w tle, zgodnie z blogiem Ethereum Foundation. Z perspektywy dewelopera EIL centralizuje interoperacyjność w portfelu, eliminując potrzebę dedykowanych integracji na poziomie aplikacji i przyspieszając wdrażanie nowych sieci. W rezultacie dappsy i portfele są natywnie multichainowe, oferując znajome i uproszczone doświadczenie zarówno dla nowych, jak i istniejących rollupów. Kolejne kroki Ethereum w kierunku zunifikowanej skalowalności Ethereum Interop Layer oznacza przejście od osiągnięć w zakresie przepustowości transakcji do usprawnień w prostocie interakcji i kompozycyjności cross-chain. Umożliwiając użytkownikom dostęp do całego ekosystemu Ethereum przez jeden interfejs portfela, EIL ma na celu przywrócenie poczucia jedności i działania bez zaufania, które charakteryzowały wczesną wizję Ethereum. Inicjatywa zespołu Ethereum Foundation wzywa zespoły portfeli, twórców dappów i projektantów sieci do udziału w jej rozwoju i pomocy w realizacji wizji płynnej, jednolitej sieci Ethereum.
Oryginalny autor: Eric, Foresight News 1 listopada Vitalik zacytował tweeta założyciela ZKsync dotyczącego aktualizacji ZKsync Atlas i pochwalił ZKsync za wykonanie wielu „niedocenianych, ale bardzo wartościowych dla ekosystemu Ethereum prac”. Rynek szybko zareagował na słowa Vitalika – cena ZK w ciągu dwóch dni weekendu wzrosła maksymalnie ponad 2,5-krotnie, a tokeny z ekosystemu ZK, w tym ALT (AltLayer), STRK (Starknet), SCR (Scroll), MINA (Mina) i inne, również odnotowały znaczne wzrosty. Po zapoznaniu się z aktualizacją ZKsync Altas, odkryliśmy, że to, co robi ZKsync, rzeczywiście może być niedoceniane. Szybkie, małe, ale drogie ZKP Ethereum Foundation od dawna promuje ZKP (zero-knowledge proof, dowód zerowej wiedzy), którego istotą jest rozwiązanie problemu wolnej weryfikacji i dużej ilości danych do weryfikacji. ZKP to w istocie problem probabilistyczny w matematyce. Przykład, choć nie do końca precyzyjny, może przybliżyć zasadę działania: załóżmy, że ktoś twierdzi, iż rozwiązał „problem czterech kolorów”. Jak można potwierdzić, że rzeczywiście to zrobił, nie ujawniając całego rozwiązania? Rozwiązanie ZKP polega na wybraniu pewnych fragmentów grafu i udowodnieniu, że w tych fragmentach nie ma dwóch sąsiadujących obszarów o tym samym kolorze. Gdy liczba wybranych fragmentów osiągnie określoną wartość, można z prawdopodobieństwem 99,99...% stwierdzić, że dana osoba rozwiązała problem czterech kolorów. W ten sposób, nie znając całości, możemy udowodnić, że „rzeczywiście rozwiązano problem czterech kolorów”. Powyższe to właśnie często słyszane „dowód zerowej wiedzy, czyli udowodnienie wykonania czegoś bez ujawniania sposobu, w jaki to zrobiono”. Dlaczego więc ZKP jest tak promowane w ekosystemie Ethereum? Ponieważ teoretyczny limit prędkości ZKP jest znacznie wyższy niż w przypadku dowodu każdej transakcji z osobna, a sam dowód zajmuje bardzo mało danych. Szybkość wynika z tego, że ZKP nie wymaga znajomości całości, wystarczy przeprowadzić wyzwanie. Na przykład, aby zweryfikować blok Ethereum, obecnie każdy węzeł sprawdza każdą transakcję pod kątem podstawowych kwestii, takich jak wystarczające saldo adresu wykonującego. Jednak jeśli tylko jeden węzeł zweryfikuje każdą transakcję za pomocą ZKP i wygeneruje „dowód”, pozostałe węzły muszą jedynie zweryfikować sam „dowód”. Co ważniejsze, rozmiar tego „dowodu” jest bardzo mały, więc jego przesyłanie i weryfikacja są bardzo szybkie, a koszty przechowywania danych niższe. Dlaczego więc nie wdrożyć tej technologii na szeroką skalę, skoro ma same zalety? Bo jest zbyt droga. ZKP, choć nie wymaga odtwarzania całego procesu, samo wyzwanie pochłania ogromne zasoby obliczeniowe. Jeśli, jak w wyścigu zbrojeń AI, masowo inwestować w GPU, można osiągnąć większą prędkość, ale nie każdego na to stać. Jeśli jednak dzięki innowacjom algorytmicznym i inżynieryjnym uda się obniżyć wymagania dotyczące mocy obliczeniowej i skrócić czas generowania dowodu przy niskiej mocy, osiągając równowagę między „wzrostem cen Ethereum napędzanym innowacjami technologicznymi i nowymi aplikacjami” a „kosztem zakupu GPU do uruchamiania węzłów”, to jest to warte zachodu. Dlatego wiele projektów ZK w ekosystemie Ethereum oraz deweloperzy open source skupiają się na połączeniu ZKP z Ethereum, dążąc do generowania dowodów ZK szybciej i taniej. Niedawno zespół Brevis, korzystając z rozwiązania SP1 Hypercube, osiągnął średni czas dowodu dla bloku Ethereum wynoszący 6,9 sekundy (99,6% dowodów trwało krócej niż średni czas generowania bloku Ethereum: poniżej 12 sekund), zużywając tylko połowę zasobów (64 karty RTX 5090 GPU), co spotkało się z uznaniem społeczności Ethereum. Choć koszt GPU nadal przekracza 100 tysięcy dolarów, to przynajmniej prędkość dowodu spadła do poziomu obecnego bez ZKP, a kolejnym zadaniem jest dalsze obniżanie kosztów. Aktualizacja Altas umożliwiła 1-sekundową finalność ZK Być może niewiele osób wie, że otwartoźródłowy zkVM ZKsync Airbender to najszybszy zkVM pod względem weryfikacji na pojedynczym GPU. Według danych Ethproofs, średni czas weryfikacji na pojedynczej karcie 4090 dla ZKsync Airbender wynosi 51 sekund, a koszt to mniej niż jeden cent – oba wyniki są najlepsze wśród zkVM. Zgodnie z danymi ZKsync, bez uwzględnienia rekursji, Airbender z pojedynczą kartą H100 i modelem przechowywania ZKsync OS weryfikuje blok głównej sieci Ethereum średnio w 17 sekund. Nawet z rekursją, średni czas wynosi około 35 sekund. ZKsync uważa, że to znacznie lepszy wynik niż weryfikacja w mniej niż 12 sekund przy użyciu kilkudziesięciu kart GPU. Jednak, ponieważ obecnie dostępne są dane tylko dla dwóch kart GPU (średnio 22,2 sekundy), ostateczna ocena jeszcze nie zapadła. Nie jest to jednak wyłącznie zasługa Airbendera – kluczowe znaczenie ma głęboka integracja z technologicznym stosem ZKsync, a optymalizacja algorytmiczna i inżynieryjna to tylko część sukcesu. Co ważniejsze, pokazuje to, że możliwe jest generowanie dowodów dla głównej sieci Ethereum w czasie rzeczywistym przy użyciu pojedynczego GPU. Pod koniec czerwca ZKsync wprowadził Airbender, a przedostatniego dnia święta narodowego wdrożono aktualizację Altas. Ta aktualizacja, integrująca Airbender, znacząco poprawiła przepustowość, szybkość potwierdzania i koszty ZKsync. Jeśli chodzi o przepustowość, ZKsync zoptymalizował sortownik inżynieryjnie: poprzez niezależne asynchroniczne komponenty maksymalnie ograniczono koszty synchronizacji; oddzielono stan wymagany przez maszynę wirtualną, stan wymagany przez API oraz stan potrzebny do generowania dowodów ZK lub ich weryfikacji na warstwie L1, co zmniejszyło zbędne koszty komponentów. Według testów ZKsync, TPS (transakcji na sekundę) dla aktualizacji cen o wysokiej częstotliwości, przelewów stablecoinów w scenariuszach płatności oraz natywnych przelewów ETH wyniosły odpowiednio 23k, 15k i 43k. Kolejna ogromna zmiana jakościowa pochodzi od Airbendera, który umożliwił ZKsync 1-sekundowe potwierdzenie bloku i koszt pojedynczego przelewu na poziomie 0,0001 USD. W przeciwieństwie do weryfikacji bloków głównej sieci, ZKsync weryfikuje jedynie poprawność transformacji stanu, co wymaga znacznie mniej obliczeń. Chociaż transakcje z finalnością ZK muszą zostać ostatecznie potwierdzone na głównej sieci (L1), to już sama weryfikacja ZK potwierdza ich ważność, a finalność L1 jest bardziej formalnością proceduralną. Oznacza to, że transakcje wykonywane na ZKsync mogą być w pełni potwierdzone jako ważne już po weryfikacji ZKP, a przy znacznie niższych kosztach ZKsync umożliwia, jak sami twierdzą, scenariusze aplikacyjne możliwe tylko dzięki Airbender: Po pierwsze, są to naturalnie aplikacje takie jak księgi zamówień on-chain, systemy płatności, giełdy i automatyczni animatorzy rynku. Airbender pozwala na bardzo szybkie weryfikacje i rozliczenia, zmniejszając ryzyko cofnięcia transakcji w tych aplikacjach. Po drugie, coś, czego wiele obecnych L2 nie jest w stanie osiągnąć – wsparcie dla systemów publicznych i prywatnych (np. Prividiums ZKsync) interoperujących bez udziału stron trzecich. Prividiums to infrastruktura ZKsync umożliwiająca firmom budowanie prywatnych łańcuchów. Dla przedsiębiorstw kluczowe są szybkie rozliczenia i prywatność. Szybkie rozliczenia są oczywiste, a wrodzona prywatność ZKP pozwala firmom na interoperacyjność z publicznymi łańcuchami bez ujawniania księgi, przy jednoczesnej weryfikacji ważności transakcji. Połączenie tych cech spełnia nawet wymogi dotyczące czasu rozliczeń dla papierów wartościowych i transakcji walutowych on-chain. To być może właśnie dlatego ZKsync stał się drugim co do wielkości po Ethereum sieciowym emitentem tokenizowanych aktywów RWA. ZKsync z dumą podkreśla, że wszystko to jest możliwe tylko dzięki aktualizacji Altas: sortownik zapewnia niskie opóźnienia w pakowaniu transakcji, Airbender generuje dowód w ciągu sekundy, a Gateway weryfikuje i koordynuje komunikaty cross-chain. Połączenie L1 i L2 Jak napisał Vitalik w cytowanym tweecie, założyciel ZKsync Alex uważa, że po aktualizacji Altas ZKsync rzeczywiście połączył się z główną siecią Ethereum. Obecnie czas ostatecznego potwierdzenia transakcji na ZKsync (około 1 sekundy) jest krótszy niż czas generowania bloku na głównej sieci Ethereum (średnio 12 sekund), co oznacza, że transakcje instytucjonalne i RWA na ZKsync są zasadniczo równoważne tym na głównej sieci Ethereum – wystarczy poczekać na potwierdzenie głównej sieci. Oznacza to, że ZKsync nie musi budować centrum płynności na L2, może korzystać bezpośrednio z płynności głównej sieci, ponieważ cross-chain w ZK Rollup nie wymaga 7-dniowego okresu wyzwania jak w OP Rollup, a aktualizacja Altas jeszcze bardziej przyspieszyła ten proces. To poprawiło problem fragmentacji L2, o którym ostatnio dyskutuje społeczność Ethereum – L2 i L1 nie są już dwiema oddzielnymi sieciami, lecz dzięki szybkiemu potwierdzaniu i weryfikacji tworzą jedną całość, a L2 po raz pierwszy naprawdę można nazwać „siecią skalującą”. Pamiętam, że gdy ZKsync i Scroll po raz pierwszy uruchomiły główną sieć, szybkość potwierdzania transakcji i opłaty za gas były takie same lub nawet wyższe niż na głównej sieci, głównie dlatego, że na początku brakowało systematycznej optymalizacji algorytmicznej i inżynieryjnej ZKP, co skutkowało wolną weryfikacją i wysokimi kosztami, a wtedy pojawił się nawet kryzys zaufania do ZK Rollup. Dziś Optimism i Arbitrum powoli przechodzą z OP Rollup na ZK Rollup (lub ich kombinację), a dalsza poprawa kosztów i szybkości ZK Rollup, takich jak ZKsync, oraz zdecentralizowane ZKP Scroll przeszły od „niedorzeczności” do oczekiwanych rezultatów. Od powszechnej krytyki do bycia „gorącym towarem” – ZK doczekało się świtu. Po pełnej decentralizacji sortownika i mostu cross-chain z multisigiem być może naprawdę uda się osiągnąć to, co powiedział partner zarządzający Dragonfly, Hasseb Qureshi: „can't be evil”.
Jeśli chodzi o pojedynczy GPU, Airbender nie tylko oferuje najszybszą weryfikację, ale także najniższy koszt. Autor: Eric, Foresight News 1 listopada Vitalik zacytował wpis założyciela ZKsync dotyczący aktualizacji ZKsync Atlas i pochwalił ZKsync za wykonanie wielu „niedocenianych, ale bardzo wartościowych dla ekosystemu Ethereum prac”. Rynek szybko zareagował na słowa Vitalika – cena ZK w ciągu dwóch dni weekendu wzrosła maksymalnie ponad 2,5-krotnie, a tokeny z ekosystemu ZK, w tym ALT (AltLayer), STRK (Starknet), SCR (Scroll), MINA (Mina) i inne, również odnotowały znaczne wzrosty. Po zapoznaniu się z aktualizacją ZKsync Altas, odkryliśmy, że to, co robi ZKsync, rzeczywiście mogło być niedocenione. Szybkie, małe, ale drogie ZKP Fundacja Ethereum już od dawna promuje ZKP (zero-knowledge proof, dowód zerowej wiedzy), którego istotą jest rozwiązanie problemu wolnej weryfikacji i dużej ilości danych do weryfikacji. ZKP to zasadniczo problem probabilistyczny w matematyce. Przykład, choć nie do końca precyzyjny, może przybliżyć zasadę działania: załóżmy, że ktoś twierdzi, iż rozwiązał „problem czterech kolorów”. Jak można potwierdzić, że rzeczywiście to zrobił, nie ujawniając całego rozwiązania? Rozwiązaniem ZKP jest wybranie kilku fragmentów grafu i udowodnienie, że w tych fragmentach nie ma dwóch sąsiadujących obszarów o tym samym kolorze. Gdy liczba wybranych fragmentów osiągnie określony poziom, można z prawdopodobieństwem 99,99...% stwierdzić, że dana osoba rozwiązała problem czterech kolorów. W ten sposób, nie znając całości, udowadniamy, że „rzeczywiście rozwiązał problem czterech kolorów”. Powyższe to właśnie często słyszane „udowodnienie wykonania czegoś bez ujawniania jak to zrobiono” – czyli zero-knowledge proof. Dlaczego więc ZKP jest tak mocno promowane w ekosystemie Ethereum? Ponieważ teoretyczna granica szybkości ZKP jest znacznie wyższa niż przy dowodzeniu każdej transakcji osobno, a ilość danych generowanych przez dowód jest bardzo mała. Szybkość wynika z tego, że ZKP nie wymaga znajomości całości – wystarczy wyzwanie. Na przykład, aby zweryfikować blok Ethereum, obecnie każdy węzeł sprawdza każdą transakcję pod kątem podstawowych kwestii, takich jak wystarczające saldo. Jeśli jednak tylko jeden węzeł zweryfikuje każdą transakcję za pomocą ZKP i wygeneruje „dowód”, pozostałe węzły muszą jedynie sprawdzić wiarygodność samego „dowodu”. Co ważniejsze, ilość danych tego „dowodu” jest bardzo mała, więc jego przesyłanie i weryfikacja są bardzo szybkie, a koszt przechowywania danych niższy. Dlaczego więc nie wdrożyć tej technologii na szeroką skalę, skoro ma same zalety? Bo jest bardzo droga. ZKP, choć nie wymaga odtwarzania całego procesu, to samo wyzwanie pochłania ogromne zasoby obliczeniowe. Jeśli, jak w wyścigu zbrojeń AI, masowo gromadzić GPU, można osiągnąć większą szybkość, ale nie każdy może ponieść takie koszty. Jeśli jednak dzięki innowacjom algorytmicznym i inżynieryjnym uda się obniżyć wymagania dotyczące mocy obliczeniowej i czas generowania dowodu przy niskiej mocy do pewnego poziomu, osiągając równowagę między „wzrostem ceny Ethereum napędzanym przez innowacje technologiczne i nowe aplikacje” a „kosztem zakupu GPU do uruchomienia węzła”, to jest to warte zachodu. Dlatego wiele projektów koncepcyjnych ZK w ekosystemie Ethereum lub deweloperów open source skupia się na połączeniu ZKP z Ethereum, by generować dowody ZK szybciej i taniej. Niedawno zespół Brevis, wykorzystując rozwiązanie SP1 Hypercube, osiągnął średni czas dowodu bloku Ethereum 6,9 sekundy (99,6% dowodów trwało krócej niż średni czas generowania bloku Ethereum: poniżej 12 sekund), zużywając tylko połowę zasobów (64 karty RTX 5090 GPU) w porównaniu do innych rozwiązań – dlatego społeczność Ethereum była pod wrażeniem. Chociaż koszt GPU nadal przekracza 100 tysięcy dolarów, to przynajmniej czas dowodu spadł do poziomu porównywalnego z obecnym brakiem ZKP, a kolejnym zadaniem jest dalsze obniżenie kosztów. Aktualizacja Altas umożliwiła 1-sekundową finalność ZK Być może niewiele osób wie, że open-source’owy zkVM ZKsync Airbender to najszybszy zkVM pod względem weryfikacji na pojedynczym GPU. Według danych Ethproofs, średni czas weryfikacji pojedynczą kartą 4090 w ZKsync Airbender wynosi 51 sekund, a koszt to mniej niż jeden cent – oba wyniki są najlepsze wśród zkVM. Zgodnie z danymi ZKsync, bez uwzględnienia rekursji, Airbender przy użyciu pojedynczej karty H100 i modelu przechowywania ZKsync OS weryfikuje blok głównej sieci Ethereum w średnim czasie 17 sekund. Nawet z rekursją, średni czas wynosi około 35 sekund, co według ZKsync jest znacznie lepsze niż konieczność użycia kilkudziesięciu GPU do weryfikacji w mniej niż 12 sekund. Jednak, ponieważ obecnie dostępne są dane tylko z dwóch GPU (średnio 22,2 sekundy), ostateczna ocena nie jest jeszcze przesądzona. To wszystko nie jest wyłącznie zasługą Airbender – optymalizacja algorytmiczna i inżynieryjna to tylko część sukcesu, a kluczowe znaczenie ma głęboka integracja z technologicznym stosem ZKsync. Co ważniejsze, pokazuje to, że możliwe jest generowanie dowodów na żywo dla głównej sieci Ethereum przy użyciu pojedynczego GPU. Pod koniec czerwca ZKsync wprowadził Airbender, a przedostatniego dnia Święta Narodowego uruchomiono aktualizację Altas. Ta aktualizacja, integrująca Airbender, znacząco poprawiła przepustowość, szybkość potwierdzania i koszty w ZKsync. W zakresie przepustowości ZKsync zoptymalizował sortownik: dzięki niezależnym komponentom asynchronicznym zminimalizowano koszty synchronizacji; oddzielono stan wymagany przez maszynę wirtualną, stan wymagany przez API oraz stan potrzebny do generowania dowodów zero-knowledge lub ich weryfikacji na warstwie L1, co zmniejszyło zbędne koszty komponentów. W testach ZKsync, TPS (transakcje na sekundę) dla wysokoczęstotliwościowych aktualizacji cen, transferów stablecoinów w scenariuszach płatności i natywnych transferów ETH wyniosły odpowiednio 23k, 15k i 43k. Kolejna ogromna zmiana jakościowa pochodzi od Airbender – umożliwił on ZKsync potwierdzanie bloków w 1 sekundę i koszt pojedynczego transferu na poziomie 0,0001 dolara. W przeciwieństwie do weryfikacji bloków głównej sieci, ZKsync weryfikuje tylko poprawność transformacji stanu, więc obliczenia są znacznie mniejsze. Chociaż finalność transakcji ZK wymaga jeszcze potwierdzenia na głównej sieci, to już samo ZK potwierdzenie oznacza ważność transakcji, a finalność L1 jest bardziej formalnością proceduralną. Oznacza to, że transakcje wykonywane na ZKsync mogą być w pełni potwierdzone już po weryfikacji ZKP, a dzięki znacznemu obniżeniu kosztów ZKsync umożliwił – jak sami twierdzą – scenariusze aplikacyjne możliwe tylko dzięki Airbender: Po pierwsze, są to naturalnie aplikacje takie jak księgi zamówień on-chain, systemy płatności, giełdy i automatyczni animatorzy rynku. Airbender pozwala na bardzo szybkie weryfikacje i rozliczenia, zmniejszając ryzyko cofnięcia transakcji na łańcuchu. Po drugie, coś, czego obecnie wiele L2 nie potrafi – wsparcie dla interoperacyjności systemów publicznych i prywatnych (np. Prividiums ZKsync) bez udziału stron trzecich. Prividiums to infrastruktura ZKsync umożliwiająca firmom budowę prywatnych łańcuchów. Dla przedsiębiorstw kluczowe są szybkie rozliczenia i prywatność. Szybkie rozliczenia są oczywiste, a wrodzona prywatność ZKP pozwala na weryfikację ważności transakcji podczas interoperacji z publicznym łańcuchem bez ujawniania księgi prywatnego łańcucha. Połączenie tych cech spełnia nawet wymogi dotyczące czasu rozliczeń dla papierów wartościowych i transakcji walutowych na łańcuchu. To być może również powód, dla którego ZKsync stał się drugim co do wielkości po Ethereum sieciowym emitentem tokenizowanych aktywów RWA. ZKsync z dumą podkreśla, że wszystko to możliwe jest tylko dzięki aktualizacji Altas: sortownik zapewnia niskie opóźnienia w pakowaniu transakcji, Airbender generuje dowód w ciągu sekundy, a Gateway weryfikuje i koordynuje wiadomości cross-chain. Połączenie L1 i L2 Jak zauważył Vitalik, cytując wpis, założyciel ZKsync Alex uważa, że po aktualizacji Altas ZKsync rzeczywiście połączył się z główną siecią Ethereum. Obecnie czas ostatecznego potwierdzenia transakcji w ZKsync (około 1 sekundy) jest krótszy niż czas generowania bloku w głównej sieci Ethereum (średnio 12 sekund), co oznacza, że transakcje instytucjonalne i RWA na ZKsync są zasadniczo równoważne tym na głównej sieci – wystarczy poczekać na potwierdzenie z głównej sieci. Oznacza to, że ZKsync nie musi budować własnych centrów płynności na L2, ale może korzystać bezpośrednio z płynności głównej sieci, ponieważ ZK Rollup nie wymaga 7-dniowego okresu wyzwania jak OP Rollup, a aktualizacja Altas jeszcze bardziej przyspieszyła ten proces. To poprawiło problem fragmentacji L2, o którym ostatnio dyskutuje społeczność Ethereum – L2 i L1 nie są już odrębnymi łańcuchami, lecz dzięki szybkiemu potwierdzaniu i weryfikacji stają się jednością, a L2 po raz pierwszy naprawdę można nazwać „siecią skalującą”. Pamiętam, że gdy ZKsync i Scroll po raz pierwszy uruchomiły główną sieć, czas potwierdzenia transakcji i opłaty za gaz były takie same lub nawet wyższe niż na głównej sieci, głównie dlatego, że na początku brakowało systemowej optymalizacji algorytmicznej i inżynieryjnej dla ZKP, co skutkowało wolną weryfikacją i wysokimi kosztami, a wtedy pojawił się nawet kryzys zaufania do ZK Rollup. Dziś Optimism i Arbitrum powoli przechodzą z OP Rollup do ZK Rollup (lub ich połączenia), a dalsza poprawa kosztów i szybkości w ZKsync i innych ZK Rollup oraz decentralizacja ZKP w Scroll sprawiają, że to, co kiedyś wydawało się nierealne, staje się realną i oczekiwaną perspektywą. Od bycia krytykowanym do stania się „gorącym towarem” – ZK doczekało się świtu. Po pełnej decentralizacji sortownika i mostów cross-chain z wielopodpisem, być może naprawdę uda się zrealizować to, co powiedział partner zarządzający Dragonfly, Hasseb Qureshi: „can't be evil”.
BlockBeats donosi, że 2 listopada, według danych rynkowych, napędzane przez wzrost ZKsync o ponad 88% w ciągu jednego dnia, dziś tokeny z sektora ZK oraz L2 odnotowały wyraźne wzrosty, w tym: ALT wzrósł o 22,3% w ciągu 24 godzin; STRK wzrósł o 17,1% w ciągu 24 godzin; SCR wzrósł o 17,5% w ciągu 24 godzin; MINA wzrósł o 43,2% w ciągu 24 godzin. Wcześniej informowano, że Vitalik stale śledzi postępy aktualizacji ZKsync i wielokrotnie wchodził z nim w interakcje, chwaląc ZKsync za niedocenioną, ale wartościową pracę w ekosystemie Ethereum.
Foresight News donosi, że Scroll ogłosił uruchomienie programu punktowego mającego na celu nagradzanie wczesnych użytkowników. Poprzez zakup, posiadanie i używanie USX, Scroll będzie automatycznie śledzić i naliczać punkty, bez potrzeby ręcznego ubiegania się o nie.
Rynek w zeszłym tygodniu był daleki od spokojnego. Po epickiej likwidacji dźwigni wywołanej „czarnym łabędziem” związanym z taryfami makroekonomicznymi w przedostatni weekend (10 października), cała branża kryptowalutowa w zeszłym tygodniu (13-17 października) z trudem się odbudowywała, wciąż będąc w szoku. Bitcoin spadł z poziomu 126 000 USD do poniżej 107 000 USD, dziesiątki miliardów dolarów wyparowały, a panika na rynku jeszcze całkowicie nie zniknęła. W tym tygodniu, gdy rynek dopiero co wyszedł z „intensywnej terapii” (ICU), natychmiast stanie w obliczu dwóch przeciwnych, ale równie silnych sił: jednej pochodzącej z Waszyngtonu, czyli „wewnętrznej gry”, która dotyczy długoterminowej przyszłości branży; drugiej pochodzącej z makroekonomii, czyli „zewnętrznego szoku”, który decyduje o krótkoterminowych wahaniach. To tydzień, w którym w ostrym starciu „długoterminowej narracji regulacyjnej” z „krótkoterminowymi danymi makro” rynek próbuje znaleźć nowy punkt równowagi na gruzach. Fokus 1: Uczta w Waszyngtonie? Giganci kryptowalut spotykają się w Senacie W tę środę w Waszyngtonie odbędzie się najwyższej rangi „zamknięte spotkanie przy okrągłym stole” branży kryptowalutowej ostatnich lat. Zgodnie z informacjami przekazanymi przez dziennikarkę kryptowalutową Eleanor Terrett, CEO lub główni prawnicy niemal wszystkich czołowych amerykańskich firm kryptowalutowych, w tym Coinbase, Chainlink, Galaxy, Kraken, Uniswap, Circle, Ripple, a16z crypto, spotkają się z senatorami Demokratów popierającymi kryptowaluty. Temat spotkania dotyczy kluczowych kwestii — „struktury rynku i kierunków rozwoju w przyszłości”. To zdecydowanie nie jest zwykłe spotkanie PR-owe. Po długotrwałej walce regulacyjnej, to bardziej przypomina „rozgrywkę na otwartą kartę”. Giganci branży próbują wyrazić jednolity i najsilniejszy głos, zanim ramy regulacyjne zostaną ostatecznie ustalone. Wyniki tego spotkania mogą bezpośrednio wpłynąć na tonowanie legislacji dotyczącej aktywów kryptowalutowych (zwłaszcza DeFi i stablecoinów) w USA w nadchodzących latach. Długoterminowi inwestorzy rynkowi wstrzymują oddech w oczekiwaniu. Fokus 2: Makroekonomiczny „Super Piątek” i „debiut kryptowalutowy” Fed Jeśli Waszyngton decyduje o „dalszej perspektywie”, to makroekonomiczne dane tego tygodnia decydują o „teraźniejszości”. Po pierwsze, z powodu opóźnienia spowodowanego zamknięciem rządu, planowane na zeszły tydzień dane o amerykańskim CPI za wrzesień zostaną opublikowane w tym samym dniu (w ten piątek, 24 października, UTC+8) co dane Markit dotyczące PMI w przemyśle za październik. To tworzy rzadki „makroekonomiczny Super Piątek”. Rynek powszechnie oczekuje, że CPI pozostanie na wysokim poziomie, a uporczywość inflacji bazowej wciąż jest problematyczna. Te dwa wskaźniki są kluczowymi elementami decyzji przed kolejnym posiedzeniem Fed, a każde dane powyżej oczekiwań mogą w piątek wywołać krótkoterminową panikę lub euforię na rynku. Jeszcze bardziej niepokojące dla branży kryptowalut jest to, że Fed również „wchodzi do gry”. We wtorek (21 października) Fed zorganizuje konferencję na temat „innowacji w płatnościach” (UTC+8). Tematy są niezwykle bliskie rdzeniu kryptowalut: stablecoiny, sztuczna inteligencja i tokenizacja. Członek zarządu Fed Christopher Waller wygłosi przemówienie otwierające. To niemal pierwszy raz, gdy Fed na oficjalnej konferencji tak skoncentrowanie omawia te nowe tematy. Czy zamierzają je przyjąć, regulować czy „wchłonąć”? Sformułowania Wallera będą ważnym wskaźnikiem przyszłego podejścia regulacyjnego, zwłaszcza w zakresie polityki dotyczącej stablecoinów. Fokus 3: Sezon wyników i wewnętrzna presja sprzedażowa na rynku Oprócz głównych tematów regulacyjnych i makroekonomicznych, nie można zignorować dwóch „źródeł szumu”. Po pierwsze, sezon wyników w Chinach i USA wchodzi w kulminację. W tym tygodniu swoje wyniki ogłoszą Tesla, Intel, Netflix oraz chińskie spółki notowane na giełdzie A, takie jak CATL i iFlytek. W obecnych, kruchych nastrojach rynkowych, wyniki tych „barometrów” z branży technologicznej i AI będą miały bezpośredni wpływ na notowania Nasdaq, a tym samym silnie przełożą się na rynek kryptowalut, który charakteryzuje się wysoką zgodnością apetytu na ryzyko. Po drugie, najbardziej bezpośredni „test presji sprzedażowej” na rynku. Według danych Token Unlocks, w tym tygodniu nastąpi jednorazowe odblokowanie dużej ilości tokenów o łącznej wartości ponad 50 milionów dolarów, z czego kilka głównych tokenów będzie pod szczególną presją: LayerZero (ZRO): 20 października (UTC+8) odblokowanie ok. 43,19 miliona dolarów (7,86% podaży w obiegu) Scroll (SCR): 22 października (UTC+8) odblokowanie ok. 14,23 miliona dolarów (43,42% podaży w obiegu) MBG By Multibank Group (MBG): 22 października (UTC+8) odblokowanie ok. 17,04 miliona dolarów (11,97% podaży w obiegu) Tak duża liczba odblokowań, zwłaszcza w wrażliwym okresie przed publikacją danych makroekonomicznych, będzie poważnym testem dla płynności tokenów takich jak ZRO czy SCR. Podsumowanie Podsumowując, to zdecydowanie nie będzie spokojny tydzień. W poniedziałek (dziś) dane z chińskiego PKB i inne wskaźniki ustalą „ton otwarcia” dla globalnych aktywów ryzykownych na ten tydzień; we wtorek konferencja Fed na temat „innowacji w płatnościach” przetestuje granice regulacji; w środę giganci kryptowalut będą „przechodzić test” w Waszyngtonie; na koniec, wszystkie emocje zostaną skumulowane i uwolnione w piątek wraz z publikacją amerykańskich danych „CPI+PMI”. Inwestorzy powinni zapiąć pasy — to tydzień, który wystawi na próbę siłę woli i będzie pełen nieprzewidywalnych zmian.
Original Article Title: Jak insiderzy Polymarket mogą pomóc Ci wygrywać prawie za każdym razem Original Article Author: The Smart Ape, LBank Partner Original Article Translation: AididiaoJP, Foresight News Jak znaleźć insiderów na Polymarket Polymarket to duży i szybko rozwijający się rynek, którego wolumen obrotu przekroczył 15 miliardów dolarów od momentu uruchomienia. Co fascynujące, użytkownicy mogą stosować wiele zaawansowanych strategii, aby osiągać zyski, takich jak arbitraż, dostarczanie płynności, łapanie rabatów, handel wysokiej częstotliwości i inne. To wciąż wczesny i ewoluujący rynek, który obecnie wchodzi w fazę regulacyjną, co oznacza, że nadal istnieje wiele możliwości. Jednak jedna metoda wciąż pozostaje w dużej mierze niewykorzystana: analiza insiderów. Polymarket to otwarta platforma, co oznacza, że każdy może tworzyć rynki na dowolny temat. Niektóre rynki opierają się całkowicie na informacji publicznej, jak na przykład "Kto wygra następne Mistrzostwa Świata?", podczas gdy inne dotyczą wydarzeń, których odpowiedź zna już niewielka grupa osób, jak "Kto otrzyma kolejną Pokojową Nagrodę Nobla?". W przypadku rynku Nagrody Nobla, komitet odpowiedzialny za wybór laureatów oczywiście zna wyniki wcześniej niż ktokolwiek inny, a niektórzy z nich mogą po cichu wykorzystać tę wiedzę do handlu na Polymarket. Jeśli potrafisz śledzić ruchy tych insiderów, możesz praktycznie z niemal stuprocentową pewnością obstawiać poprawny wynik, ponieważ insiderzy dokładnie wiedzą, co się wydarzy. Kolejnym przykładem jest "Monad Airdrop do 31 października". Zespół projektu i osoby blisko związane z projektem już wiedzą, czy to się wydarzy, więc każdy, kto potrafi śledzić te portfele, ma znaczącą przewagę. Istnieje kilka sposobów na wykrycie potencjalnej aktywności insiderów. Najprostszą metodą jest użycie Hashdive(dot)com, obecnie najlepszego narzędzia analitycznego Polymarket, które dostarcza szeroką gamę wskaźników i danych dla każdego rynku. · Najpierw wybierz rynek, na którym może mieć miejsce aktywność insiderów, na przykład airdrop Monad. · Kliknij w ten rynek, a zobaczysz szczegółową stronę zawierającą analizę i wskaźniki. · Przewiń w dół do sekcji "Possible Insiders". Weźmy pierwszego tradera z listy jako przykład: Postawił on 100 000 dolarów na "Nie" i jest to jego jedyna transakcja na tym rynku. To bardzo podejrzane — nowy portfel inwestujący dużą kwotę tylko na jednym rynku. Ta osoba najprawdopodobniej jest członkiem zespołu Monad lub kimś blisko z nimi związanym. Celem nie jest skupianie się na pojedynczych traderach, lecz analiza zbiorowej aktywności grupy. Niektórzy mogą być prawdziwymi insiderami, inni po prostu podążają za nimi; klucz tkwi w ogólnym wzorcu. W tym przykładzie niemal wszyscy najlepsi traderzy postawili na "Nie". Osiem najlepszych portfeli jest po tej samej stronie, każdy używa nowego portfela i trzyma dużą pozycję tylko na jednym lub dwóch rynkach. To wyraźny sygnał: insiderzy wydają się być pewni, że do 30 października nie będzie airdropu Monad. Obecnie cena po stronie "Nie" wynosi około 0,83 dolara, co oznacza potencjalny gwarantowany zwrot prawie 17% do 30 października. Niektóre rynki nie mają sekcji "Possible Insiders", co jest całkowicie normalne. Na przykład na rynku "Wybory prezydenckie w Boliwii" raczej nie ma prawdziwych insiderów, ponieważ w przypadku wyrównanej rywalizacji nikt naprawdę nie wie, jak zagłosują ludzie. Dlatego kluczowe jest wybieranie rynków, na których może istnieć informacja poufna, oraz wczesne śledzenie ruchów insiderów. Im wcześniej zauważysz te ruchy, tym większy potencjalny zysk. Jeśli będziesz czekać zbyt długo, dołączą kolejni insiderzy, ceny się zmienią, a Twoja szansa na zysk się zmniejszy. Twoja przewaga zależy całkowicie od tego, jak wcześnie ich odkryjesz. Studium przypadku: Nagroda Nobla Jednym z najlepszych przykładów zastosowania tej strategii w praktyce jest rynek: “Zwycięzca Pokojowej Nagrody Nobla 2025.” Niektórzy traderzy najwyraźniej mieli tę informację 9 godzin przed oficjalnym ogłoszeniem. W ciągu kilku sekund szanse Marii Machado wzrosły z 3,6% do 70%, na długo przed ogłoszeniem wyników. To był ewidentny ruch insidera, ktoś ujawnił decyzję przed czasem. Niektórzy traderzy osiągnęli zwroty 20-krotnie przewyższające ich inwestycje, albo dlatego, że podążyli za ruchem insidera, albo dlatego, że sami byli insiderami: · Debased zamienił 2,5 tys. dolarów w 75 tys. dolarów · CannonFodders zamienił 900 dolarów w 30 tys. dolarów · Gopfan 2 zamienił 700 dolarów w 26 tys. dolarów Wszyscy weszli na rynek, gdy szanse Marii Machado w tajemniczy sposób zaczęły gwałtownie rosnąć. Te osoby mogły być członkami Komitetu Noblowskiego, blisko związanymi z komitetem lub nawet dziennikarzami śledczymi, którzy odkryli przeciek. Jedno jest pewne: niektórzy mieli wiarygodne informacje 9 godzin przed oficjalnym ogłoszeniem. Kiedy kursy na Polymarket wzrosły z 3% do 70% w ciągu kilku minut, obecność insiderów jest niezaprzeczalna. Norweskie władze nawet wszczęły śledztwo w sprawie insider tradingu w tej sprawie. Podobno skupili się na portfelu ‘6741’, który postawił 50 tys. dolarów kilka godzin przed ogłoszeniem wyników. Ten portfel miał tylko jedną transakcję i tylko na tym rynku, co natychmiast wzbudziło podejrzenia. Dlaczego obecność insiderów to tak naprawdę dobra rzecz Początkowo możesz pomyśleć, że insiderzy szkodzą Polymarket, ale w rzeczywistości pomagają mu osiągnąć jego prawdziwy cel. Prawdziwa misja Polymarket nie polega na zarabianiu lub traceniu pieniędzy, lecz na ujawnianiu zbiorowej prawdy o przyszłych wydarzeniach. Im więcej insiderów, tym dokładniejsza cena i tym bardziej wiarygodne informacje dostarcza rynek. Weźmy przykład Nagrody Nobla. Nie muszę czekać na oficjalne ogłoszenie; Polymarket już mi powiedział, kto wygra. W tym sensie Polymarket wyprzedza wszystkie główne media, co czyni go tak potężnym. Insiderzy posiadający wiarygodne informacje pomagają korygować błędy cenowe i pośrednio przekazują tę wiedzę innym poprzez zmiany cen. To ultrawydajny mechanizm dystrybucji informacji. Bez insiderów ceny odzwierciedlają jedynie opinie i spekulacje. Z nimi ceny odzwierciedlają ukryte, lecz rzeczywiste fakty. Dlatego niektórzy ekonomiści, jak twórca koncepcji "prediction markets", uważają, że insider trading w tym przypadku jest korzystny: Zawęża lukę między przekonaniem a rzeczywistością. Tworzy także system motywacyjny oparty na prawdzie: Jeśli insiderzy handlują na podstawie prawdziwych informacji, zarabiają. Jeśli się mylą lub kłamią, tracą. Nie ma motywacji do szerzenia fałszywych wiadomości, bo zapłacą za to cenę. Co najważniejsze, ci insiderzy nie szkodzą innym. W przeciwieństwie do rynku tokenów, gdzie insiderzy zrzucają tokeny na detalicznych traderów, prediction markets są dobrowolne, a traderzy są świadomi ryzyka asymetrii informacji. To gra prawdopodobieństwa, a nie inwestycja długoterminowa. Dlatego, o ile zasady są jasne, insiderzy mogą poprawiać trafność prognoz bez powodowania systemowej niesprawiedliwości. Narzędzia do ich śledzenia Oto niektóre z najbardziej przydatnych narzędzi do analizy danych Polymarket. Ta lista nie jest wyczerpująca, ponieważ ciągle pojawiają się nowe narzędzia. Dune Dashboards: Dziesiątki dashboardów Polymarket, niektóre ogólne (wolumen, użytkownicy, transakcje), inne wyspecjalizowane (insiderzy, tracker airdropów, wieloryby itd.). PolymarketAnalytics(dot)com: Jedno z najbardziej kompleksowych narzędzi. Pozwala śledzić traderów na rynku w czasie rzeczywistym, odkrywać najważniejsze alerty, wieloryby, smart money i analizować wyniki. Hashdive(dot)com: Kolejna potężna platforma analityczna. Każda strona rynku zawiera dogłębne wskaźniki oraz nową sekcję "Insiders", która pomaga zidentyfikować potencjalnych insiderów.
Zanim zaczniesz grać na kontraktach perpetual, musisz wiedzieć, że to jest gra o sumie zerowej. Autor: Eric, Foresight News Współzałożyciel HyperLiquid, Jeff Yan, wyraził wczoraj nad ranem kilka opinii na temat działania HyperLiquid podczas weekendowego krachu na rynku, wspominając: „To był pierwszy raz od ponad dwóch lat działalności HyperLiquid, kiedy uruchomiono automatyczną redukcję pozycji cross-margin (ADL)”. Automatyczna redukcja pozycji, czyli automatyczne obniżenie dźwigni (Auto-deleveraging, ADL), to temat, którego wiele CEX-ów stara się unikać, a wielu użytkowników często narzeka na X. Oczywiście, można zrozumieć, dlaczego użytkownicy się skarżą: automatyczna redukcja pozycji oznacza, że giełda przymusowo zamyka pozycje użytkowników, przez co „zarabiają mniej”. Często można zobaczyć na X narzekania na giełdy, które przez uruchomienie ADL uniemożliwiły inwestorom osiągnięcie widocznych na papierze zysków na kontraktach na altcoiny o niskiej płynności. Ekstremalne ruchy rynkowe zawsze skłaniają do nowych przemyśleń. Tym razem HyperLiquid podczas gwałtownego spadku nie miało żadnych problemów z handlem ani wypłatami, podczas gdy niektóre perp DEX-y były zmuszone zawiesić wypłaty, co sprawiło, że wiele osób zaczęło ponownie zastanawiać się nad rzeczywistą wartością ADL. Fundusz ubezpieczeniowy i ADL Od czasu GMX, protokoły zewnętrznych depozytów do skarbca stały się niemal standardem dla perp DEX-ów, co w rzeczywistości jest on-chainową wersją „funduszu ubezpieczeniowego”. Na przykład podczas zeszłotygodniowych ekstremalnych spadków, wiele pozycji long z dźwignią zostało zlikwidowanych, ale jednocześnie na rynku brakowało wystarczającego popytu, aby je przejąć (popyt generowany przez aktywne longi i zamykanie shortów nie wystarczył, by przejąć zlecenia sprzedaży wynikające z likwidacji). Gdyby pozwolić na dalszy rozwój sytuacji, pojawiłyby się pozycje long, których depozyt zabezpieczający nie byłby w stanie pokryć strat. W tym momencie do gry wchodzi fundusz ubezpieczeniowy, który przejmuje zlecenia kupna/sprzedaży wynikające z likwidacji, aby utrzymać równowagę na rynku. Następnie, gdy cena się ustabilizuje i pojawią się nowi inwestorzy, te przejęte pozycje mogą być stopniowo zamykane, uwalniając zablokowane środki. Fundusz ubezpieczeniowy HyperLiquid to HLP. Jeff wyjaśnił, że w celu optymalizacji zarządzania ryzykiem HLP został podzielony na wiele subfunduszy, a każda likwidacja jest przejmowana tylko przez jeden subfundusz. Uruchomienie funduszu ubezpieczeniowego zasadniczo oznacza, że sytuacja rynkowa zmierza w kierunku ekstremum, a brak zleceń w przeciwnym kierunku wskazuje, że trend jest tak oczywisty, iż nawet najbardziej szaleni gracze wahają się, czy grać przeciwko niemu. Jeśli nawet fundusz ubezpieczeniowy nie jest w stanie przejąć kolejnych likwidowanych pozycji, trzeba sięgnąć po ADL, którego nikt nie chce, ale czasem jest konieczny. Z moich badań wynika, że na rynku dominują dwa główne sposoby wdrażania ADL. Jeden polega na wcześniejszym uruchomieniu automatycznej redukcji pozycji, gdy środki funduszu ubezpieczeniowego spadną do określonego poziomu, aby maksymalnie ograniczyć ryzyko systemowe. Drugi polega na przymusowym zamykaniu zyskownych pozycji po cenie likwidacji stratnych pozycji, gdy fundusz ubezpieczeniowy zostanie wyczerpany, aż do przywrócenia równowagi systemu. Zgodnie z dokumentacją HyperLiquid, stosują oni drugi sposób, co oznacza, że pierwsze w historii ADL cross-margin HyperLiquid w ciągu dwóch lat działalności oznaczało, że środki HLP zostały już wyczerpane lub były bliskie wyczerpania. Niektóre CEX-y stosują pierwszy mechanizm. Chociaż w przypadku mniejszych giełd może to prowadzić do celowego ograniczania zysków traderów, to jednak w większości przypadków sytuacja jest bardziej złożona – w CEX-ach występują różne przypadki złożonego zabezpieczania i pożyczania, a w przypadku ekstremalnych ruchów rynkowych siła likwidacji może być większa niż tylko na rynku kontraktów, dlatego potrzebna jest pewna tolerancja błędów. Podczas ADL istnieją określone zasady, kto zostanie najpierw zmuszony do wyjścia z rynku – zwykle uwzględnia się zyskowność, dźwignię i wielkość pozycji. Oznacza to, że największe, najbardziej zyskowne lub najwyżej lewarowane „wieloryby” zostaną usunięte w pierwszej kolejności. Doug Colkitt, założyciel DEX Ambient Finance na Scroll, skomentował na X: „Piękno rynku kontraktów polega na tym, że są to gry o sumie zerowej, więc cały system nigdy nie zbankrutuje. Nawet bitcoin nigdy naprawdę nie traci na wartości, to tylko kupa nudnej gotówki – jak w termodynamice, wartość nigdy nie jest tworzona ani niszczona w całym systemie.” Gra o sumie zerowej to podstawowa zasada tej gry. Gdy to zrozumiesz, możesz głębiej pojąć mechanizmy rządzące tą grą finansową. Jak zaakceptować „mniejsze zyski”? Jak wspomniano wcześniej, gdy mowa o ADL, użytkownicy niemal zawsze narzekają. W oczach większości użytkowników każda likwidacja lub strata jest realna, ale zyski mogą zostać automatycznie zamknięte przez system z powodu braku płynności, co wydaje się bardzo niesprawiedliwe. Użytkownicy uważają, że skoro stracone pieniądze trafiają do innych użytkowników, market makerów, a nawet giełdy, to gdy sami zarabiają, inni powinni „oddać” im pieniądze. Dlatego musisz zrozumieć prawdziwe znaczenie „gry o sumie zerowej”. Na rynku kontraktów perpetual, pomijając opłaty, suma strat zawsze równa się sumie zysków. Twoimi przeciwnikami są inni inwestorzy detaliczni, instytucje, market makerzy, zespoły tradingowe giełd. Jeśli nawet fundusz ubezpieczeniowy, który miał poprawiać doświadczenie użytkownika, a nie generować zysk, nie jest w stanie pokryć strat, oznacza to, że inni uczestnicy nie mają już żadnej chęci być twoją stroną przeciwną. W tym momencie, jeśli oczekujesz, że firma nastawiona na zysk pokryje twoje zyski własnymi stratami, których nie jest pewna, że odzyska, szanse na to są praktycznie zerowe. W niektórych przypadkach, np. gdy bezpodstawny FUD powoduje krótkoterminowy spadek ceny tokena, nawet jeśli spełnione są warunki ADL, giełda może przejąć twoją zyskowną pozycję z wiarą w przyszłość projektu (nie wykluczając tymczasowego zamrożenia zysków przez ograniczenie wypłat lub realizacji). Jeśli wiesz tylko, że kontrakty perpetual mają tryb isolated i cross-margin, znasz opłaty finansowe, wiesz jak liczyć dźwignię i cenę likwidacji, to nie jesteś jeszcze gotowy na tę grę. „Gra o sumie zerowej” oznacza, że jeśli twoje zyski przekroczą możliwości systemu, nie możesz zabrać ani grosza od systemu (czyli samej giełdy). Innymi słowy, twoje zyski zawsze mają ukryty sufit, ale jeśli od 1 dolara shortujesz bitcoin, a bitcoin długoterminowo rośnie, twoje straty nie mają limitu. Oczywiście można spojrzeć na to optymistycznie: jeśli spotka cię ADL, oznacza to, że na rynku nie ma już wystarczającej liczby przeciwników, którzy mogliby zhedgować twoją pozycję, co znaczy, że wybrałeś właściwy kierunek przed rozpoczęciem trendu i wytrwałeś aż do momentu, gdy wszyscy uznali ten kierunek za słuszny; jednocześnie oznacza to, że fundusz ubezpieczeniowy giełdy nie jest już w stanie lub nie chce przejmować kolejnych zleceń likwidacyjnych. Jeśli giełda nie ogranicza twoich zysków w złej wierze, to gratulacje – zarobiłeś maksymalnie tyle, ile pozwalają zasady tej gry i ile jest w stanie zaakceptować firma nastawiona na zysk. Jesteś ostatecznym zwycięzcą tej gry.
Foresight News donosi, że protokół dystrybucji płynności Turtle ogłosił Genesis airdrop oraz ujawnił szczegóły dotyczące alokacji TURTLE, z czego 11,9% zostanie przeznaczone dla użytkowników wnoszących wkład: w tym partnerzy ograniczeni i uczestnicy (9%), bonus za depozyt w TAC Vault (1,2%), polecenia użytkowników (0,7%), wczesni użytkownicy/rola Discord OG (0,3%), ranking płynności Turtle (0,2%), polecenia dealerów (0,2%), ranking Kaito (0,1%), BeraChain NFT (0,1%), Scroll NFT (0,1%) oraz inne kategorie; protokoły i partnerzy zintegrowani z aktywnościami i infrastrukturą Turtle otrzymają 2% alokacji. Turtle poinformował, że system usunął działania Sybil oraz konta botów. Alokacje z airdropu mniejsze lub równe 1 700 TURTLE zostaną całkowicie odblokowane podczas TGE, bez okresu nabywania praw; alokacje przekraczające 1 700 TURTLE będą dostępne w 70% do natychmiastowego odbioru podczas TGE, a pozostałe 30% zostanie przyznane liniowo w ciągu 12 tygodni. Po uruchomieniu airdropu posiadacze będą mogli stakować TURTLE jako sTURTLE, uzyskując prawo do delegowania i głosowania w zarządzaniu protokołem. Funkcja sprawdzania airdropu zostanie wkrótce udostępniona.
Vitalik Buterin uważa, że aktualizacja Fusaka oraz jej technologia PeerDAS stanowią decydujący punkt zwrotny dla przyszłości Ethereum. Dzięki rewolucji w zarządzaniu danymi blockchain, ta innowacja może rozwiązać złożone równanie pomiędzy skalowalnością a decentralizacją. Czytaj nas w Google News W skrócie Vitalik Buterin twierdzi, że PeerDAS jest kluczowym elementem aktualizacji Fusaka dla Ethereum. Technologia ta pozwala węzłom weryfikować bloki bez konieczności przechowywania wszystkich danych dzięki kodowaniu kasującemu. Ethereum po raz pierwszy osiągnęło sześć blobów na blok, co ujawnia rosnące zapotrzebowanie ze strony rollupów. Ethereum po raz pierwszy osiągnęło sześć blobów na blok, co ujawnia rosnące zapotrzebowanie ze strony rollupów. PeerDAS – innowacja techniczna w sercu Fusaka Vitalik Buterin właśnie zaprezentował innowację, która może odmienić ekosystem Ethereum. Współzałożyciel wskazał PeerDAS („Peer Data Availability Sampling”) jako klucz do skalowania sieci i jej trwałości wobec stale rosnącego popytu. W praktyce PeerDAS pozwala węzłom weryfikować istnienie bloku danych bez konieczności jego pełnego pobierania. Zamiast przechowywać cały plik, polegają na próbkach, które następnie są rekonstruowane dzięki kodowaniu kasującemu. Ta metoda, już sprawdzona w cyberbezpieczeństwie, fragmentuje dane, dodaje redundancję, a następnie umożliwia ich odtworzenie nawet w przypadku częściowej utraty. To przełomowe rozwiązanie łamie historyczne ograniczenie Ethereum: każdy węzeł nie musi już przechowywać wszystkich danych, aby uczestniczyć w sieci. Efekt jest podwójny: zwiększona przepustowość transakcji oraz zachowana decentralizacja. Buterin podkreśla także odporność systemu: nawet jeśli kilku uczestników działa złośliwie, obecność choćby jednego uczciwego walidatora wystarczy, by zagwarantować integralność procesu. Taka architektura chroni Ethereum przed potencjalnymi atakami, jednocześnie zwiększając jego moc przetwarzania. Ta ewolucja pojawia się w idealnym momencie. Od czasu wprowadzenia „blobów” wraz z aktualizacją Dencun, ich wykorzystanie gwałtownie wzrosło. W sierpniu Ethereum ustanowiło rekord, osiągając sześć blobów na blok. Rozwiązania warstwy 2, takie jak Base, Scroll czy Linea, już zajmują większość tej przestrzeni, generując ponad 200 000 dolarów opłat tygodniowo. W tym kontekście PeerDAS jawi się jako strategiczna odpowiedź. Optymalizując zarządzanie danymi, oferuje sieci sposób na absorpcję rosnącego popytu bez kompromisów w zakresie stabilności lub decentralizacji. Ethereum przyjmuje progresywną strategię wobec długoterminowego wyzwania Buterin pozostaje jednak ostrożny. Liczba blobów na blok nie wzrośnie gwałtownie, lecz będzie zwiększana stopniowo. Zbyt szybkie skalowanie, ostrzega, mogłoby wywołać zaburzenia i wywrzeć presję na niektóre części sieci. Harmonogram Fusaka odzwierciedla to stopniowe podejście: wdrożenie planowane jest na 3 grudnia 2025 roku, poprzedzone publicznymi testami na kilku sieciach oraz audytem bezpieczeństwa z pulą nagród 2 milionów dolarów na wykrycie potencjalnych luk. Jednak wyzwanie wykracza daleko poza samą warstwę 2. W dłuższej perspektywie PeerDAS może również przejąć część danych wykonawczych warstwy 1, odciążając tym samym węzły od obecnie ogromnego obciążenia. Ten mechanizm zapewniłby Ethereum zwiększoną zdolność do zaspokojenia rosnącego popytu napędzanego przez DeFi, stablecoiny i tokenizację aktywów, bez poświęcania neutralności czy odporności protokołu. Ta ewolucja wpisuje się w ambitną mapę drogową. Po Pectra i przed Glamsterdam, Fusaka to nie tylko aktualizacja techniczna. To prawdziwy strategiczny filar przyszłości Ethereum. Odzwierciedla wyraźną chęć przygotowania sieci do zajęcia centralnego miejsca w globalnych finansach, właśnie w momencie, gdy banki, firmy i państwa coraz częściej postrzegają blockchain jako kluczową infrastrukturę. Zatem PeerDAS nie jest jedynie technicznym udoskonaleniem. To bezpośrednia odpowiedź na wyzwania skalowalności i neutralności, przed którymi stoi Ethereum. Stawiając na innowację wdrażaną ostrożnie, ale z myślą o długoterminowej perspektywie, Buterin dąży do stopniowej transformacji sieci. Jeśli Fusaka spełni obietnice, Ethereum może osiągnąć decydujący kamień milowy i potwierdzić swoją ambicję: stać się kluczową infrastrukturą globalnych finansów cyfrowych.
Współzałożyciel Ethereum, Vitalik Buterin, wskazał Peer Data Availability Sampling (PeerDAS) jako kluczowe narzędzie do rozwiązania rosnących wymagań sieci dotyczących przechowywania blobów. PeerDAS jest funkcją nadchodzącej aktualizacji Fusaka. Jego uwagi pojawiają się w momencie, gdy Ethereum rejestruje sześć blobów na blok, co jest kamieniem milowym, który nasilił obawy dotyczące nadmiaru danych w całym ekosystemie. Bloby zostały wprowadzone poprzez EIP-4844 jako tymczasowe pojemniki na dane on-chain, zaprojektowane w celu obniżenia kosztów dla rollupów warstwy 2 przy jednoczesnym unikaniu stałego obciążenia przechowywania. W przeciwieństwie do call data, bloby wygasają po około dwóch tygodniach, zmniejszając długoterminowe potrzeby przechowywania przy zachowaniu integralności weryfikacji transakcji. Taka struktura sprawia, że rollupy są tańsze w obsłudze i zwiększa skalowalność Ethereum. Jednak to rozwiązanie przyczyniło się do szybkiej adopcji blobów w całej sieci blockchain. 24 września analityk on-chain Hildobby poinformował, że kilka rozwiązań warstwy 2 Ethereum, w tym Base, Worldcoin, Soneium i Scroll, obecnie w dużym stopniu polega na blobach. Biorąc to pod uwagę, analityk zauważył, że walidatorzy potrzebują teraz ponad 70 gigabajtów przestrzeni do zarządzania blobami, ostrzegając, że liczba ta może wzrosnąć do ponad 1.2 terabajtów, jeśli nie zostaną one przycięte. Ten gwałtowny wzrost zmusił deweloperów do poszukiwania rozwiązań, które równoważą skalowalność z efektywnością przechowywania. Jak działa PeerDAS Buterin wyjaśnił, że PeerDAS rozwiąże ten problem, zapobiegając przechowywaniu całego zbioru danych przez pojedynczy węzeł i rozdzielając odpowiedzialność na całą sieć. Według niego: „PeerDAS działa w ten sposób, że każdy węzeł prosi tylko o niewielką liczbę „kawałków”, aby probabilistycznie zweryfikować, że ponad 50% kawałków jest dostępnych. Jeśli ponad 50% kawałków jest dostępnych, węzeł teoretycznie może pobrać te kawałki i użyć kodowania kasowania do odzyskania reszty.” Jednak zauważył, że system nadal wymaga pełnych danych blokowych na pewnych etapach, takich jak początkowa transmisja lub gdy blok musi zostać odbudowany z częściowych danych. Aby zapobiec manipulacjom, Buterin podkreślił znaczenie „uczciwych uczestników”, którzy wypełniają te role. Zaznaczył jednak, że PeerDAS jest odporny nawet na duże grupy nieuczciwych uczestników, ponieważ inne węzły mogą przejąć odpowiedzialność w razie potrzeby. Wzrost liczby blobów Buterin zauważył, że główni deweloperzy Ethereum pozostają ostrożni wobec wdrożenia PeerDAS, pomimo lat badań nad tym projektem. Aby zminimalizować ryzyko, zgodzili się na etapowe wdrażanie poprzez forki Blob Parameter Only (BPO), zamiast jednego dużego zwiększenia pojemności. Pierwszy fork, zaplanowany na 17 grudnia, podniesie cele blobów z 6/9 do 10/15. Drugi fork, planowany na 7 stycznia 2026 roku, ponownie zwiększy limity do 14/21. To stopniowe podejście pozwala deweloperom monitorować wydajność sieci i dostosowywać ją stopniowo. Buterin oczekuje, że liczba blobów wzrośnie wraz z tymi zmianami, torując drogę do bardziej agresywnych wzrostów w przyszłości. Jego zdaniem PeerDAS będzie kluczowy dla utrzymania wzrostu warstwy 2 i przygotowania bazowej warstwy Ethereum do obsługi wyższych limitów gazu oraz ostatecznego przeniesienia danych wykonawczych całkowicie do blobów. Post Home staking at risk as Ethereum data loads climb from 70GB toward 1.2TB appeared first on CryptoSlate.
Współzałożyciel Ethereum, Vitalik Buterin, powiedział, że kluczową cechą aktualizacji Fusaka dla blockchaina jest PeerDAS, która stanowi klucz do skalowania sieci. PeerDAS, czyli Peer Data Availability Sampling, umożliwia węzłom weryfikację istnienia danych blokowych bez konieczności pobierania lub przechowywania ich w całości. Zamiast tego węzły pobierają mniejsze „kawałki” danych, a następnie wykorzystują kodowanie kasowania (erasure coding) do odtworzenia reszty, jak wyjaśnił Buterin w poście na X. Kodowanie kasowania to technika ochrony danych, która dzieli dane na części, dodaje nadmiarowe informacje i rozprowadza te części, dzięki czemu oryginalne dane mogą zostać odtworzone nawet wtedy, gdy niektóre fragmenty są nieobecne. Buterin opisał to podejście jako „dość bezprecedensowe”, ponieważ eliminuje potrzebę, by jakikolwiek pojedynczy węzeł przechowywał cały zbiór danych. W pierwszej wersji PeerDAS pełne dane bloku są nadal potrzebne w ograniczonych przypadkach — gdy bloki są po raz pierwszy rozgłaszane oraz gdy częściowe bloki wymagają rekonstrukcji. Nawet wtedy podkreślił, że wystarczy tylko jeden uczciwy uczestnik, aby ta „niezaufana” rola działała, co czyni proces odpornym na dużą liczbę nieuczciwych uczestników, a przyszłe ulepszenia pozwolą również na rozproszenie tych dwóch funkcji. Ethereum po raz pierwszy osiąga sześć blobów na blok Komentarze Buterina pojawiły się w odpowiedzi na wątek opublikowany przez szefa działu danych Dragonfly, „hildobby”, który zauważył, że Ethereum po raz pierwszy osiągnęło sześć blobów na blok. Bloby to pakiety danych transakcyjnych o stałym rozmiarze, wprowadzone w aktualizacji Dencun Ethereum, zaprojektowane, aby zapewnić rollupom tańszą, tymczasową pamięć niż zwykłe calldata. Każdy blok ma ograniczoną „blobspace”, a liczba blobów na blok — tzw. blob count — bezpośrednio wpływa na to, ile danych transakcyjnych mogą rozwiązania skalujące przesłać do Ethereum. Zgodnie z informacjami hildobby, wzrost wykorzystania blobów napędzany jest aktywnością rollupów takich jak Base, World, Scroll, Soneium i Linea, między innymi. Same Base i World zużywają większość dostępnej przestrzeni blob, a Layer 2 łącznie płacą około 200 000 dolarów tygodniowo w opłatach za mainnet. Niemniej jednak wiele blobów pozostaje częściowo pustych, a wzorce publikowania są niespójne, co utrudnia prognozowanie blobspace, jak zauważył analityk. Średnia liczba blobów na blok. Obraz: hildobby. Buterin przyznał, że te naciski istnieją i powiedział, że liczba blobów będzie początkowo skalowana ostrożnie, zanim z czasem wzrośnie bardziej agresywnie. Podkreślił, że to ostrożne wdrożenie jest zamierzone — główni deweloperzy chcą dokładnie przetestować system przed zwiększeniem pojemności, mimo że pracują nad nim już od lat. Chociaż liczba blobów determinuje, ile danych rollupy mogą przesłać na blok, zbyt szybkie skalowanie mogłoby obciążyć sieć. PeerDAS rozwiązuje ten problem, pozwalając węzłom weryfikować dostępność danych poprzez próbkowanie, a nie przechowywanie pełnych blobów, co stanowi podstawę ostrożnego podejścia do zwiększania liczby blobów w czasie. W dłuższej perspektywie Buterin widzi PeerDAS jako klucz nie tylko dla skalowania warstwy 2, ale także dla warstwy bazowej Ethereum. Gdy limit gazu wzrośnie wystarczająco wysoko, argumentował, nawet dane wykonawcze warstwy 1 mogłyby zostać przeniesione do blobów. To jeszcze bardziej zmniejszyłoby obciążenie węzłów i odblokowało potencjał skalowania, pozwalając Ethereum obsługiwać większy popyt bez poświęcania decentralizacji. W zeszłym tygodniu deweloperzy Ethereum wstępnie ustalili datę 3 grudnia na uruchomienie Fusaka na mainnecie, pod warunkiem pomyślnego wdrożenia na testnetach w przyszłym miesiącu. Ethereum Foundation uruchomiła także czterotygodniowy konkurs audytowy dla Fusaka, oferując do 2 milionów dolarów nagród dla badaczy bezpieczeństwa, którzy wykryją błędy przed wdrożeniem hard forka na mainnecie.
Siedem głównych propozycji DAO pojawiło się w burzliwym tygodniu, w tym zmiana modelu zarządzania Scroll oraz spór o ticker USDH na Hyperliquid. Strategiczne działania Ronin i dYdX również przyczyniły się do powstania istotnych propozycji. Te decyzje wpływają na ich odpowiednie ekosystemy i mogą bezpośrednio oddziaływać na inwestorów. DAO w centrum uwagi w tym tygodniu W ciągu ostatnich siedmiu dni kluczowe propozycje i debaty w głównych DAO ukazały zmienny obraz zarządzania on-chain. Od projektu Layer-2 (L2), który zawiesił działalność swojego DAO, po kluczowe głosowania decydujące o przyszłości stablecoinów i rozważane przez wiele protokołów trendy wykupu, rynek DAO jest gorętszy niż kiedykolwiek. Jednym z najbardziej szokujących ogłoszeń było to od Scroll, które ujawniło, że zawiesi swoje DAO i przejdzie na bardziej scentralizowany model. Ten ruch rodzi poważne pytania dotyczące równowagi między tempem rozwoju a filozofią decentralizacji. W erze, w której sieci L2 konkurują ze sobą zaciekle, „przejęcie sterów” przez Scroll może umożliwić szybsze aktualizacje — ale także wzbudzić obawy społeczności dotyczące przejrzystości i udziału użytkowników. Drugim centralnym punktem jest głosowanie walidatorów na Hyperliquid (HYPE), które ma zdecydować o własności tickera USDH — jednego z najbardziej płynnych stablecoinów na platformie. Jeśli kontrola trafi w ręce określonej grupy, może to bezpośrednio wpłynąć na strategie rozwoju stablecoinów oraz opłaty transakcyjne. Ta walka może przekształcić przepływy kapitału na Hyperliquid i wpłynąć na szerszy ekosystem DeFi. Wojna o ticker USDH. Źródło:
Bitcoin jest tylko 7,4% poniżej swojego historycznego maksimum. Nastroje rynkowe pozostają bycze dla BTC. Inwestorzy oczekują potencjalnego wybicia wkrótce. Bitcoin (BTC) jest obecnie zaledwie 7,4% od osiągnięcia swojego historycznego maksimum, co wywołuje nową falę ekscytacji w społeczności kryptowalutowej. Wiodąca kryptowaluta wykazała silne wyniki w ostatnich tygodniach, a wielu analityków uważa, że nowy rekord może być tuż za rogiem. Ten ostatni wzrost odzwierciedla falę pozytywnych nastrojów napędzanych zainteresowaniem instytucjonalnym, zmianami makroekonomicznymi oraz ciągłym przyjmowaniem Bitcoina jako środka przechowywania wartości. W miarę jak cena zbliża się do historycznego szczytu, traderzy i inwestorzy uważnie obserwują zachowanie rynku. Co napędza momentum Bitcoina? Kilka kluczowych czynników przyczynia się do wzrostu Bitcoina. Po pierwsze, obecna sytuacja gospodarcza, naznaczona obawami o inflację i niestabilnością rynków fiat, skłania inwestorów ku zdecentralizowanym aktywom takim jak BTC. Dodatkowo, gracze instytucjonalni, tacy jak zarządzający aktywami i spółki notowane na giełdzie, nadal zwiększają swoje zasoby Bitcoina. Dodaje to zarówno wiarygodności, jak i płynności na rynku. Ponadto, ekscytacja wokół spotowych ETF-ów na Bitcoina oraz ograniczenia podaży związane z halvingiem również wzmacniają zaufanie inwestorów. Historycznie, gdy Bitcoin zbliża się do swoich historycznych maksimów, zwykle wywołuje to FOMO (strach przed przegapieniem okazji), co prowadzi do dalszego przyspieszenia wzrostu ceny. Jeśli ten schemat się utrzyma, wybicie może nastąpić szybciej, niż się spodziewano. 🚨 UPDATE: $BTC is only 7.4% away from its ATH. pic.twitter.com/k7B9wN7TvH — Cointelegraph (@Cointelegraph) September 13, 2025 Czy nowe ATH jest blisko? Chociaż żadna prognoza nie jest pewna w świecie kryptowalut, obecne momentum sugeruje, że Bitcoin może wkrótce przebić swoje poprzednie historyczne maksimum. Wskaźniki rynkowe, takie jak wolumen obrotu, aktywność on-chain oraz analiza nastrojów, wszystkie wskazują na bycze warunki. Jednak inwestorzy powinni zachować ostrożność. Rynek kryptowalut jest zmienny i gwałtowne korekty są zawsze możliwe. Mimo to, będąc zaledwie 7,4% poniżej historycznego maksimum Bitcoina, jest to wyraźny sygnał, że byki mają obecnie przewagę — przynajmniej na razie. Przeczytaj także: Bitcoin zbliża się do historycznego maksimum, brakuje tylko 7,4% Crypto Weekly: OpenSea Incentives, Scroll DAO Halt & More XRP przekracza kamień milowy kapitalizacji rynkowej $188B Fidelity kupuje Ethereum o wartości $178M BNB Market Cap osiąga rekordowe $131B historycznego maksimum
Czy protokoły pożyczek bez zabezpieczenia mają sens w świecie DeFi? Autor: Rain Sleeping in the Rain Obawy rynku dotyczące tego typu protokołów koncentrują się głównie na zdolności kredytowej pożyczkobiorców. Mówiąc prościej, chodzi o to, czy projekt jest w stanie odzyskać pożyczone środki – tylko wtedy użytkownicy będą bardziej skłonni powierzyć swoje pieniądze w celu inwestycji, a projekt będzie mógł się rozwijać i zarabiać na opłatach. Tylko rozwiązanie powyższego problemu pozwoli tego typu projektom na rzeczywisty, zrównoważony rozwój. Rozwiązania sprowadzają się zasadniczo do dwóch kierunków: Maksymalne zapewnienie, że pożyczkobiorca będzie w stanie spłacić pożyczkę Zaoferowanie użytkownikom deponującym środki odpowiednich gwarancji / ubezpieczeń Dlatego analizując tego typu projekty, należy zwrócić szczególną uwagę na te dwa aspekty. W moich przeglądach na sierpień i wrzesień wspominałem już o $MPL i $CPOOL, w przyszłym tygodniu napiszę jeszcze jeden artykuł na temat tych dwóch projektów. Dziś porozmawiamy o projekcie z tej samej branży, @humafinance, który właśnie ogłosił rundę finansowania na 38 milionów dolarów, i przyjrzymy się jego rozwiązaniom oraz nowym rozszerzeniom produktowym. 1/ Ostatnio ogłoszone informacje o finansowaniu⬇️ Huma Finance niedawno zakończyła rundę finansowania na 38 milionów dolarów, z czego 10 milionów dolarów stanowi inwestycja kapitałowa, a 28 milionów dolarów to przychody z RWA. Rundzie przewodził Distributed Global, a wśród inwestorów znaleźli się Hashkey Capital, Folius Ventures, Stellar Development Foundation oraz dział venture capital największego prywatnego banku w Turcji, İşbank – TIBAS Ventures. Huma Finance planuje wykorzystać te środki na wdrożenie swojego produktu PayFi na blockchainach Solana i Stellar. Następnie postaram się w możliwie zwięzły sposób podzielić się moim zrozumieniem tego projektu. 2/ Huma Finance v1 Huma Finance v1 to platforma pożyczek bez zabezpieczenia skierowana do firm i osób prywatnych, która koncentruje się na przyszłych potencjalnych dochodach pożyczkobiorców – czyli przy udzielaniu pożyczki głównym kryterium jest przyszły przepływ gotówki pożyczkobiorcy. Jak mówi oficjalny komunikat na Mirror: „Dochód i zyski są najważniejszymi czynnikami w procesie ubezpieczenia, ponieważ mają wysoką wartość predykcyjną dla zdolności spłaty”. Aby lepiej rozwijać działalność wertykalną, Huma w tym roku połączyła się z Arf. Arf to platforma płynności i rozliczeń skoncentrowana na płatnościach transgranicznych, wspierana przez Circle (współpracuje również z Solana i Stellar). Po połączeniu Huma odpowiada za część depozytową użytkowników, a Arf za udzielanie pożyczek i pobieranie odsetek w świecie Web2, tworząc zrównoważony cykl. (Na oficjalnej stronie można zobaczyć, że wskaźnik niewypłacalności wynosi obecnie 0%) 3/ PayFi Huma v2 to rozszerzenie v1. Na bazie pożyczek Huma chce rozwinąć działalność w obszarze PayFi. Czym jest PayFi? „PayFi” to pojęcie wprowadzone przez przewodniczącą Solana Foundation, Lily Liu (która jest również inwestorką Huma Finance). PayFi odnosi się do nowego rynku finansowego opartego na wartości pieniądza w czasie (Time Value of Money). Wartość pieniądza w czasie oznacza, że określona ilość pieniędzy posiadana obecnie jest więcej warta niż taka sama ilość otrzymana w przyszłości. Wynika to z możliwości generowania przychodu przez te środki, np. poprzez udzielanie pożyczek i pobieranie odsetek, inwestowanie w amerykańskie obligacje skarbowe czy realizowanie transakcji szybciej i taniej. Dlatego PayFi to również jedna z podkategorii RWA. (To prawdopodobnie jeden z powodów, dla których Huma Finance rozważa wdrożenie na Solana) Jednak mimo że to RWA, PayFi różni się od znanych na rynku aktywów RWA opartych na zyskach z amerykańskich obligacji skarbowych – zyski PayFi pochodzą głównie z opłat transakcyjnych, płatności transgranicznych i odsetek od pożyczek. Przykładowo, Arf wykorzystuje płynność Web3 do świadczenia usług transferów transgranicznych dla licencjonowanych instytucji finansowych T1 i T2 w krajach rozwiniętych (można to rozumieć jako finansowanie pomostowe). Po obniżkach stóp procentowych w USA i wraz z rosnącą adopcją, PayFi może stać się główną podkategorią napędzającą rozwój RWA. Huma jest jednym z pierwszych projektów działających w obszarze PayFi i cieszy się zainteresowaniem VC oraz kluczowych graczy wspierających PayFi (wystarczy spojrzeć na listę inwestorów). Jednocześnie, aby stać się kluczowym dostawcą infrastruktury w obszarze PayFi, Huma wprowadziła PayFi Stack, aby zaspokoić potrzeby rynku PayFi w zakresie transakcji, walut, przechowywania, finansowania, zgodności i budowania warstwy aplikacyjnej. 4/ Huma Finance v2 Po stronie produktu, v2 wprowadza bardziej złożoną strukturę, np. dodano funkcje takie jak Senior Tranche, Junior Tranche oraz First Loss Cover, o których wspomnę poniżej. Mówiąc prościej, ta aktualizacja rozdziela funkcje, aby zaspokoić potrzeby różnych użytkowników. Pool Huma v2 dzieli się na Senior i Junior Pool. Senior Pool oferuje stałą stopę zwrotu, Junior Pool – zmienną, zależną od bieżących przychodów projektu. Jednak wyższą zmienną stopę zwrotu w Junior Pool okupuje się koniecznością ponoszenia strat w przypadku złych długów. Z perspektywy produktu uważam, że w przyszłości projekt może wymagać dodatkowych zachęt (np. tokenów) dla użytkowników deponujących środki w Junior Pool – w końcu to kluczowy moduł bezpieczeństwa produktu. 5/ Jak Arf zarządza płynnością dostarczoną przez inwestorów? Po zdeponowaniu środków w Huma Finance Arf Pool, wszystkie aktywa są przechowywane przez Arf w wydzielonym SPV (Special Purpose Vehicle – podmiot prawny utworzony w określonym celu, głównie dla izolacji ryzyka). Arf Financial GmbH jako usługodawca świadczy usługi dla SPV. To tutaj odbywają się pożyczki, płatności transgraniczne, rozliczenia transakcji i zarządzanie ryzykiem. Po zakończeniu transakcji SPV zwraca środki i zyski z Pool na blockchain. Arf Financial GmbH nie ma kontroli nad środkami w Pool. 6/ Uzupełnienia Dodam tutaj dwie kwestie: Arf bardzo dobrze radzi sobie z zarządzaniem ryzykiem, ale rodzi to pewne problemy, np. przed wpłatą środków wymagane jest KYC, co nie jest przyjazne dla wielu graczy DeFi. Uważam też, że UI/UX Huma Finance można jeszcze poprawić. 2. Współpraca ze Scroll Obecnie na Scroll możemy zdeponować USDC w Huma i uzyskać potrójne korzyści – ponad 10% zysku z inwestycji + punkty Huma + punkty Scroll. 7/ Na koniec Dlaczego ostatnio przyglądam się tego typu produktom inwestycyjnym? Ponieważ po niedawnym wyjściu z rynku większość moich aktywów to U, więc szukam dla nich dobrego miejsca do inwestycji. Z mojej perspektywy, dopóki na rynku nie pojawi się potencjalny trend wzrostowy, nie zamierzam inwestować wszystkiego ani korzystać z dźwigni, najwyżej będę realizował krótkoterminowe transakcje.
Scenariusze dostawy