Cloudflare-Ausfall: Die Schein-Dezentralisierung der Kryptoindustrie wird entlarvt
Vier schwere Ausfälle innerhalb von 18 Monaten – warum ist das Dilemma der Zentralisierung so schwer zu lösen?
4 große Ausfälle in 18 Monaten – Warum ist das Zentralisierungsdilemma so schwer zu lösen?
Quelle: rekt news
Übersetzung: Saoirse, Foresight News
18. November 2025, 6:20 Uhr morgens Eastern Time, USA. Viele von uns erlebten einen Netzausfall.
Es war kein schrittweiser Ausfall, es gab keinerlei Vorwarnung. In der einen Sekunde scrollst du noch am Handy, handelst oder chattest mit einer KI, in der nächsten siehst du fast überall nur noch 500-Fehlerseiten.
Twitter brach mitten im Tweet zusammen, ChatGPT reagierte mitten im Gespräch nicht mehr, Claude blieb einfach hängen.
Sogar Downdetector – die Seite, auf der du nachschaust, wenn alle anderen Plattformen ausfallen – konnte nicht laden und konnte dir nicht sagen, dass „alle Dienste ausgefallen sind“.
20% des weltweiten Netzwerks verschwanden einfach so, nur weil Cloudflare, das eigentlich das Internet vor Angriffen schützen sollte, sich versehentlich selbst „angegriffen“ hat.
Eine routinemäßige Konfigurationsänderung (Aktualisierung der Datenbankberechtigungen) löste eine versteckte Schwachstelle im Bot-Schutzsystem aus – und plötzlich sperrte der „Türsteher“ alle aus.
Im Oktober, als Amazon Web Services (AWS) Coinbase lahmlegte, verspotteten Krypto-Twitter-Nutzer noch die Nachteile der „Zentralisierung“.
Und als im November der Cloudflare-Ausfall kam? Zumindest in den ersten Stunden herrschte in der gesamten Kryptoszene völlige Stille.
Schließlich kann man auf Twitter nicht über „Infrastrukturschwächen“ diskutieren, wenn die Infrastruktur, auf die Twitter angewiesen ist, selbst ausgefallen ist.
Mehrere kritische Dienste kamen zum Erliegen (Verkehrsleitsysteme fielen aus), bei einigen Unternehmen gab es Fehler im Webinterface, Blockchain-Explorer wie Arbiscan und DeFiLlama zeigten nacheinander 500-Fehler – aber die Blockchain selbst zeigte keinerlei Anzeichen eines Konsensabbruchs.
Wenn deine viel gepriesene „Dezentralisierungsrevolution“ wegen einer zu großen Konfigurationsdatei eines einzigen Unternehmens nicht funktioniert – wer hat dann wirklich die Kontrolle?
Ausfall-Zeitstrahl: Von der „Konfigurationsänderung“ zum „Netzwerkausfall“
UTC 11:05: Die Änderung der Datenbankzugriffssteuerung ist abgeschlossen.
23 Minuten später, um 11:28 UTC, wurde die Änderung auf die Benutzerumgebung übertragen, und erstmals traten Fehler im HTTP-Verkehr der Nutzer auf.
Mit anderen Worten: Der Ausfall war bereits eingetreten, aber niemand wusste, wo das Problem lag.
Bis 11:48 UTC gab Cloudflare auf seiner offiziellen Statusseite endlich zu, dass „interne Dienste gestört“ seien – was im Unternehmensjargon bedeutet: „Alles ist im Chaos, und jeder kann es sehen.“
Die Kettenreaktion kam unerwartet: Die Änderung zerstörte Cloudflares Bot-Management-Schicht, und als das System eine doppelt so große Funktionsdatei laden wollte, stürzte der Proxy-Service direkt ab.
Nachgelagerte Systeme brachen zusammen: Workers KV (Key-Value-Store) und Access (Zugriffskontrolle) konnten den Proxy nicht erreichen; die Fehlerrate im gesamten Netzwerk schoss in die Höhe, die Monitoring-Tools waren überlastet, die CPU-Auslastung erreichte Spitzenwerte.
Der Traffic strömte weiter zu Cloudflares Edge-Nodes – aber der Proxy-Service konnte nicht mehr antworten.
Zunächst dachte Cloudflare, sie würden angegriffen, und zwar von einer massiven Distributed-Denial-of-Service-(DDoS)-Attacke.
Noch seltsamer: Sogar die offizielle Statusseite, die komplett außerhalb der Cloudflare-Infrastruktur gehostet wurde, war gleichzeitig nicht erreichbar. Die Ingenieure vermuteten deshalb eine koordinierte Attacke auf das Kernsystem und das Monitoring.
Doch das war nicht der Fall. Es gab keinen externen Angriff, das Problem lag bei ihnen selbst.
Kurz nach der Wiederherstellung veröffentlichte Cloudflares CTO Dane Knecht eine öffentliche Entschuldigung und erklärte, der Vorfall sei „völlig inakzeptabel“ und führte den Ausfall auf eine routinemäßige Konfigurationsänderung zurück – genau diese Änderung brachte die Bot-Schutzschicht zum Absturz.
„Wir haben unsere Kunden und die breitere Internetgemeinschaft enttäuscht“, schrieb Knecht in seiner Erklärung, „ein latenter Fehler in einem unserer Bot-Schutzdienste führte nach einer routinemäßigen Konfigurationsänderung zu einem plötzlichen Zusammenbruch und verursachte großflächige Ausfälle in unserem Netzwerk und anderen Diensten. Es war kein externer Angriff.“
Auf dem Höhepunkt des Ausfalls erhielt Downdetector 11.183 Störungsmeldungen.
Diese „digitale Dunkelheit“ dauerte über fünfeinhalb Stunden, bis um 17:06 UTC der Dienst vollständig wiederhergestellt war; bereits um 14:30 UTC waren die schlimmsten Auswirkungen nach der globalen Bereitstellung der korrekten Bot-Management-Konfigurationsdatei behoben.
Auswirkungen des Ausfalls: Von Web2 bis Krypto – niemand blieb verschont
Web2-Plattformen als erstes betroffen
Die X-Plattform erhielt 9.706 Störungsmeldungen.
Die Nutzer sahen keine vertraute Timeline mehr, sondern nur noch die Fehlermeldung „Hoppla, da ist etwas schiefgelaufen“.
ChatGPT „verstummte“ mitten im Gespräch und reagierte auf keine Eingaben mehr.
Spotify-Streaming wurde unterbrochen, Canva ließ Designer nicht mehr herein, auch Uber und Door Dash (Essenslieferdienste) hatten Funktionsstörungen.
Sogar Gamer blieben nicht verschont – League of Legends-Spieler wurden mitten im Spiel getrennt.
Es gab sogar Berichte, dass McDonalds-Selbstbedienungskassen Fehlermeldungen zeigten – genau zur Mittagszeit und während des Infrastrukturausfalls.
Auch der Kryptobereich blieb nicht „verschont“.
Krypto-Plattformen großflächig lahmgelegt
Coinbase-Frontend war komplett zusammengebrochen, die Nutzer sahen nur noch eine nicht ladende Login-Seite.
Kraken-Webseite und Mobile-App waren beide „tot“ – eine direkte Folge des globalen Cloudflare-Ausfalls.
BitMEX veröffentlichte auf seiner Statusseite: „Untersuchung der Störungsursache, Plattformleistung beeinträchtigt, aber Kundengelder sind sicher.“ – Das gleiche Muster, nur eine andere Börse.
Etherscan konnte nicht geladen werden, Arbiscan war komplett ausgefallen.
DeFiLlama zeigte zeitweise interne Serverfehler im Analyse-Dashboard.
Sogar Ledger veröffentlichte eine Mitteilung, dass durch den Cloudflare-Ausfall die Verfügbarkeit einiger Dienste beeinträchtigt sei.
Die einzige „Ausnahme“: Die Blockchain-Protokolle selbst
Aber folgende Systeme waren nicht betroffen:
Berichten zufolge hatten große Börsen wie Binance, OKX, Bybit, Crypto.com und KuCoin keine Frontend-Probleme, On-Chain-Transaktionen liefen normal – die Blockchain selbst funktionierte einwandfrei, es gab keine Anzeichen für Konsensprobleme.
Blockchain-Protokolle laufen immer unabhängig – das Problem lag nicht „on-chain“, sondern in der Web2-Infrastruktur, die den Zugang zur Blockchain ermöglicht.
Wenn die Blockchain weiterläuft, aber niemand darauf zugreifen kann – ist Krypto dann wirklich noch „online“?
Tiefergehende Analyse: Wie konnte eine Datenbankabfrage 20% des Netzwerks lahmlegen?
Cloudflare hostet keine Webseiten und bietet auch keine Cloud-Server wie AWS an.
Cloudflare ist der „Mittelsmann“ – zwischen Nutzern und dem Internet, bedient 24 Millionen Webseiten und verarbeitet über Nodes in 120 Ländern und 330 Städten 20% des weltweiten Internetverkehrs.
Cloudflares Werbeslogan: Sie positionieren sich als „Schutzschild und Beschleuniger des Internets“, bieten rund um die Uhr DDoS-Schutz, Bot-Schutz, Traffic-Routing, globale Web Application Firewall (WAF), TLS-Termination, Edge-Computing auf Basis von Workers und DNS-Dienste – alles auf einem einheitlichen „Sicherheits-Performance“-Netzwerk.
In Wirklichkeit halten sie 82% Marktanteil im DDoS-Schutz, ihre Edge-Nodes haben eine Gesamtkapazität von 449 Tbps und sind mit vielen führenden Internetdienstanbietern (ISPs) und Cloud-Anbietern weltweit verbunden.
Das Kernproblem: Wenn der Mittelsmann ausfällt, sind alle dahinterliegenden Dienste gleichzeitig „unerreichbar“.
Cloudflares CTO Dane Knecht sagte auf der X-Plattform unverblümt:
„Ich sage es direkt: Heute Morgen, als das Cloudflare-Netzwerk Probleme hatte, waren große Teile des von uns bedienten Traffics betroffen. Wir haben unsere Kunden und die breitere Internetgemeinschaft enttäuscht.“
CEO Matthew Prince drückte es noch deutlicher aus:
„Heute war der schlimmste Ausfall bei Cloudflare seit 2019... In den letzten 6 Jahren hatten wir keinen Ausfall, der dazu führte, dass der Großteil des Kerntraffics nicht mehr durch unser Netzwerk geleitet werden konnte.“
Technische Ursache des Ausfalls
Alles begann mit einer routinemäßigen Aktualisierung der Datenbankberechtigungen. Um 11:05 UTC nahm Cloudflare eine Änderung an seinem ClickHouse-Datenbankcluster vor, um Sicherheit und Zuverlässigkeit zu erhöhen – Nutzer mit „impliziten Zugriffsrechten“ sollten „explizit“ die Tabellen-Metadaten sehen können.
Wo lag das Problem? Die Datenbankabfrage, die die Konfigurationsdatei für den Bot-Schutz generierte, filterte den „Datenbanknamen“ nicht.
Die Abfrage, die den Bedrohungstraffic verwaltet, begann, doppelte Einträge zurückzugeben – einen aus der Standarddatenbank, einen aus der darunterliegenden r0-Speicherdatenbank. Dadurch verdoppelte sich die Dateigröße von etwa 60 auf über 200 Merkmale.
Cloudflare hatte eine harte Obergrenze von 200 Merkmalen für die Speicherzuweisung im Code gesetzt und angenommen, „das ist weit mehr als die aktuell etwa 60 genutzten Merkmale“. Typisches Ingenieursdenken: Man setzt einen scheinbar „großzügigen“ Sicherheitsabstand – bis das Unerwartete passiert.
Die zu große Datei überschritt diese Grenze, der Rust-Code stürzte ab, die Fehlermeldung lautete: „thread fl2_worker_thread panicked: called Result::unwrap () on an Err value“ (fl2_worker_thread-Thread abgestürzt: Result::unwrap () auf einen Fehlerwert aufgerufen).
Das Bot-Schutzsystem ist ein zentrales Element der Cloudflare-Steuerungsebene. Sobald es abstürzt, funktioniert auch das Health-Check-System, das dem Loadbalancer mitteilt, „welche Server laufen“, nicht mehr.
Noch schlimmer: Diese Konfigurationsdatei wird alle 5 Minuten neu generiert.
Nur wenn die Abfrage auf einem „aktualisierten Cluster-Node“ läuft, wird die fehlerhafte Datei erzeugt. Deshalb wechselte das Cloudflare-Netzwerk alle 5 Minuten zwischen „normal“ und „gestört“ – mal wurde die richtige, mal die falsche Datei geladen.
Dieses „Hin und Her“ ließ die Ingenieure glauben, sie würden von einer DDoS-Attacke getroffen – interne Fehler führen normalerweise nicht zu einem „Wechsel zwischen Ausfall und Wiederherstellung“.
Schließlich waren alle ClickHouse-Nodes aktualisiert, jede Datei war fehlerhaft. Das „Hin und Her“ hörte auf, es blieb ein „vollständiger, stabiler Ausfall“.
Ohne genaue Systemsignale schaltet das System in den „Vorsichtsmodus“ und stuft die meisten Server als „unhealthy“ ein. Der Traffic strömt weiter, kann aber nicht korrekt geroutet werden.
Cloudflares Edge-Nodes empfingen die Anfragen der Nutzer – konnten sie aber nicht mehr verarbeiten.
„Es war kein externer Angriff“, betonte Knecht immer wieder, „keine böswillige Handlung, kein DDoS. Es war nur eine Datenbankabfrage ohne Filterbedingung, die zufällig mit der Berechtigungsänderung zusammenfiel und den Ausfall auslöste.“
Cloudflare hatte „99,99% Verfügbarkeit“ versprochen – diesmal wurde das Versprechen nicht gehalten.
So war es tatsächlich.
Geschichte wiederholt sich: 4 große Ausfälle in 18 Monaten – Warum ist das Zentralisierungsdilemma so schwer zu lösen?
20. Oktober 2025 – AWS-Ausfall dauert 15 Stunden. DNS-Fehler bei DynamoDB in US-East-1, Coinbase friert ein, Robinhood stockt, Infura fällt aus (was MetaMask betrifft), Base, Polygon, Optimism, Arbitrum, Linea, Scroll und andere Blockchains gehen offline. Die Gelder der Nutzer sind zwar on-chain sicher, aber viele sehen einen Kontostand von „null“.
29. Oktober 2025 – Microsoft Azure-Ausfall. Azure Front Door (Frontend-Gateway) hat ein Synchronisationsproblem, Microsoft 365 Suite offline, Xbox Live ausgefallen, Unternehmensdienste gestört.
Juli 2024 – CrowdStrike (Sicherheitsunternehmen) veröffentlicht ein fehlerhaftes Windows-Update. Der Ausfall führt zu Flugausfällen, Verzögerungen in Krankenhäusern, eingefrorenen Finanzdiensten, die vollständige Wiederherstellung dauert Tage.
Juni 2022 – Letzter großer Cloudflare-Ausfall. Mehrere Kryptobörsen müssen den Dienst einstellen – das gleiche Muster, nur ein anderes Jahr.
Juli 2019 – Noch früherer Cloudflare-Ausfall. Coinbase offline, CoinMarketCap nicht erreichbar – das erste „Warnsignal“, das alle ignorierten.
In nur 18 Monaten gab es 4 große Infrastrukturausfälle.
Vier Ausfälle, eine Lehre: Zentralisierte Infrastruktur führt zwangsläufig zu „zentralisierten Ausfällen“.
Vier Ausfälle hätten die Kryptoindustrie zur Dezentralisierung treiben können – aber sie verlässt sich immer noch auf die Infrastruktur von drei Unternehmen.
Wie viele Warnungen braucht es noch, bis die Branche von „Ausfälle können passieren“ zu „Systeme werden so gebaut, als ob Ausfälle unvermeidlich sind“ übergeht?
Die „Lüge“ der Dezentralisierung: Protokolldezenzralisierung bedeutet nicht Zugangszentralisierung
Sie haben dir diese Vision verkauft:
„Dezentralisierte Finanzen, zensurresistente Währungen, trustless Systeme, keine Single Points of Failure, ‚Nicht deine Keys, nicht deine Coins‘, Code ist Gesetz.“
Die Realität am 18. November schlug hart zu: Ein Vormittagsausfall bei Cloudflare legte Teile der Kryptobranche stundenlang lahm.
Die technische Wahrheit:
Kein Blockchain-Protokoll wurde als ausgefallen gemeldet. Das Bitcoin-Netzwerk lief normal, Ethereum ebenso – die Kette selbst hatte keine Probleme.
Die Realität im Alltag:
Börsen-Interfaces stürzten ab, Blockchain-Explorer waren tot, Wallet-APIs funktionierten nicht, Analyseplattformen fielen aus, Handelsoberflächen zeigten 500-Fehler.
Nutzer konnten nicht auf die „dezentralisierte“ Blockchain zugreifen, die sie angeblich „besitzen“. Das Protokoll lief – vorausgesetzt, man konnte es „erreichen“.
Folgende Aussagen werden viele stören …
David Schwed, COO von SovereignAI, bringt es auf den Punkt:
„Der heutige Cloudflare-Ausfall, der AWS-Ausfall vor ein paar Wochen – das zeigt: Wir können die Ausfallsicherheit der Infrastruktur nicht einfach an einen einzigen Anbieter auslagern. Wenn dein Unternehmen 24/7 laufen muss, musst du die Infrastruktur so bauen, als ob Ausfälle garantiert sind. Wenn dein Business-Continuity-Plan nur aus ‚Warten, bis der Anbieter wieder online ist‘ besteht, ist das reine Fahrlässigkeit.“
„Reine Fahrlässigkeit“ – kein Versehen, kein Versehen, sondern Fahrlässigkeit.
Jameson Lopp bringt es auf den Punkt:
„Wir haben eine großartige dezentrale Technologie, machen sie aber extrem anfällig, weil wir die meisten Dienste bei wenigen Anbietern konzentrieren.“
Ben Schiller sagte beim letzten AWS-Ausfall etwas, das heute genauso gilt:
„Wenn deine Blockchain wegen eines AWS-Ausfalls offline geht, ist sie nicht dezentral genug.“
Ersetze „AWS“ durch „Cloudflare“ – das Problem bleibt dasselbe. Die Branche hat nie daraus gelernt.
Warum wird „Bequemlichkeit“ dem „Prinzip“ vorgezogen?
Eigene Infrastruktur bedeutet: teure Hardware kaufen, stabile Stromversorgung sichern, eigene Bandbreite pflegen, Sicherheitsexperten einstellen, geografische Redundanz schaffen, Notfallsysteme aufbauen, 24/7-Monitoring – alles kostet viel.
Mit Cloudflare reicht: ein Klick, Kreditkarte eingeben, in wenigen Minuten ist alles bereit.
DDoS-Schutz übernimmt jemand anderes, Verfügbarkeit garantiert jemand anderes, Skalierung ist das Problem von jemand anderem.
Startups wollen „schnell auf den Markt“, VCs verlangen „Kapital-Effizienz“ – alle wählen „Bequemlichkeit“ statt „Ausfallsicherheit“.
Bis „Bequemlichkeit“ nicht mehr bequem ist.
Der AWS-Ausfall im Oktober löste auf Twitter endlose Diskussionen über „Dezentralisierung“ aus.
Und der Cloudflare-Ausfall im November? Totenstille.
Nicht aus „philosophischer Stille“, nicht aus „nachdenklicher Ruhe“.
Sondern weil: Wer sich beschweren wollte, stellte fest, dass auch die gewohnte Beschwerdeplattform (Twitter) wegen des Infrastrukturausfalls tot war.
Wenn der „Single Point of Failure“ genau die Plattform ist, auf der du dich über „Single Points of Failure“ lustig machen willst, kannst du dich nicht beschweren.
Wenn die Zugangsebene von drei Unternehmen abhängt, von denen zwei im selben Monat ausfallen, ist „Dezentralisierung auf Protokollebene“ bedeutungslos.
Wenn Nutzer die Blockchain nicht erreichen können – was genau „dezentralisieren“ wir dann?
Monopol-Dilemma: Drei Unternehmen kontrollieren 60% des Cloud-Marktes – wohin steuert die Kryptoindustrie?
AWS kontrolliert etwa 30% des weltweiten Cloud-Infrastrukturmarktes, Microsoft Azure 20%, Google Cloud 13%.
Drei Unternehmen kontrollieren über 60% der Cloud-Infrastruktur, die das moderne Internet trägt.
Die Kryptoindustrie sollte eigentlich die Lösung für „Zentralisierung“ sein, verlässt sich aber auf die zentralisierteste Infrastruktur der Welt.
Die „Zentralisierungs-Abhängigkeitsliste“ der Kryptoindustrie
- Coinbase – abhängig von AWS;
- Binance, BitMEX, Huobi, Crypto.com – alle abhängig von AWS;
- Kraken baut zwar auf AWS-Infrastruktur, wurde aber trotzdem vom Cloudflare-CDN-Ausfall getroffen.
Viele angeblich „dezentrale“ Börsen laufen tatsächlich auf zentralisierter Infrastruktur.
Ein wichtiger Unterschied zwischen den Ausfällen im Oktober und November:
Beim AWS-Ausfall lief die X-Plattform (ehemals Twitter) weiter, Krypto-Twitter konnte sich über „Infrastrukturschwächen“ lustig machen.
Beim Cloudflare-Ausfall war die X-Plattform ebenfalls offline.
Wenn die Plattform, auf der du dich über „Single Points of Failure“ lustig machst, selbst Teil des Problems ist, kannst du nicht lachen.
Diese Ironie ließ die Branchendiskussion von Anfang an verstummen.
Drei große Ausfälle in 30 Tagen – die Regulierungsbehörden sind alarmiert.
Kernfragen für die Regulierungsbehörden
- Zählen diese Unternehmen zu den „systemrelevanten Institutionen“?
- Sollten Internet-Backbone-Dienste wie Versorgungsunternehmen reguliert werden?
- Welche Risiken entstehen, wenn „Too Big to Fail“ auf Tech-Infrastruktur trifft?
- Wenn Cloudflare 20% des weltweiten Traffics kontrolliert – ist das ein Monopolproblem?
Corinne Cath-Speth von der Organisation Article 19 sagte beim letzten AWS-Ausfall offen: „Wenn ein Anbieter ausfällt, gehen kritische Dienste offline – Medien sind nicht erreichbar, sichere Messenger wie Signal funktionieren nicht, die Infrastruktur der digitalen Gesellschaft bricht zusammen. Wir brauchen dringend mehr Vielfalt im Cloud-Computing.“
Mit anderen Worten: Regierungen erkennen allmählich, dass ein paar Unternehmen das Internet lahmlegen können.
Dezentrale Alternativen gibt es längst – aber niemand will sie nutzen.
Zum Beispiel Arweave für Speicherung, IPFS für verteilten Dateitransfer, Akash für Computing, Filecoin für dezentrales Hosting.
Warum setzen sich dezentrale Lösungen nicht durch?
Sie sind leistungsschwächer als zentrale Lösungen, Latenzprobleme sind für Nutzer spürbar.
Sie sind kaum verbreitet, und im Vergleich zum „Deploy to AWS“-Button ist die Bedienung umständlich.
Oft sind sie teurer als das Mieten von Infrastruktur bei den „Big Three“ (AWS, Azure, Google Cloud).
Die Realität ist:
Wirklich dezentrale Infrastruktur zu bauen, ist extrem schwierig – viel schwieriger als gedacht.
Die meisten Projekte reden nur von „Dezentralisierung“, setzen sie aber selten um. Zentralisierte Lösungen sind immer einfacher und billiger – bis vier Ausfälle in 18 Monaten zeigen, wie teuer „einfach und billig“ wirklich ist.
Max Li, CEO von OORT, kritisierte in einer aktuellen CoinDesk-Kolumne die Scheinheiligkeit der Branche:
„Eine Branche, die sich mit ‚Dezentralisierung‘ rühmt und ständig ihre Vorteile betont, aber ihre Infrastruktur massiv auf anfällige zentrale Cloud-Plattformen stützt – das ist Heuchelei.“
Sein Lösungsvorschlag: Hybrid-Cloud-Strategien, bei denen Börsen kritische Systeme auf dezentralen Netzwerken verteilen.
Zentrale Cloud-Plattformen haben unbestreitbare Vorteile bei Leistung und Skalierung – aber wenn es um Milliardenbeträge und jede Sekunde zählt, ist ihre Ausfallsicherheit zentralen Lösungen unterlegen.
Nur wenn der Preis der „Bequemlichkeit“ so hoch wird, dass er das Verhalten der Branche ändert, wird das „Prinzip“ die „Bequemlichkeit“ schlagen.
Offensichtlich war der Ausfall am 18. November nicht schlimm genug, der AWS-Ausfall am 20. Oktober auch nicht, ebenso wenig der CrowdStrike-Ausfall im Juli 2024.
Wie schlimm muss es werden, bis „dezentrale Infrastruktur“ von einem „Thema“ zur „Pflicht“ wird?
Am 18. November hat die Kryptoindustrie nicht „versagt“ – die Blockchain selbst lief perfekt.
Das eigentliche „Versagen“ ist die kollektive Selbsttäuschung der Branche: zu glauben, man könne „unstoppable applications“ auf „anfälliger Infrastruktur“ bauen; zu glauben, „Zensurresistenz“ habe Bedeutung, wenn drei Unternehmen die „Zugangskanäle“ kontrollieren; zu glauben, „Dezentralisierung“ sei echt, wenn eine Cloudflare-Konfigurationsdatei entscheidet, ob Millionen handeln können.
Wenn die Blockchain weiter Blöcke produziert, aber niemand Transaktionen senden kann – ist sie dann wirklich „online“?
Die Branche hat keinen Notfallplan.
Bei Ausfällen bleibt nur: auf Cloudflare warten, auf AWS warten, auf Azure warten.
Das ist die aktuelle „Disaster Recovery“-Strategie der Branche.
Stell dir vor: Wenn digitale Identitäten eng mit der Blockchain verknüpft sind – was passiert dann?
Das US-Finanzministerium will Identitätsnachweise in Smart Contracts einbetten und verlangt KYC für jede DeFi-Interaktion.
Beim nächsten Infrastrukturausfall verlieren Nutzer nicht nur den Zugang zum Handel – sondern auch die Möglichkeit, ihre Identität im Finanzsystem zu beweisen.
Ein dreistündiger Ausfall wird zu drei Stunden „unladbarem Captcha“, nur weil der Verifizierungsdienst auf der ausgefallenen Infrastruktur läuft.
Die „Sicherheitsleitplanken“, die die Regulierer wollen, setzen „ständige Verfügbarkeit“ voraus. Der Ausfall am 18. November hat gezeigt, dass diese Voraussetzung nicht gilt.
Wenn das Problem „Überwachung“ offensichtlich wird, wenden sich Techniker dem „Privacy by Design“ zu.
Vielleicht ist es jetzt an der Zeit, auch „Ausfallsicherheit der Infrastruktur“ in diese Kategorie aufzunehmen.
Sie sollte kein „nice to have“ sein, sondern die „Grundvoraussetzung für alles“ – ohne sie ist alles andere bedeutungslos.
Der nächste Ausfall ist schon in Vorbereitung – vielleicht kommt er von AWS, vielleicht von Azure, vielleicht von Google Cloud oder ein zweiter von Cloudflare.
Vielleicht nächsten Monat, vielleicht nächste Woche. Die Infrastruktur bleibt, die Abhängigkeiten bleiben, die Anreize der Branche bleiben.
Zentralisierte Lösungen sind immer noch billiger, schneller, bequemer – bis sie es nicht mehr sind.
Wenn die nächste Cloudflare-Konfigurationsänderung eine weitere Schwachstelle auslöst, werden wir das bekannte „Schauspiel“ erneut erleben: überall 500-Fehlerseiten, kompletter Handelsstopp, Blockchain läuft, aber niemand kann zugreifen, auf Twitter will man über „Dezentralisierung“ diskutieren, aber Twitter ist tot, Unternehmen versprechen „nächstes Mal wird alles besser“ – und halten es nie.
Nichts wird sich ändern, weil „Bequemlichkeit“ immer „Risikomanagement“ schlägt – bis der Preis der „Bequemlichkeit“ so hoch ist, dass er nicht mehr ignoriert werden kann.
Diesmal war der „Türsteher“ dreieinhalb Stunden offline.
Beim nächsten Mal dauert der Ausfall vielleicht länger; beim nächsten Mal passiert er vielleicht mitten im Crash, wenn jede Sekunde zählt; beim nächsten Mal ist vielleicht auch das Identitätsprüfungssystem betroffen.
Wenn die Infrastruktur, von der du lebst, genau dann ausfällt, wenn du es dir am wenigsten leisten kannst – wessen Schuld ist das?
Datenquellen: The Guardian, Johnny Popov, PC Magazine, IT Professional, CNBC, Cloudflare, TechCrunch, Associated Press, CoinDesk, Tom’s Hardware, Dane Knecht, Tom’s Guide, Surya, Sheep Esports, TheBlock, Kraken, BitMEX, Ledger, Blockchain News, Statista, Tom’s Hardware, Jameson Lopp, Ben Schiller, Article 19, CoinTelegraph
Haftungsausschluss: Der Inhalt dieses Artikels gibt ausschließlich die Meinung des Autors wieder und repräsentiert nicht die Plattform in irgendeiner Form. Dieser Artikel ist nicht dazu gedacht, als Referenz für Investitionsentscheidungen zu dienen.
Das könnte Ihnen auch gefallen
Exklusivinterview mit Bitget CMO Ignacio: Guter Code beseitigt Reibungen, eine starke Marke beseitigt Zweifel
Die Markenphilosophie eines Softwareingenieurs.

App-Verzögerungen und Angriffe beim Launch: Base-Mitgründer bringt Token heraus und sorgt für Unmut in der Community
Während die meisten Mainstream-Altcoins schwächeln, hat Jesse gerade jetzt beschlossen, einen Token herauszugeben, was vom Markt möglicherweise nicht angenommen wird.

Der „Krypto-Bulle“ Tom Lee: Die Korrektur am Kryptomarkt könnte sich dem Ende nähern, Bitcoin wird zum führenden Indikator für den US-Aktienmarkt.
Der Krypto-Bulle Tom Lee erklärte, dass am 10. Oktober eine ungewöhnliche Situation auf dem Kryptowährungsmarkt automatische Liquidationen auslöste, wobei 2 Millionen Konten liquidiert wurden. Nach erheblichen Verlusten der Market Maker reduzierten diese ihre Bilanzen, was zu einer bösartigen Abwärtsspirale der Liquidität führte.

Besant taucht unerwartet in einer „Bitcoin-Themenbar“ auf, die Krypto-Community ist „angenehm überrascht“: Das ist das Signal.
US-Finanzministerin Yellen tauchte überraschend in einer Bitcoin-Themenbar in Washington auf. Dieser Schritt wird von der Krypto-Community als klares Signal der Unterstützung durch die Bundesregierung angesehen.

