APIs versagen selten isoliert. Sie versagen unter Last, während eines Token-Refresh, wenn ein abhängiger Dienst langsamer wird oder wenn ein mehrstufiger Workflow mitten im Ablauf abbricht. Und dennoch testen und überwachen die meisten Ingenieure APIs weiterhin mit Mock-Endpunkten, die sich überhaupt nicht wie die echte Umgebung verhalten.
Wenn Sie in DevOps, QA, SRE oder API-Engineering arbeiten, kennen Sie die Wahrheit: Um ein API-Monitoring richtig zu bewerten, benötigen Sie echte Web-API-Beispielendpunkte — solche, die echtes JSON zurückgeben, Latenz simulieren, Authentifizierung verlangen und echte Fehlerzustände auslösen.
Das Problem?
Die meisten online verfügbaren „Beispiel-APIs zum Testen” bieten nur statische Daten, übermäßig einfaches JSON oder einen einzigen Mock-Endpunkt ohne Variationen. Sie sind großartig für Einsteiger, aber nahezu nutzlos, um zu validieren:
- Uptime-Monitoring
- Authentifizierungsabläufe
- verkettete API-Transaktionen
- SLO/SLA-Schwellenwerte
- latenzbasierte Alarmierung
- Multi-Region-Verhalten
- Echtzeit-Fehlerbehandlung
Hier kommt dieser Leitfaden ins Spiel.
In den folgenden Abschnitten erhalten Sie Produktionsartige Web-API-Beispielendpunkte, die speziell dafür entworfen wurden, Teams zu helfen, Monitoring zu üben, Randfälle zu testen, Ausfälle zu simulieren und zu bewerten, wie Tools wie Dotcom-Monitor echtes API-Verhalten handhaben. Das sind nicht nur „hello world“-Endpunkte — sie wurden so erstellt, dass sie ausfallen, langsamer werden, strukturierte Fehler zurückgeben und Bedingungen nachbilden, die aufdecken, ob Ihr Monitoring-System wirklich zuverlässig ist.
Am Ende werden Sie genau verstehen, was zu testen ist, wie Sie Ihre Monitoring-Strategie strukturieren und wie diese Beispielendpunkte reale Ausfall-Szenarien abbilden, mit denen Ihr Team jede Woche konfrontiert ist.
Für ein umfassenderes Verständnis können Sie auch unseren Leitfaden zu dem, was Web-API-Monitoring tatsächlich umfasst konsultieren
Warum echte Web-API-Beispiele für Monitoring wichtig sind (nicht Mock-APIs)
Die meisten Teams entdecken die Schwächen ihres Monitorings erst, wenn in der Produktion etwas kaputtgeht. Und es liegt fast nie daran, dass der Endpunkt einfach „das falsche JSON“ zurückgegeben hat. Ausfälle entstehen durch Dinge, die Mock-APIs nicht reproduzieren können; langsame Abhängigkeiten, Authentifizierungs-Timeouts, verkettete Workflow-Fehler oder unerwartete 500er, die nur unter realer Last auftreten.
Deshalb ist die ausschließliche Abhängigkeit von Mock-APIs zum Testen riskant: sie verhalten sich zu perfekt.
Realistische Web-API-Beispielendpunkte, die variable Antworten zurückgeben, Ausfälle simulieren und Authentifizierung einschließen, bieten Teams eine deutlich genauere Umgebung, um zu validieren, wie ihre Monitoring-Tools unter Stress reagieren. Und das ist wichtig, weil Monitoring in Mustern versagt, nicht bei Einzelfehlern:
- Latenz-Spitzen, die Antwortzeiten über SLAs treiben
- Token-Refresh-Fehler, die nachgelagerte Endpunkte stilllegen
- verkettete Aufrufe, bei denen ein erfolgreicher Login ein scheiternden Checkout verdeckt
- 500er-Fehler, die in Mocks nicht auftauchen, weil Mocks nie fehlschlagen
- regionale Ausfälle, die erst beim Monitoring aus mehreren Regionen sichtbar werden
Genau aus diesem Grund unterstützt Dotcom-Monitor’s Web-API-Monitoring-Plattform mehrstufige API-Workflows, verkettete Tasks und Validierungslogik — denn echtes API-Verhalten ist abhängig, sequentiell und chaotisch. Häufig zeigt sich das Problem erst bei Schritt drei, während die meisten Mock-APIs nur Schritt eins testen.
Mit realistischen Beispielendpunkten können Teams endlich validieren:
- Ob Alarme schnell genug auslösen
- Ob Schwellenwerte echte Latenzprobleme erfassen
- Ob tokenbasierte Auth-Endpunkte auslaufen oder sauber fehlschlagen
- Ob API-Abhängigkeiten über mehrere Regionen hinweg konsistent sind
- Ob synthetische Workflows Kundenreisen korrekt abbilden
Das ist die Grundlage zuverlässigen API-Monitorings — nicht grüne Dashboards, sondern akkurate Dashboards. Und Genauigkeit bekommen Sie nur, wenn Ihre Testumgebung sich wie die reale Welt verhält.
Web-API-Beispielendpunkte, die Sie für Monitoring & Tests verwenden können
Die untenstehenden Beispielendpunkte sind nicht als „hello world“-Demos gedacht. Sie sind so gestaltet, dass sie sich wie echte Produktions-APIs verhalten: manchmal schnell, manchmal langsam, manchmal fehlerhaft — damit Sie validieren können, wie gut Ihr Monitoring-System auf das Unvorhersehbare verteilter Systeme reagiert.
Jeder Endpunkt enthält die Art von Monitoring-Verhalten, das er testet, und welche Fehler Sie erwarten sollten aufzudecken.
1. Health-Check-Endpunkt (GET /health)
Ein minimaler Endpunkt, entworfen für Uptime-Checks und schnelle Alarmierung.
Beispielantwort:
{ "status": "ok", "timestamp": "2025-01-01T12:00:00Z" }
Nützlich für Tests von:
- Uptime-Monitoring
- Latenz-Schwellenwerte
- SLA/SLO-Messungen
- Regionale Performance-Variationen
Dieser Endpunkt sollte niemals ausfallen. Wenn das Monitoring also jemals intermittierende Fehler oder erhöhte Antwortzeiten erkennt, wissen Sie, dass tieferliegende Probleme in Ihrer Infrastruktur oder bei einem Upstream-Provider vorliegen.
2. Beispiel-Daten‐Endpunkt (GET /products)
Gibt realistisches JSON zurück, das Ihnen erlaubt, Inhaltsvalidierung, Payload-Integrität und Schema-Checks zu testen.
Beispielantwort:
[
{ "id": 1001, "name": "Laptop Backpack", "price": 49.99 },
{ "id": 1002, "name": "USB-C Dock", "price": 89.50 }
]
Nützlich für Tests von:
- JSONPath- oder Property-Validierung
- Payload-Strukturchecks
- Daten-Frische oder Konsistenz
- Antwortunterschiede zwischen Regionen
Dieser Endpunkt ist ideal, um Assertions zu üben — etwa zu prüfen, ob ein bestimmtes Feld immer vorhanden ist oder ob ein Wert stets einer erwarteten Bedingung entspricht. Das sind Kernfunktionen der API-Monitoring-Engine von Dotcom-Monitor.
Lesen Sie unseren Leitfaden dazu, wie man eine REST Web API-Aufgabe konfiguriert
3. Latenz-Simulations-Endpunkt (GET /slow?ms=2500)
Dieser Endpunkt wartet absichtlich, bevor er eine Antwort zurückgibt.
Nützlich für Tests von:
- Alarmgrenzen für Latenz
- Timeout-Verhalten
- Fehlerbudgets
- Wie Ihre Monitoring-Plattform langsame Transaktionen protokolliert
Sie können den Latenz-Parameter erhöhen oder verringern, um degradierte Datenbankabfragen, Netzwerkkongestion oder überlastete Infrastruktur nachzubilden.
Hier werden auch benutzerdefinierte Metriken wertvoll. Dotcom-Monitor kann Latenzverteilungen in Waterfall-Charts und Performance-Ansichten darstellen.
4. Fehler-Simulations-Endpunkt (GET /error/{code})
Beispiele:
- /error/404
- /error/500
- /error/503
Nützlich für Tests von:
- Fehlerbehandlung und Alarmierung
- Monitoring von SLA-relevanten Ausfällen
- Unterscheidung erwarteter vs. unerwarteter Fehler
- Konfiguration von Filtern zum Ignorieren bestimmter Fehlertypen
Ein Fehler-Simulations-Endpunkt legt das tatsächliche Verhalten Ihres Alarmierungs-Systems offen. Löst Ihr Monitoring beispielsweise sofort bei 500ern aus? Unterdrückt es Rauschen für erwartete 404er? Das First-Error-Alert-Modell von Dotcom-Monitor hilft, mission-kritische Ausfälle sofort zu erkennen.
5. OAuth 2.0 Token-Endpunkt (POST /auth/token)
Ein realistischer Authentifizierungsendpunkt, der ein kurzlebiges Token zurückgibt.
Beispielantwort:
{
"access_token": "eyJhbGciOiJIUzI…",
"expires_in": 3600,
"token_type": "Bearer"
}
Nützlich für Tests von:
- Authentifizierungs-Workflows
- Token-Ablauf
- Verkettete Abhängigkeits-Requests
- Sicherer Umgang mit Zugangsdaten
An diesem Endpunkt treten in der Praxis die meisten Monitoring-Fehler auf.
Wenn die Authentifizierung ausfällt, funktionieren alle nachgelagerten Endpunkte nicht mehr. Daher unterstützt Dotcom-Monitor dedizierte Token-Abruf-Aufgaben und verkettete Folge-Requests.
6. Mehrstufiger Workflow (Login → Warenkorb → Checkout)
Ein kompletter Transaktionsfluss, der die Sequenz von Aktionen simuliert, die ein echter Nutzer ausführt.
Beispielworkflow:
- POST /login
- GET /cart
- POST /checkout
Nützlich für Tests von:
- End-to-end-Transaktionsgesundheit
- Zustandsweitergabe
- Datenabhängigkeiten über Schritte
- Synthetische Nutzerflüsse
- Verkettete Assertions
Hier zeigt sich der wahre Wert von Monitoring. Ein einfacher Uptime-Check kann die Komplexität einer echten Kundenreise nicht reproduzieren. Synthetisches Mehrschritt-Monitoring, das in Dotcom-Monitor nativ unterstützt wird, stellt sicher, dass Probleme genau dann und dort erkannt werden, wo sie im Transaktionsfluss auftreten.
Erfahren Sie, wie Sie mehrstufiges API-Monitoring einrichten
Wie Sie diese Beispielendpunkte effektiv überwachen (verfeinert & strukturiert)
Das Monitoring von Beispielendpunkten sollte sich so nah wie möglich am Monitoring einer echten Produktions-API anfühlen. Das bedeutet: Validieren Sie mehr als nur die Uptime — validieren Sie das Verhalten: wie die API unter Latenz reagiert, wie sie Authentifizierung handhabt, wie Daten über Schritte fließen und ob Ihr Monitoring-Tool Fehler korrekt interpretiert.
Nachfolgend ein strukturierter Ansatz zum Überwachen der zuvor eingeführten Endpunkte, ausgelegt für DevOps, QA, SRE und API-Engineering-Teams.
1. Beginnen Sie mit den Kernmetriken, von denen jede API abhängt
Bevor Sie in komplexe Workflows eintauchen, benötigen Sie Vertrauen in die Grundlagen.
Endpunkte wie /health und /products helfen Ihnen zu verifizieren:
- Verfügbarkeit — ob die API konsistent erreichbar ist
- Latenzstabilität — ob Antwortzeiten innerhalb der SLA/SLO bleiben
- Korrektheit der Antwortcodes — Unterscheidung zwischen gesunden 200ern und unerwarteten 4xx/5xx
Diese Prüfungen bilden das Rückgrat des Monitorings, weil sie die frühesten Anzeichen einer Degeneration erkennen. Wenn eine API beginnt, außerhalb erwarteter Antwortzeiten zu driften — oder intermittierende 500er zurückgibt —, fangen diese grundlegenden Tests es zuerst ab.
Latenz-Simulationsendpunkte (wie /slow?ms=2500) verstärken diese Erkenntnisse, indem sie zeigen, wie gut Ihre Monitoring-Plattform mit nahezu-Timeout-Bedingungen, Jitter und schwankender Netzwerkperformance umgeht.
2. Validieren Sie Payload-Integrität mit Assertions
Sobald Sie wissen, dass die API erreichbar und stabil ist, ist der nächste Schritt sicherzustellen, dass sie die richtigen Daten zurückgibt.
Hier werden Assertions essenziell.
Endpunkte wie /products erlauben Ihnen zu bestätigen:
- dass erforderliche Felder vorhanden sind
- dass sich JSON-Strukturen nicht unerwartet geändert haben
- dass dynamische Werte innerhalb erwarteter Muster bleiben
Fehler auf dieser Ebene bleiben in einfachen Uptime-Checks oft unentdeckt, können aber reale Anwendungen zerstören. Assertions schützen Sie vor stillen Ausfällen, bei denen die API technisch erreichbar, aber funktional falsch ist.
An dieser Stelle fangen Teams üblicherweise an, JSONPath-Validierungen innerhalb von Dotcom-Monitor’s REST Web API-Tasks hinzuzufügen und machen Rohantworten in überprüfbare Erwartungen überführbar.
3. Rekreieren Sie echte Kundenreisen durch mehrstufiges Monitoring
Einzelne Endpunkte versagen selten isoliert.
Wahre Zuverlässigkeit ergibt sich daraus, wie Endpunkte zusammen funktionieren.
Ein Workflow wie:
- /login →
- /cart →
- /checkout
hilft, Probleme aufzudecken, die nur auftreten, wenn Schritte voneinander abhängen:
- abgelaufene oder fehlerhafte Tokens
- Session-IDs, die nicht weitergegeben werden
- inkonsistenter Nutzerzustand
- ein funktionierender Login, der einen fehlerhaften Checkout verdeckt
Diese Abhängigkeits-Fehler sind die Mehrzahl der realen API-Incidents. Mehrstufiges synthetisches Monitoring, bei dem jede Anfrage in die nächste übergeht, ist die einzige zuverlässige Methode, sie zu erkennen.
Dotcom-Monitor unterstützt verkettete Tasks, die solche Flows nachbilden und sicherstellen, dass Ihr Monitoring die Wahrheit über Nutzererfahrungen sagt — nicht nur über isolierte Endpunkt-Gesundheit.
4. Nutzen Sie Dashboards und Logs zur Ursachenanalyse
Fehler zu entdecken ist nur die halbe Miete.
Zu verstehen, warum sie auftreten, verhindert ihre Wiederholung.
Sobald die Beispielendpunkte überwacht werden, offenbaren Logs und Dashboards Muster wie:
- wo die Latenz herkommt (DNS-Lookup, SSL-Aushandlung, Serververarbeitung)
- welche Schritte in einem Workflow konstant langsamer werden
- wie Auth oder Session-Erzeugung nachgelagerten Performance-Impact haben
- welche Endpunkte regionale Variabilität zeigen
Waterfall-Charts, Trend-Diagramme und Fehlerlogs ermöglichen es Ihnen, Probleme schnell zu isolieren — sei es eine langsame Datenbankabfrage, eine Token-Ablauf-Schleife oder ein Endpunkt, der unter Last anders reagiert.
Diese Sichtbarkeit verwandelt „Monitoring“ in handlungsfähige Observability.
5. Integrieren Sie vorhandene Test-Sammlungen in das Monitoring
Teams, die bereits Postman-Sammlungen oder interne API-Tests pflegen, können diese direkt in ein externes Monitoring-System importieren.
Das schließt die Lücke zwischen interner QA-Validierung und echter Umgebungs-Verifikation und sorgt für Konsistenz zwischen lokalen, Staging- und globalen synthetischen Monitoring-Umgebungen.
Statt jeden Test manuell nachzubauen, importieren Sie einfach die Sammlung und beginnen mit dem Monitoring aus mehreren Regionen — so erscheinen Probleme, die niemals in einer lokalen oder CI-only-Umgebung aufgetreten wären.
Praxisnahe Szenarien zum Üben mit diesen Endpunkten
Der wahre Wert dieser Beispielendpunkte zeigt sich, wenn Sie sie nutzen, um Probleme nachzubilden, die in echten verteilten Systemen auftreten. Monitoring hat nur dann Bedeutung, wenn es die Ausfälle widerspiegelt, die Ihre Kunden erleben — nicht theoretische Bedingungen, die außerhalb einer kontrollierten Umgebung nie auftreten.
Nachfolgend hochwirksame, praxisnahe Szenarien, die Sie mit den zuvor eingeführten Endpunkten simulieren können. Jedes Szenario korrespondiert direkt mit Problemen, denen SRE, DevOps, API-Engineering und QA-Teams wöchentlich begegnen.
1. Latenz-Spitzen und regionale Performance-Drift
Eines der schwierigsten Probleme in der Produktion ist intermittente Langsamkeit.
Sie löst selten einen kompletten Ausfall aus, verletzt aber still SLAs und verschlechtert die Nutzererfahrung erheblich.
Mit dem /slow?ms=-Endpunkt können Sie nachbilden:
- regionenspezifische Verlangsamungen
- variablen Netzwerk-Jitter
- degradierte Upstream-Abhängigkeiten
- langgezogene Performance-Spitzen
Indem Sie den Latenzparameter anpassen, können Sie Szenarien modellieren wie:
- eine Datenbank, die intermittierend 2–3 Sekunden benötigt
- eine Partner-API, die unvorhersehbar reagiert
- ein Cloud-Provider mit Stau in einer Region
So validieren Sie, ob Ihr Monitoring frühe Signale von Performance-Verschlechterung erkennt — bevor Kunden es spüren.
2. Authentifizierungs-Ausfälle und Token-Ablauf
Authentifizierungsprobleme treten selten bei Einzeltests auf.
Sie passieren während Session-Erzeugung, Token-Refresh oder Übergaben zwischen Endpunkten.
Mithilfe des /auth/token-Endpunkts kombiniert mit einem mehrstufigen Flow können Sie simulieren:
- abgelaufene Tokens
- ungültige oder fehlerhafte Tokens
- nicht übereinstimmende Scopes
- falsche Token-Weitergabe zwischen Schritten
- Token-Lebensdauern, die unter Last variieren
Fehler hier schlagen auf alle nachgelagerten Requests durch.
Eine API, die von Uptime-Checks „gesund aussieht“, kann dennoch unbrauchbar sein, wenn die Authentifizierung still scheitert.
Monitoring-Lösungen müssen Auth-Fehler schnell erkennen, weil sie weitreichende Auswirkungen auf Login, Profile, Warenkorb, Abrechnung und alle sessionspezifischen Endpunkte haben.
3. Workflow-Brüche über abhängige Endpunkte hinweg
Die Sequenz /login → /cart → /checkout spiegelt den Typ Flow wider, bei dem die meisten Ausfälle auftreten — nicht weil ein Endpunkt down ist, sondern weil die Beziehung zwischen Endpunkten gestört ist.
Mit dieser Kette können Sie simulieren:
- erfolgreichen Login, gefolgt von einem fehlerhaften Cart-Endpunkt
- Session-IDs, die nicht weitergereicht werden
- inkonsistenten Nutzerzustand zwischen Schritten
- Payload-Änderungen, die die nachgelagerte Logik brechen
- Checkout-Calls, die intermittierend 500er zurückgeben
Einzel-Monitore können diese Fehler nicht erkennen, weil jeder Endpunkt allein genommen eine gültige Antwort liefern kann.
Nur synthetisches mehrstufiges Monitoring bringt Probleme zutage, die sich für Nutzer tatsächlich bemerkbar machen.
4. Kaskadierende Ausfälle und partielle Störungen
Verteilte Systeme degradieren oft komponentenweise.
Ein nachgelagerter Microservice wird langsamer, was einen Upstream-Endpunkt verlangsamt, was zu Retries führt, die eine andere Systemkomponente überlasten.
Mit /slow, /products und /error/{code} können Sie modellieren:
- partielle Ausfälle
- Abhängigkeits-Engpässe
- Retry-Explosionen
- API-Thrashing unter Last
- temporäre Fehler, die nur unter verketteten Bedingungen sichtbar werden
Diese „grauen Fehler“ sind schwierig zu erkennen, sofern Ihr Monitoring nicht sowohl Latenz als auch sequentielles Verhalten erfasst.
Sie sind auch die Fehler, die am häufigsten SLAs und Kundenzufriedenheit beeinträchtigen.
5. SLA/SLO-Monitoring und Fehlerbudget-Verbrauch
Produktionszuverlässigkeit dreht sich um SLOs, nicht um Uptime-Mythen.
Mit den Beispielendpunkten können Sie üben:
- Performance-Schwellen zu setzen
- Fehlerraten zu beobachten
- Latenz-Perzentile zu messen
- zu beobachten, wie schnell Ihr Fehlerbudget unter Stress verbraucht wird
Beispielsweise simuliert ein Aufruf von /slow?ms=3000 jede Minute anhaltende Performance-Verschlechterung, sodass Sie beobachten können, wie Fehlerbudgets genauso verbraucht werden wie während eines echten Incidents.
Dashboards und Berichte zeigen dann, ob Sie Budget durch folgende Ursachen verbrennen:
- Latenz
- Auth-Fehler
- Fehler
- Mehrstufige Flow-Fehler
- regionale Inkonsistenzen
Hier lernen Teams, Roh-Monitoring in operative Erkenntnisse zu übersetzen — und wo die Reporting-Funktionen einer Monitoring-Plattform ihren Wert beweisen.
Fazit: Beginnen Sie damit, echtes API-Monitoring zu üben. Nicht idealisiertes Mock-Verhalten.
Moderne APIs versagen nicht ordentlich. Sie versagen unter Latenz, unter Last, während Token-Refresh und mitten in mehrstufigen Workflows. Mock-APIs verbergen diese Bedingungen — deshalb entdecken Teams Schwächen im Monitoring oft erst nach einem Produktionsausfall.
Indem Sie realistische Web-API-Beispielendpunkte verwenden — solche, die Verlangsamungen simulieren, echte 4xx/5xx-Fehler auslösen, Authentifizierung verlangen und verkettete Abläufe ausführen — schaffen Sie eine sichere, aber genaue Umgebung, um Ihre Monitoring-Strategie zu validieren, bevor Kunden Auswirkungen spüren.
Diese Endpunkte helfen Ihrem Team, die wirklich relevanten Fragen zu beantworten:
- Wie schnell erkennt Ihr Monitoring Ausfälle?
- Erkennt es Probleme in mehrstufigen Workflows?
- Kann es gesunde Latenz von SLA-Verletzungen unterscheiden?
- Interpretieren Dashboards Auth-Fehler und Token-Abläufe korrekt?
- Zeigen Ihre Dashboards die Wahrheit — oder vermitteln sie ein falsches Gefühl von Stabilität?
So gehen Engineering-Teams vom reaktiven in den proaktiven Modus.
Von „wir hoffen, das Monitoring fängt es“ zu „wir wissen, das Monitoring fängt es“.
Wenn Ihr Ziel ist, zuverlässige Systeme aufzubauen — und Monitoring-Blindspots zu eliminieren — dann ist synthetisches, End-to-end-Monitoring mit realistischen Beispiel-APIs nicht optional. Es ist die Grundlage operativer Exzellenz.
Dotcom-Monitor stellt Ihrem Team die Werkzeuge zur Verfügung, um zu überwachen:
- realistische Latenzmuster
- verkettete API-Workflows
- OAuth- und authentifizierte Endpunkte
- regionale Performance-Drift
- SLA/SLO- und Fehlerbudget-Verbrauch
- Payload-Korrektheit mittels Assertions
- und komplette End-to-end-Zuverlässigkeit
Jetzt, da Sie die Beispielendpunkte haben, ist es Zeit, sie in der Praxis zu verwenden.
Bereit, diese Endpunkte in Minuten zu überwachen?
Starten Sie eine kostenlose Testversion von Dotcom-Monitor’s Web-API-Monitoring-Plattform und validieren Sie Ihre API-Workflows mit echter Produktionsgenauigkeit — ohne zusätzlichen Overhead oder Komplexität in Ihrem Stack.
FAQs: Beispielendpunkte für Web-APIs & Monitoring (Kompakte Version)
Mock-APIs liefern vorhersehbare, statische Antworten. Beispiel-APIs simulieren reale Bedingungen, Verlangsamungen, Fehler, Authentifizierung und mehrstufige Logik.
Für weiteren Kontext siehe die Unterschiede zwischen HTTP, REST und Web-APIs.
/auth/token unterstützt realistisches Token-Verhalten, sodass Sie Authentifizierung, Token-Ablauf und authentifizierte Abläufe testen können. Dotcom-Monitor unterstützt das Monitoring von OAuth vollständig./slow und /error/{code} simulieren Leistungsabfall und Ausfälle, sodass Sie Latenz-Perzentile, Fehlerraten und die Nutzung des Fehlerbudgets über Dashboards beobachten können.