Synthetisches Monitoring für ServiceNow: Tabellen, Regeln & Endpoints

Synthetic Monitoring for ServiceNowServiceNow ist eine jener Plattformen, die von außen einfach wirkt, sich aber in ein Labyrinth verwandelt, sobald eine Organisation beginnt, sie zu individualisieren. Was als Servicekatalog oder HR-Portal beginnt, entwickelt sich schnell zu einem Gewirr aus benutzerdefinierten Tabellen, UI-Richtlinien, Geschäftsregeln, Flow-Designer-Aktionen und skriptierten REST-Endpoints. Nichts davon ist schlecht. Tatsächlich ist es genau der Grund, warum Unternehmen ServiceNow wählen: Sie können alles bauen.

Aber mit dieser Flexibilität kommt auch Fragilität. Sobald Sie eigene Logik einführen — besonders Logik, die von anderer Logik abhängt — entstehen Fehlerarten, die im integrierten Monitoring nicht auftauchen und in den meisten internen Dashboards nicht sichtbar sind. Eine ServiceNow-Instanz kann auf dem Papier gesund aussehen, während das Portal für echte Nutzer völlig unbenutzbar ist.

An dieser Stelle greift synthetisches Monitoring. Nicht die leichten „Synthetics“, die ServiceNow intern ausführt, um Workflows zu validieren, sondern externes, browserbasiertes Monitoring, das simuliert, wie ein tatsächlicher Benutzer mit Ihrem Portal interagiert. Der Unterschied zwischen den beiden ist der Unterschied zwischen dem Überprüfen des Server-Herzschlags und der Frage, ob ein Mensch tatsächlich ein Ticket absenden kann.

Externe Synthetics fangen die Fehler auf, die in Ihren benutzerdefinierten Tabellen, Ihren Client-Scripts, Ihren skriptierten APIs — und letztlich in Ihren Designentscheidungen — entstehen. Mit zunehmender Anzahl beweglicher Teile ist die einzige zuverlässige Methode, um zu bestätigen, dass Ihr ServiceNow-Portal funktioniert, etwas zu verwenden, das sich wie eine reale Person verhält, die von außerhalb des Internets darauf zugreift.

Das ist der Umfang dieses Artikels: warum ServiceNow-Anpassungen die Hauptursache für die meisten Ausfälle sind, warum native Tools das nicht sehen können und wie synthetisches Monitoring die Lücke schließt.

Warum ServiceNow-Anpassungen das Portal-Erlebnis beeinträchtigen

Die Now Platform bietet Organisationen eine enorme Angriffsfläche für Anpassungen. Und weil die zugrunde liegende Struktur so modular ist, ist es leicht anzunehmen, dass eine kleine Änderung an einer Stelle keine Konsequenzen an anderer Stelle hat.

In Wirklichkeit ist fast alles in ServiceNow relational — benutzerdefinierte Tabellen verweisen auf andere Tabellen, Regeln werden gegen vererbte Klassen ausgelöst, Scripts verändern Zustände, von denen andere Scripts abhängen. Selbst UI-Elemente, die im Browser einfach aussehen, können von einem Stapel GlideRecord-Abfragen, ACL-Prüfungen und serverseitigen Geschäftsregeln angetrieben werden.

Wenn etwas schiefgeht, sieht es selten wie ein traditionelles „Ausfall“-Ereignis aus. Stattdessen sehen Nutzer Symptome wie:

  • Seiten, die langsam laden, bis sie in einen Timeout laufen.
  • Katalogelemente, die nach dem Drücken von Senden einfrieren.
  • Widgets, die endlos drehen, weil eine benutzerdefinierte API unvollständiges JSON zurückgegeben hat.
  • Suchergebnisse, die plötzlich nichts mehr zurückliefern, weil eine Regel die ACL-Vererbung angepasst hat.
  • Eine Wissensseite, die intern funktioniert, aber bricht, sobald jemand sie über SSO aufruft.

Für die Infrastruktur von ServiceNow ist alles „up“. Aber für Ihre Mitarbeiter oder Kunden könnte das Portal genauso gut offline sein.

Diese Fehlerarten entstehen nicht aus der Basisplattform, sondern daraus, wie sie angepasst wurde. Tabellen, Regeln, Endpoints — jedes davon führt einen Schwachpunkt ein. Synthetisches Monitoring funktioniert, weil es dem internen Zustand der Instanz egal ist. Es interessiert sich nur dafür, ob das Portal sich korrekt verhält.

Die blinden Flecken im nativen Monitoring von ServiceNow

ServiceNow verfügt über ein in die Plattform integriertes „synthetisches“ Monitoring. Aber es handelt sich um internes synthetisches Monitoring — Checks, die innerhalb der Instanz laufen und die Ausführung von Workflows, Geschäftslogik und grundlegende SLAs validieren.

Nützlich? Ja. Ausreichend? Keineswegs.

Interne Synthetics leben in denselben Bedingungen wie das Portal. Sie durchlaufen keine VPNs, Unternehmensfirewalls, andere Geografien, Drittanbieter-Identitätsprovider, DNS-Schichten oder CDNs. Sie laden keinen Browser, führen kein JavaScript aus und rendern das Portal nicht in einer Umgebung, die einem echten Benutzer ähnelt. Sie folgen auch keinen mehrstufigen Journeys über Kataloge, Genehmigungen, Scripts und Back-End-Integrationen.

Am wichtigsten: Sie berühren nicht das, was am häufigsten kaputtgeht: Ihren individuellen Code. Häufige Vorkommnisse sind:

  • Ein benutzerdefiniertes Client-Script, das einen Fehler wirft, löst keine Fehlermeldung im internen Synthetic aus.
  • Eine Flow-Designer-Aktion, die blockiert, weil eine Drittanbieter-API langsam ist, löst keine internen Alarme aus.
  • Der Endpoint einer Scoped-App, der eine malformierte Nutzlast zurückgibt, wird nicht als ungesund registriert, es sei denn, Sie testen ihn gezielt.
  • Eine Performance-Regression auf der Browser-Seite, verursacht durch eine Widget-Änderung, erscheint nicht in den Server-Logs.

Native Überwachung validiert die Plattform. Externes synthetisches Monitoring validiert die Erfahrung.

Wenn Sie nur das betrachten, was innerhalb von ServiceNow passiert, bleiben Sie immer halb blind.

Überwachung benutzerdefinierter Tabellen: wenn Datenarchitektur die UX bricht

Alles in ServiceNow ruht auf Tabellen, und sobald eine Organisation benutzerdefinierte Tabellen einführt, wächst das Abhängigkeitsgraph exponentiell. Eine neue Incident-Unterklasse, ein Record Producer mit eigenem Schema, eine benutzerdefinierte CMDB-Erweiterung — jedes davon wird zu einer neuen Quelle potenzieller Drift.

Die größten Probleme zeigen sich im Portal lange bevor jemand sie in der Instanz bemerkt.

  • Ein ACL-Update, das harmlos erschien, blockiert plötzlich das Befüllen eines Referenzfeldes, was sich in einem Katalogelement als „Einfrieren“ niederschlägt.
  • Eine benutzerdefinierte Tabelle erbt von einem Parent, der über die Zeit verändert wurde, und jetzt feuert eine Regel, die sich auf ein bestimmtes Feld stützt, nicht mehr.
  • GlideRecord-Abfragen werden langsamer, wenn die Anzahl der Datensätze steigt, und das Portal läuft in einen Timeout, obwohl die Instanz normale CPU-Werte anzeigt.
  • Eine übergreifende Abhängigkeit zwischen Tabellen bricht stillschweigend und lässt Workflows in „requested“ hängen, ohne Fehlermeldungen.

Das sind keine Ausfälle im traditionellen Sinn. Es sind Workflow-Fehler. Und sie sind unsichtbar, es sei denn, Sie testen die tatsächlichen Portal-Komponenten, die auf diese Tabellen angewiesen sind.

Synthetisches Monitoring entdeckt das, weil es den gesamten tabellenabhängigen Workflow zusammensetzt: Katalog öffnen > Felder ausfüllen > senden > Statusänderung verifizieren. Sie sehen den ganzen Pfad, nicht nur die Teile, die ServiceNow für in Ordnung hält.

Überwachung von Geschäftsregeln & Client-Scripts

Regeln sind der am tückischsten gefährliche Teil von ServiceNow, weil sie sich auf subtile Weise verketten. Eine Geschäftsregel feuert nach einem Insert, was eine Flow-Designer-Aktion auslöst, die ein Feld aktualisiert, was ein Script Include auslöst, das eine benutzerdefinierte API aufruft — und plötzlich wird das einfache Absenden eines Tickets zu einem verteilten System.

Client-Scripts erzeugen eine andere Art von Fehler: eine fehlerhafte Bedingung, eine fehlende Variable oder eine neue UI-Policy, die mit einer älteren in Konflikt gerät. Diese Fehler erscheinen nicht als offensichtliche Fehler in den Logs. Sie treten im Browser als Verzögerungen, eingefrorene Buttons und inkonsistentes Formularverhalten auf.

Im Portal tritt die Kombination aus Geschäftsregeln + Client-Scripts zutage.

Synthetisches Monitoring erkennt:

  1. Eine Geschäftsregel, die eine langsame Glide-Abfrage verursacht und die Sendezeiten in die Höhe treibt.
  2. Eine UI-Policy, die falsch auslöst, wenn bestimmte Felder leer sind.
  3. Ein Client-Script, das nur in Chrome bricht, nicht in Firefox.
  4. Eine Regel, die Daten aufgrund von Vererbungsdrift in die falsche Tabelle umleitet.

Die internen Synthetics von ServiceNow melden fröhlich „alle Systeme normal“, während Nutzer das Help-Desk mit Screenshots von drehenden Widgets überschwemmen.

Outside-in-Tests sind die einzige verlässliche Methode, um zu erkennen, ob der Regel-Stack sich wie erwartet verhält.

Überwachung benutzerdefinierter Endpoints & Integrationen

Benutzerdefinierte Endpoints sind der Punkt, an dem ein ServiceNow-Portal aufhört, eine einfache Weboberfläche zu sein, und beginnt, sich wie eine echte Anwendung zu verhalten. Organisationen erweitern die Plattform mit scripted REST-APIs, Integrations-Records, Flow-Designer-Aktionen, die externe Systeme aufrufen, Scoped-App-Endpoints und einer Mischung aus eingehenden und ausgehenden Webhooks. Jede Ergänzung vertieft die Abhängigkeitskette, und jede Abhängigkeit führt einen Fehlerpunkt ein, der außerhalb der Kern-ServiceNow-Umgebung lebt.

Hier entsteht ein großer Teil der Portal-Fehler. Eine fehlerhafte scripted REST-API lässt das abhängige Widget endlos drehen. Eine externe Integration, die langsam ist, führt dazu, dass Katalog-Submits lange genug hängen bleiben, dass Nutzer annehmen, sie seien fehlgeschlagen. Middleware-Systeme wie MuleSoft oder Workato können Ratenbegrenzungen oder intermittierendes Throttling durchsetzen, und wenn das passiert, antwortet ServiceNow oft mit vagen Fehlerzuständen, die dem Nutzer keine nützlichen Hinweise liefern. Sogar etwas so Subtiles wie ein Endpoint, der malformiertes oder partielles JSON zurückgibt, reicht aus, um UI-Komponenten auf Arten zu brechen, die nicht als klassische Fehler erscheinen.

Keines dieser Probleme taucht im nativen Monitoring von ServiceNow auf. Die Plattform sieht nur ihre eigene Infrastruktur, nicht die externen Aufrufe, von denen Ihre Anpassungen abhängen. Ein synthetischer Test behandelt diese Abhängigkeiten jedoch als erstklassige Elemente des Workflows. Er lädt das Widget, löst den API-Aufruf aus, verarbeitet die Antwort, aktualisiert die relevanten Tabellen und verifiziert den Endzustand genau wie ein echter Benutzer. Diese vollständige Kette — die Kombination aus Browser-Verhalten, Netzwerkbedingungen, Endpoint-Performance und Plattformlogik — bestimmt, ob das Portal tatsächlich funktioniert.

Wenn Sie den gesamten Workflow nicht kontinuierlich testen, verlassen Sie sich auf Hoffnung statt auf Validierung. Und in einer individuell angepassten ServiceNow-Umgebung ist Hoffnung keine Strategie.

Outside-In-Synthetisches Monitoring für ServiceNow-Portale

Browserbasiertes synthetisches Monitoring unterscheidet sich grundlegend von internen Workflow-Checks. Es lädt Ihr Portal genau so, wie es ein Benutzer tut: von einer echten Maschine, mit einem echten Browser, über das öffentliche Internet.

Das rekonstruiert den vollständigen Pfad:

  1. DNS-Auflösung
  2. CDN-Routing
  3. Unternehmens- oder Cloud-Gateways
  4. SSO oder externe Identitätsanbieter
  5. JavaScript-Ausführung
  6. Widget-Rendering
  7. API-Aufrufe
  8. Tabellen-Updates
  9. Portal-Antworten

Es ist der Unterschied zwischen der Frage, ob der Motor läuft, und der Frage, ob das Auto tatsächlich fährt.

Für ServiceNow-Portale — besonders für solche mit umfangreichen Anpassungen — ist dies die einzige Möglichkeit, die Realität einzufangen.

  • Wenn eine Seite 7 Sekunden zum Laden braucht, sehen Sie es.
  • Wenn ein Widget einen Fehler in der Konsole wirft, sehen Sie es.
  • Wenn ein benutzerdefinierter Endpoint malformiertes JSON zurückgibt, schlägt der Test genauso fehl wie der Benutzer.
  • Wenn ein Release-Update das Verhalten eines Scripts ändert, schießen die Schritt-Timings in die Höhe.

Outside-in-Synthetics kümmern sich nicht darum, ob die Instanz meint, gesund zu sein. Sie kümmern sich darum, ob ein Mensch die Aufgabe erledigen kann.

Modeling Real ServiceNow Portal Journeys

ServiceNow-Portale sind keine linearen Anwendungen, sondern verzweigte Flüsse. Ein guter synthetischer Test spiegelt das wider. Ziel ist es nicht, zufällig durch Seiten zu klicken — sondern die in Tabellen, Regeln und Endpoints eingebettete Geschäftslogik zu validieren, die Ihre Organisation geschaffen hat.

Ein ordentlicher Test bildet einen realen Workflow ab:

  1. Authentifizieren (oft über SSO).
  2. Das angepasste Portal oder den Servicekatalog öffnen.
  3. Nach einem Katalogelement suchen, das von benutzerdefinierten Tabellen abhängt.
  4. Felder ausfüllen, die Client-Scripts oder UI-Policies auslösen.
  5. Absenden, wodurch Geschäftsregeln und Endpoint-Aufrufe ausgelöst werden.
  6. Den resultierenden Datensatz in der richtigen Tabelle validieren.
  7. Bestätigen, dass nachfolgende Statusänderungen propagiert werden.

Das rekonstruiert jeden Schritt, an dem typischerweise etwas schiefgeht.

Gute synthetische Tests beinhalten:

  • Dynamische Wartezeiten für das asynchrone Laden von Widgets.
  • Assertionen, die an tatsächliche Datenwerte gebunden sind, nicht an statischen Text.
  • Verifikation, dass das Ticket in der richtigen Tabelle mit dem richtigen Status landet.
  • Prüfungen, dass benutzerdefinierte Endpoints die erwarteten Objekte zurückgeben.
  • Timing-Analysen, die langsame Regeln, Scripts oder Integrationen aufdecken.

Das ist kein leichtes Gesundheits-Check-Monitoring. Es ist eine Full-Stack-Verhaltensvalidierung der kundenspezifischen Anwendung, die Ihr Team auf ServiceNow aufgebaut hat.

Erkennen von Regressionsfehlern bei ServiceNow-Upgrades & Releases

Die halbjährlichen Upgrades von ServiceNow sind eine vorhersehbare Quelle unvorhersehbarer Fehler. Selbst mit sorgfältigen Tests in Vorproduktionsumgebungen entgehen subtile Regressionen, weil sich das Verhalten der Plattform auf Weise verändern kann, die erst in einer vollständig angepassten Umgebung sichtbar wird. Ein Client-Script, das in einer Release perfekt funktionierte, kann nach einer Änderung des UI-Frameworks brechen. Ein benutzerdefiniertes Widget kann von Abhängigkeiten leben, die stillschweigend refaktoriert wurden. Eine Geschäftsregel kann anfangen, doppelt zu feuern, weil sich die Ausführungsreihenfolge verändert hat. Flow-Designer-Aktionen können leicht unterschiedliche Ausgabe-Strukturen zurückgeben, und GlideRecord-Abfragen können sich aufgrund von Änderungen an Indexierung oder Query-Optimierungen anders verhalten.

Das sind keine dramatischen Ausfälle; es sind sekundäre Fehler, die im Portal auftreten, meist als Langsamkeit, unerwartetes Formularverhalten oder Komponenten, die sich weigern zu laden. Und weil so viele Anpassungen von vererbten Tabellen oder plattformspezifischen Abstraktionen abhängen, reverberieren schon kleine Änderungen, bis schließlich etwas bricht.

Synthetisches Monitoring ist die einzige verlässliche Methode, diese Probleme sichtbar zu machen, bevor Benutzer sie erleben. Während manuelle Upgrade-Tests sich auf bekannte Pfade konzentrieren, validieren Synthetics die lebenden Workflows — Katalogelemente, Ticket-Erstellung, Genehmigungen, Suchverhalten und integrationsabhängige Komponenten. Stunden nach einem Upgrade melden Nutzer letztlich, was kaputt ist. Synthetisches Monitoring verschafft Ihnen diese Sichtbarkeit sofort und bietet ein Regressions-Netz, das lange nach dem Upgrade-Fenster aktiv bleibt.

Wo Dotcom-Monitor ins Spiel kommt

Dotcom-Monitor ersetzt nicht die internen Tools von ServiceNow. Es ergänzt sie, indem es die Sichtbarkeitslücke zwischen der Plattform und der Benutzererfahrung schließt.

Mit echtem Browser-Monitoring erhalten Sie Schritt-Timings, die die Client-seitige Performance widerspiegeln, nicht nur den Server-Status. Mit API-Monitoring können Sie benutzerdefinierte Endpoints und Integrationen unabhängig validieren. Mit globalen Standorten sehen Sie, wie unterschiedliche Netze und Regionen mit Ihrem Portal interagieren. Und mit Multi-Step-Scripting können Sie exakt die Workflows modellieren, die von Ihren Tabellen, Regeln und Endpoints abhängig sind.

Anders gesagt: Internes Monitoring hält die Plattform ehrlich, externes Monitoring hält die Erfahrung ehrlich.

Fazit

ServiceNow wird durch Anpassung mächtig. Aus den gleichen Gründen wird es fragil. Jede benutzerdefinierte Tabelle, Regel und jeder Endpoint führt neue Möglichkeiten ein, wie das Portal ausfallen kann — oft still und oft ohne Hinweise in den nativen ServiceNow-Tools.

Synthetisches Monitoring schließt die Sichtbarkeitslücke, indem es die komplette Reise aus Sicht des Nutzers nachbildet. Es validiert die Workflows, die von Ihren benutzerdefinierten Datenstrukturen abhängen. Es erkennt verhaltensbedingte Probleme, die durch Scripts und Regeln eingeführt wurden. Es legt Fehler offen, die hinter API-Aufrufen und Integrationen verborgen sind. Und es tut all dies kontinuierlich, unabhängig davon, wie gesund die Instanz zu sein glaubt.

Für Organisationen, die ServiceNow als Eingangstür nutzen — sei es für ITSM, HR, Kundenportale oder maßgeschneiderte Anwendungen — ist Outside-In-Validierung nicht optional. Es ist die einzige verlässliche Methode, um zu wissen, ob das Portal funktioniert.

Tabellen. Regeln. Endpoints. Sie sind der Kern Ihrer ServiceNow-Anpassungen — und der Kern Ihrer Monitoring-Strategie. Externe Synthetics stellen sicher, dass sie sich so verhalten, wie Sie es beabsichtigt haben, und nicht nur so, wie die Plattform es meldet.

Beginnen Sie mit dem externen synthetischen Monitoring von Dotcom-Monitor für ServiceNow, indem Sie sich noch heute für eine kostenlose Testversion anmelden!

Latest Web Performance Articles​

Starten Sie Dotcom-Monitor kostenlos

Keine Kreditkarte erforderlich