Der Berufsstand „Berater“ – dem ich angehöre – sieht sich bisweilen eines Klischees verdächtigt, besonders gerne unnötige Anglizismen zu verwenden, sogenannte „Buzzwords“ zu nutzen oder gar diese überhaupt erst zu prägen. Ich weiß allerdings nicht genau, wer den Begriff „Realtime“ bzw. „Echtzeit“ in die Welt gesetzt hat, der im übrigen auch in einer DIN-Norm definiert ist. Wer hier in der Vergangenheit stöbert kann den Eindruck gewinnen dass IT-Anbieter, Kunden und Berater bereits seit den 70er Jahren massiv und gemeinsam auf die Jagd nach der Echtzeit im Reporting gehen.
Warum aber ist die Begrifflichkeit „Realtime“ weiterhin als Zielsetzung von Projekten und aktiv kommuniziertes Charakteristikum von neuen IT-Produkten so omnipräsent? Schließlich impliziert dies recht logisch, dass die Echtzeit vielerorts eben noch nicht in zumindest einigen der diversen Reportings realisiert wurde.
Es gibt natürlich gute Gründe dafür dass viele Reportinglösungen insbesondere in komplexen Organisationen auch heute nicht „stets auf Knopfdruck“ aktuelle Daten liefern (um den Begriff „Echtzeit“ versuchsweise pragmatisch so zu umschreiben).
Durch M&A-Aktivitäten beispielsweise kommen neue Datenquellen, -strukturen und Ausprägungen, neue Systeme und „anders gestaltete Prozesse“ in die Unternehmen und müssten für ein dann konzernweites „neues echtes Echtzeit-Reporting“ zunächst integriert und harmonisiert werden. Im Falle von ERP-Systemen dauert dies oft viele Jahre, teils wird auch dann eine wirklich durchgängige Homogenisierung nicht vollständig erzielt. Somit stellt sich die Frage, ob ein wirkliches „Sofort-Reporting“ bei Unternehmen mit einer Strategie anorganischen Wachstums wirklich ein Top-Ziel darstellen sollte.
Zugleich entstehen neue Datenquellen, dies vor allem entlang der Wertschöpfungskette und unter Nutzung der vielen gerne unter „Digitalisierung“ subsumierten neuen technischen Möglichkeiten. Im Sinne eines „Experimentierens mit neuen technischen Möglichkeiten“ kann es durchaus sinnvoll erscheinen, hier erst zu einem späteren Zeitpunkt eine Integration neuer Daten in bestehende „Echtzeit-Datenströme“ durchzuführen. Der sogenannte „Data Lake“ ist ein Tool, das hierzu mittlerweile gerne „interimsweise“ und parallel zu klassischen, hochgradig strukturierten Data-Warehouses genutzt wird, die ausgeprägten Anforderungs- und Berechtigungsprozessen unterliegen.
Modernes Reporting bedient sich zudem einer Vielzahl von Datenarten, die derzeit nicht automatisch generiert werden können. Dies betrifft beispielsweise zukunftsgerichtete Zahlen für Planung und Forecasting. Algorithmen und Big Data können hier Daten generieren – aber diese sind nicht zwingend von den wichtigen Leistungsträgern im eigenen Geschäft akzeptiert. Auch qualitative (Text!), von Menschen verfasste Erläuterungen und unternehmerische Maßnahmenvorschläge müssen zunächst gedacht werden. Externe Datenanbieter, deren Informationen berichtet werden liefern ihrerseits auch nicht immer in der angestrebten Echtzeit. Somit fließt eine ganze Reihe von Informationen in Berichte ein, die erstmal erarbeitet werden muss.
Zuletzt gibt es auch rein quantitative Reporting-Anlässe, bei denen bis heute Robotics & Co nicht den Menschen abgelöst haben und auch nicht so schnell ablösen werden. Dies sind z.B. konsolidierte Konzernabschlüsse für die Kapitalmarkt-Berichterstattung, in deren Verlauf manuelle Korrekturen und sonstige Buchungen über einen typischerweise nach wie vor Tage langen Zeitraum durchgeführt werden.
Zurück zur kritischen Würdigung des Begriffs „Echtzeit“: Zeit ist zwar durchaus relativ wie wir heute wissen. Aber kann Zeit überhaupt „unecht“ sein? Zudem: „Realtime“ als Begriff bietet die schöne Möglichkeit, „ganz schnell“ zu suggerieren. Dies jedoch ohne konkret zu benennen, wie schnell es denn im angepeilten Zielzustand im konkreten Unternehmen wirklich sein wird.
Genau dies fordert im übrigens die einschlägige DIN-Norm.