Braucht das Zeitalter des intelligenten Betriebs und der intelligenten Wartung eine „Daten-Mittelplattform“ und eine einfache Überwachung: Nein

„Daten in der Plattform“ ist ein Konzept von Internet-Prominenten in der Internetbranche. Einige Leute dachten einst, es sei ein Produkt, das die Internetlandschaft veränderte, während andere es für einen hilflosen Kompromiss hielten. Es ist jedoch nicht zu leugnen, dass die „Datenplattform“ im Zeitalter von Big Data eine Art Schwerpunkt auf das höchste Profil von Daten legt.
Heute, 6 Jahre nach der Konzeptvorstellung, stellt sich auch im Bereich der Datenerfassung und -einsicht die gleiche Frage: Gibt es im zukünftigen Zeitalter des intelligenten Betriebs und der intelligenten Wartung noch einen Platz für das Rechenzentrum?
Der Mythos „Rechenzentrum“: Wird er im DT-Zeitalter benötigt?
Im Jahr 2016 übernahm Ali die Führung beim Vorschlag des Konzepts der „Datenplattform“.
Mit der rasanten Entwicklung von Wissenschaft und Technologie hat sich die industrielle IT in Richtung DT (Datentechnologie) entwickelt. Die Zunahme von Datengeschäftsszenarien und das explosionsartige Wachstum des Datenvolumens deuten darauf hin, dass Daten eine beispiellos wichtige Position einnehmen. Unternehmen haben entdeckt, dass Daten im DT-Zeitalter zu Munition für die Ausweitung des Territoriums geworden sind. Sein Honig ist jedoch mein Arsen. Auch Daten sind für viele Unternehmen zur Belastung geworden, denn diese „Munition“ ist von unterschiedlichem „Kaliber“. Um schnell auf Geschäftsanforderungen reagieren zu können, stellen verschiedene Geschäftsbereiche häufig eigene Teams zusammen, um Geräte zu entwickeln oder zu iterieren. Die Digitalisierung von Geschäftsszenarien bringt Datenkomplexität mit sich, die den Austausch und die Kommunikation von Daten zwischen Geschäftsbereichen erschwert, was zu schlotenartigen Dateninseln führt. Die Daten in den verschiedenen Geschäftsbereichen des Unternehmens sind fragmentiert, was der Intervention und Entscheidungsfindung des oberen Managements nicht förderlich ist, und es ist noch unerträglicher, direkt auf die Berechnung des Input-Output-Verhältnisses zu schauen. Dies zeigt sich insbesondere im Finanzsektor, wo die Digitalisierung aggressiver voranschreitet.

Der Status quo der Branche, die mit einem Fuß in die DT-Ära getreten ist, ist ungefähr derselbe, und das Konzept des Rechenzentrums wurde entsprechend geboren. Der Kern des Rechenzentrums besteht darin, die Aggregation und Verarbeitung von Frontline-Daten abzuschließen, um eine wiederholte Datenverarbeitung zu vermeiden, die Datenfreigabefunktionen durch Datendienste zu verbessern, Datenwert für Unternehmen zu akkumulieren und Anwendungen zu stärken. Nach der Verarbeitung im Rechenzentrum kann das Back-End Daten erhalten, die für die Stapelverarbeitung geeignet sind, was eine bessere Führungswirkung auf das Front-End-Geschäft hat. Es klingt ideal, aber wie lange dieses Modell halten kann, darüber ist sich die Branche ebenfalls nicht einig.
Die Existenz von „Dateninseln“ ist zu einem allgemeinen Konsens geworden. Die Einführung des Konzepts des Rechenzentrums zeigt, dass die Branche den zugrunde liegenden Wert von Daten anerkennt und endlich damit begonnen hat, die Lösung für „Dateninseln“ zu erkunden.
Gegner glauben, dass die Rechenzentrumsmethode dem Senden eines Schiffes zum Versenden von Briefen zwischen Inseln entspricht, wobei eine äußerst primitive Methode verwendet wird, um die End-to-End-Informationslücke zu schließen, und Vorverarbeitungsmethoden verwendet werden, um das Problem zu lösen, das die Datenbank dahinter hat Das Cover ist der Komplexität nicht gewachsen. Die sinnvollen Szenenabmessungen und die Vielzahl an Lese- und Schreibanforderungen sind nur die minimalen Abhilfemaßnahmen und werden auf lange Sicht nicht überleben.
Aus der aktuellen Situation zu urteilen, unabhängig davon, ob das Modell „Rechenzentrum“ langfristig wirksam ist oder nicht, ist im IT-Bereich der Beinahe-Durst kurzfristig immer noch gestillt, und IT-orientierte Unternehmen haben vorläufigen Datenwert erhalten Niederschlag.
Im Bereich der Datenerfassung spielt das Plattformmodell keine grundsätzliche Rolle.
Im Bereich der Datenerfassung und -einsicht ist die Situation ganz anders als im IT-Bereich. Um die Dateninseln in der Datenerfassung zu lösen, ziehen einige digitalisierende Unternehmen nach und bauen Rechenzentren, wissen aber nicht, dass dies mehr schaden als nützen wird.
Obwohl es im IT-Bereich einen Trend zur Datenkomplexität gibt, sind die Szenarien und Arten von Daten im Zuge der Geschäftsausweitung im Vergleich zu den Erfassungsszenarien der Unternehmensdigitalisierung relativ kontrollierbar. Diese Kontrollierbarkeit ermöglicht es, Daten nach Anhaltspunkten wie Waren, Transaktionen, Benutzern und Lieferketten aus Sicht der IT in verschiedene Themenbereiche zu unterteilen. Die mittlere Plattform reicht aus, um damit umzugehen, und die zugrunde liegende traditionelle Datenbank kann ebenfalls verwendet werden zur Speicherung und Verarbeitung.

Im Szenario der digitalen Unternehmenssammlung ist der Prozess die größte Variable und nicht die Daten, die zu Ergebnissen geführt haben. Die industrielle Modernisierung hat die Welle der Innovation ausgelöst, und das exponentielle Wachstum intelligenter Terminals in verschiedenen Branchen hat beispiellose Herausforderungen für die Geräteeinsicht und die Datenerfassung mit sich gebracht. Jedes dieser Terminals ist ein Beobachter und ein Feedback, und sie übernehmen unterschiedliche Datenparadigmen und befolgen unterschiedliche Protokolle.
Dies führt zu schwerwiegenderen Dateninseln in der Sammlungsszene. Wenn Unternehmen außerdem ihren Geschäftsumfang erweitern müssen, wird der Trend zur Automatisierung weiter verstärkt und der Terminalpool weiter ausgebaut. Die Wachstumsrate ihrer Dateninseln ist viel höher als die der IT-basierten Geschäftsbereiche. Wenn Sie dem Ansatz des Rechenzentrums folgen, müssen Sie das Fusionsmodell ständig ändern. Offensichtlich reicht dieser Ansatz nicht aus.
Im Gegensatz zur Unternehmens-IT, die nach dem Eintritt in die DT-Ära mit der Digitalisierung ihrer Infrastruktur begann, basiert ihr Bedarf an Datenerfassung eher auf Maschinen als auf Menschen, was dazu führt, dass die Datenquelle nicht zentralisiert werden kann und Daten durch eine verteilte Bereitstellung erfasst werden. Die einzige Entwicklungsrichtung wird die gesamte Betriebs- und Wartungsarchitektur sein, die Cloud, Edge und Terminal integriert.

Unverarbeitete Rohdaten sind für Experten bequem zu diagnostizieren und auf der Grundlage ihrer Berufserfahrung zu verarbeiten. Daten generieren keinen direkten Wert, sind aber das zuverlässigste Instrument zur Risikovermeidung. Es gibt auch Gründe für die Entstehung von Dateninseln: Die Maschinensprache des Geräts ist der beste „Impuls“ und technische Experten müssen seine Originalität und Vielfalt bewahren. Die Datenverarbeitung im Rechenzentrum ist gleichbedeutend damit, Experten „den Puls mit einem Thread diagnostizieren“ zu lassen.
Datenanomalien in der Infrastruktur müssen den Entscheidungsträgern unverzüglich mitgeteilt werden. Das Hinzufügen einer Schicht von Middle-End-Entitäten verstößt gegen das Prinzip von Occams Rasiermesser für sofortige Reaktion und Vermeidung von Zwischenverbindungen mit Datenrisiken. „Prinzip „Einfachheit macht Effizienz““
Im Bereich der Datenerfassung spielt das Konzept von Zhongtai keine grundlegende Rolle. Das für die Entwicklungsanforderungen am besten geeignete Betriebs- und Wartungstool sollte eines sein, das Einblick in alle Geräte erhält, ihre jeweiligen digitalen „Sprachen“ versteht und diese an Entscheidungsträger weitergibt.
Das intelligente Betriebs- und Wartungstool der „Data Middle Platform“ nebenan ist herausgekommen.
Der Lebenszyklus des Terminals ist lang, was bedeutet, dass es im Bereich der Datenerfassung noch lange Zeit Dateninseln geben wird. Der intelligente Betrieb und die Wartung werden jetzt verbessert. Wie soll der intelligente Betrieb und die Wartung der Datenerfassung durchbrechen? Die Lösung besteht darin, von unten zu beginnen. Das größte Problem im Bereich der Datenerfassung sind die riesigen und heterogenen Gerätedaten.

Maxim Times erkannte die Komplexität und Bedeutung von Daten für den zukünftigen Betrieb und die Wartung und entwickelte unabhängig die hyperkonvergente 4-in-1-Datenbank Big River. Im Gegensatz zu herkömmlichen Datenbanken, die schwer zu erweitern sind und vor dem Importieren von Daten Modelle definieren müssen, integriert die Big River-Datenbank Tabellendatenbanken, KV-Datenbanken, Zeitreihendatenbanken und Speicherdatenbanken und ist mit verschiedenen gängigen Datenformaten kompatibel. Basierend auf der Big River-Datenbank hat Maxim Times eine universelle integrierte Datenerfassungs- und Insight-Plattform entwickelt: Monitor Easy. Dank der Unterstützung verschiedener Datentypen verfügt MonitorEasy über die Grundlage für Einblicke in alle intelligenten Terminals und kann sich schnell an alle Geräte und Protokolle anpassen, wodurch die Datenerfassungsanforderungen verschiedener Geräte vollständig unterstützt werden. Die einzigartige verteilte Architektur der Big River-Datenbank ist heute offensichtlich vorteilhafter, wenn Cloud Computing und das Internet der Dinge die wichtigsten Durchbruchsrichtungen sind, da sie eine hohe Schreibleistung, hohe Skalierbarkeit, hohe Verfügbarkeit, hohe Fähigkeiten zur gleichzeitigen Verarbeitung und große Datenmengen ermöglicht Speicher- und Abfragefunktionen Es kann sogar bei der Datenerfassung in Szenarien auf industrieller Ebene gute Arbeit leisten, sodass Monitoring Easy einzigartige Vorteile wie niedrige Kosten und schnelle Anpassung an alle Geräte und Protokolle bietet und die Anforderungen des Lokalisierungsersatzes von Xinchuang vollständig erfüllt. Unter dem Gesichtspunkt der „internen Reparatur in einem Atemzug“ verfügt MonitorEasy bereits über die Grundlage, um die End-to-End-Dateninsel im Bereich der Datenerfassung zu durchbrechen.
Als Reaktion auf die durch die industrielle Digitalisierung bedingte Erweiterung des industriellen Maßstabs und des Terminalpools spiegelt Monitor Easy auch den Vorteil der „externen Schulung“ wider. Monitoring Easy stützt sich auf die inländische führende Cloud-, Edge- und End-SaaS-Architekturtechnologie und unterstützt die Betriebs- und Wartungsbereitstellung einer fünfstufigen Architektur, die für Unternehmen praktisch ist, um eine verteilte Datenerfassung durchzuführen.

Das Durchbrechen der Datensilos ist nur der Anfang und die Maximierung des Datenwerts ist das ultimative Ziel. Im Bereich der Datenerfassung stellen die erheblichen Kosten für die menschliche Effizienz, die durch isolierte Dateninseln verursacht werden, das grundlegende Problem dar. Im Gegensatz zur verteilten Bereitstellung auf der Erfassungsebene erfordert die Datenverarbeitungsebene den höchsten Grad an Zentralisierung – eine schnelle Fehlerlokalisierung kann die Implementierung erleichtern von Expertenerfahrung. Monitoring Easy kann die Geräte im Netzwerk schnell identifizieren und eine Topologiekarte erstellen. Es ist auf einen Blick klar, wo sich die Alarme befinden, und realisiert präzise Alarme für mehrere Terminals wie Textnachrichten, E-Mails und APPs, was die Kosten erheblich senkt Arbeitskontrollen.
Mit Hilfe einer verteilten Architektur und Datenvisualisierung hat Monitoring Easy die Herausforderungen einer diskreten Infrastruktur, einer großen Anzahl von Terminals und komplexer Gerätetypen im Bauprojekt der Jiangsu Expressway Monitoring Operation and Maintenance Platform mit insgesamt Zehntausenden gemeistert von Überwachungs- und Verwaltungsgeräten, realisierte den integrierten Betrieb und die Wartung der Überwachung von Straßennetzanlagen in der Provinz, realisierte die erfreulichen Ergebnisse der „Ein-Bildschirm-Ansicht des gesamten Straßennetzes“ und bestätigte erneut die dadurch erzielte industrielle digitale Expansionsfähigkeit Überwachung einfach.

Mit Monitor Easy sind Datenerfassung und Geräteeinblick nicht länger der Engpass der industriellen Digitalisierung. Um die digitale Expansion von Unternehmensbenutzern zu erleichtern, verfügt MonitorEasy auch über Low-Code-Entwicklungsfunktionen, wodurch die Nutzungs- und Schulungsschwelle von Unternehmensbenutzern erheblich gesenkt wird. Low-Code ist ein befähigender Weg, der weit über den Aufbau einer mittleren Plattform hinausgeht, was nach und nach selbst im IT-Bereich zum Konsens geworden ist.
Mit den führenden Produktvorteilen einer selbst entwickelten hyperkonvergenten Datenbank, Cloud-Edge-End-Zusammenarbeit und Low-Code-Entwicklung wird Monitor Easy derzeit in vielen Bereichen wie Regierung, Militärindustrie, Finanzen, Elektrizität, Erdöl usw. weit verbreitet eingesetzt Petrochemie, Transport und medizinische Versorgung. Die Gesamtmenge übersteigt eine Million Einheiten.
Auch im Bereich Datenerfassung und Geräteeinblick sind wir auf Dateninselprobleme gestoßen, die denen im IT-Bereich ähneln. Der Unterschied besteht darin, dass das Mining von Datenszenarien im IT-Bereich früher beginnt und der iterative Fortschritt der Infrastrukturdatenbank langsam ist, was dazu führt, dass ein Rechenzentrum zur Pufferung eingeführt werden muss; im Datenerfassungsbereich gibt es keinen solchen Fensterzeitraum , und es ist notwendig, Schritt für Schritt zu intelligentem Betrieb und Wartung überzugehen. Daher besteht der einzig richtige Weg darin, die China-Taiwan-Idee aufzugeben und von Beginn der Entstehung der Datenschornsteininsel an direkt mit den Daten zu sprechen.

Guess you like

Origin blog.csdn.net/qq_41361570/article/details/124950780