Die Herausforderungen moderner Anwendungslandschaften

Horst Eberlein  18.09.2017

Im heutigen Blogbeitrag beleuchte ich eine Situation, die viele IT-Verantwortliche aus ihrer täglichen Arbeit kennen. Eine der größten Herausforderungen ist es nämlich nach wie vor, dafür zu sorgen, dass sämtliche Anwendungen flüssig laufen. Immer. Das Ziel ist es sagen zu können: „Meine Anwender kennen keine Probleme!“ Und das bezieht sich ebenso auf interne Anwender, also vor allem die Mitarbeiter des Unternehmens, wie auf externe Anwender wie beispielsweise Kunden.

Alle Anwendungen und Komponenten sollen reibungslos laufen

Was so logisch wie simpel klingt, ist tatsächlich eine der größten Herausforderungen unserer Zeit. Schließlich gilt es, auch angesichts zunehmend komplexerer Anwendungslandschaften, immer dynamischerer Strukturen sowie Trends wie Virtualisierung, Cloud und Container, alles im Griff zu haben. Die sogenannte „User Experience“ oder auch „Customer Experience“ zu einem Erfolg zu machen, ist heute mehr denn je eine der Hauptaufgaben für IT-Verantwortliche und das Top-Management. Denn nichts ist ärgerlicher, als einen Kunden zu verlieren, nur weil der Bestellprozess im Onlineshop zu langsam läuft oder die Webseite eine Zeitüberschreitung vermeldet; oder unmotivierte Mitarbeiter zu haben, ...

Die Kosten sollen gesenkt werden

Gleichzeitig wird die Arbeit der IT durch die Maßgabe „Kostenreduktion“ erschwert. Quasi „zwei Fliegen mit einer Klatsche“ kann schlagen, wer gleichzeitig Prozesse optimiert und durch einen erhöhten Digitalisierungsgrad an der Kostenschraube dreht. Um das zu erreichen, gibt es hocheffektive und leistungsstarke Analysesysteme, die große Datenmengen aus Überwachungssystemen in Echtzeit verarbeiten. Unternehmen können damit eine höhere Überwachungsgenauigkeit erzielen und – dank nahezu vollautomatischer Problemlösung – die Geschwindigkeit verbessern, mit der Performanceeinschränkungen behoben werden. Und: Da weniger Personal benötigt wird, sparen sie gleichzeitig Kosten.

Eine hochwertige Anwendungsperformance ist nun einmal die beste Voraussetzung für zufriedene Anwender, gesteigerten Umsatz und optimierte Kosten.

Diese Schlüsselelemente gehören dazu:

  • Endanwendererlebnis
    Die Performance einer Anwendung sollte auf den Endanwendergeräten selbst gemessen werden. Denn nur dort erfährt man, wie schnell das Ergebnis einer Anwenderaktion auf dem Bilderschirm erscheint.
  • Liveanalysen
    Die Messergebnisse sollten anhand unabhängiger Vergleichswerte bewertet werden, die unter bekannten Bedingungen erzielt wurden. Um steuernd einzugreifen zu können, werden unmittelbar anschauliche Aufbereitungen (Tabellen, Diagramme, Grafiken etc.) benötigt.
  • Verursacher
    Ein weiteres Erfolgsrezept besteht darin, zielsicher den Verursacher zu erkennen, bevor der Endanwender ein aufkommendes Problem bemerkt. Sofern ein Unternehmen die betreffende Komponente bei einem Netzwerkprovider ...

Welche Erfahrungen haben Sie in Ihrem Unternehmen gemacht? Was funktioniert gut, was muss verbessert werden? Setzen Sie bereits ein maßgeschneidertes APM für den optimalen Durch- und Weitblick ein? Lassen Sie uns an Ihren Erfahrungen teilhaben – oder auch gemeinsam nach einer Lösung suchen.

In meinem nächsten Beitrag befasse ich mich damit, wie ein zukunftsweisendes IT-Servicemanagement für zufriedene Anwender sorgt und gleichzeitig zum wirtschaftlichen Erfolg eines Unternehmens beiträgt.

Ihr Horst Eberlein

weiterlesen

Industrie 4.0

Metin Özdiyar-Steffen  17.07.2017

Wie aus Daten der Rohstoff Ihrer Zukunft wird

Industrie 4.0

Miteinander vernetzte Geräte und Maschinen bringen im Zeitalter der Industrie 4.0 eine neue Dynamik in Unternehmensprozesse. Die intelligent genutzten Daten des Internet of Things (IoT) und in besonderem Maße des IIoT (Industrial Internet of Things) bergen Potenziale für wegweisende Innovationen und neue Geschäftsmodelle.

Mit dem fortschreitenden Digitalisierungsgrad und dem steigenden Einsatz von Sensoren sowie Anwendungen wird IIoT zu einem wichtigen Teil der Zukunftsstrategie von Unternehmen. Experten zufolge wird die Zahl vernetzter Geräte bis zum Jahr 2020 auf mehr als 50 Milliarden ansteigen; der Datenstrom wächst stetig an. Im industriellen Umfeld verändern sich damit die Anforderungen an die Infrastruktur und den ...

Rohstoff der Zukunft: Daten

Daten als Rohstoff nutzbar zu machen, ist mehr als die reine Digitalisierung von Objek-ten und Prozessen. Industrie 4.0 steht vor allem für eine intelligente Nutzung und Ver-knüpfung von Daten, die durch Sensoren und die Kommunikation der vernetzten Geräte und Systeme generiert werden. Wichtige Bausteine sind passende Lösungen und Verfah-ren zur Datenerfassung sowie der Datenanalyse. Für das IIoT und das daran gekoppelte Datenmanagement bietet die Intelligent Solutions GmbH bedarfsgerechte Software, maßgeschneiderte Managed Services sowie innovative IIoT-Analytics an. Langjährig erprobte Softwarelösungen wie z. B. SightLine® lassen sich problemlos an den Bedarf der Industrie 4.0 anpassen.

Analytics, mehr als Business Intelligence

Traditionelle Ansätze zur Optimierung von Fertigungsprozessen, wie zum Beispiel Lean Production, sind managementgetrieben und erfahrungsbasiert. Die zunehmende Digitalisierung der Fertigung und die Anbindung der Fertigungssysteme an das Internet im Rah-men von Industrie 4.0 führen zu enormen Mengen an strukturierten und unstrukturierten Daten. Diese Daten ermöglichen neuartige, datengetriebene Optimierungsansätze sowie neue Dienstleistungen. Letzten Endes geht es darum, systematisch neues Wissen, auch zur kontinuierlichen Verbesserung der Prozesse, aus diesen Daten zeitnah zu gewinnen.

Klassische

Fazit:

Für Unternehmen beinhaltet das IIoT zusätzliche Möglichkeiten, die sich durch die Vernet-zung der Geräte einerseits und durch die Analyse der anfallenden Daten andererseits ergeben. Zu den Vorteilen gehört neben schlankeren Prozessen und einer innovativen technologischen Basis der Freiraum, um Weiterentwicklungen angehen und gänzlich neue Produkt- und Servicekonzepte entwerfen zu können. Somit werden die Daten zu einem wertvollen Rohstoff, für den es die passende (IT-)Infrastruktur zu schaffen gilt, die sich auch bei einer wachsenden Vernetzung dynamisch anpasst. Zugleich muss diese Infrastruktur in der Lage sein, selbst großvolumige Datenmengen zeitnah zu analysieren.

Das sehr leistungsfähige und branchenunabhängige Analytics ...

Erfahren Sie, welche Chancen die Industrie 4.0 für Ihr Unternehmen bereithält und welche Rolle die Analytics als einer der Leistungsträger des digitalen Wandels dabei spielt: Laden Sie sich hier unser Whitepaper „Die Macht der Daten: Die Fertigungsbranche im Zeichen der Industrie 4.0“ kostenfrei herunter.

Sollten Sie an diesem Thema interessiert sein, lade ich Sie gerne zur Diskussion in diesem Blog ein.

weiterlesen

Serviceüberwachung 360° - IntelSol im Gespräch

Metin Özdiyar-Steffen  22.04.2017

Im März stellte ich unsere Lösungen und Produkte für eine 360° Serviceüberwachung beim IIR Jahresforum „KURS“ in Wien einem breiten Publikum vor:

Wie können wir eine 360° Sicht bei der Serviceüberwachung erreichen?

Mehrere Kunden fragten nach einem einzigen Überwachungstool, mit dem sich wiederkehrende, automatisierte Tests für die Leistungsfähigkeit und Verfügbarkeit von Anwendungen durchführen lassen. Ich bin nicht davon überzeugt, dass dies der richtige Weg ist. Stattdessen rate ich zu einer gesunden Mischung aus passivem und aktivem Monitoring. Auf diese Weise erhält man eine 360? Sicht und verringert zugleich die Systemlast. Man erreicht dies, indem aktive Tests auf der Grundlage von Informationen aus der passiven Überwachung (wie z. B. die Top-Seiten eines Tages oder Seiten, die langsamer oder schneller arbeiten als normal) angepasst und optimiert werden.

Sollten Sie an diesem Thema interessiert sein, lade ich Sie gerne zur Diskussion in diesem Blog oder zu einer Live-Online-Präsentation ein

Ihr Metin Özdiyar-Steffen

weiterlesen

„Der Unterschied zwischen aktivem und passivem Monitoring und warum man eigentlich beides braucht“

Metin Özdiyar-Steffen  16.03.2017

Im heutigen Beitrag befasse ich mich mit dem Unterschied zwischen aktivem und passivem Monitoring (Überwachung) und erkläre, wie beide gemeinsam das IT-Service-Management auf die nächste Stufe heben.

Von unseren Kunden werden wir immer wieder auf die verschiedenen Methoden angesprochen, die es für Monitoring gibt. Grundsätzlich muss man dabei zwischen passivem und aktivem Monitoring unterscheiden. Gute Beschreibungen dieser beiden Methoden finden Sie bei Wikipedia:

Im Folgenden gehe ich zunächst auf das Für und Wider der beiden Methoden ein. Am Ende folgt ein Resümee.

Aktives Monitoring

Beim aktiven Monitoring, auch als aktive Tests bezeichnet, simulieren Softwareroboter das Verhalten des Endanwenders. Lösungen für aktives Monitoring sind einfacher zu implementieren als diejenigen für passives Monitoring - man findet allerdings nicht viele Unternehmen, die diesen Service anbieten. Als Infrastruktur werden nur wenige Systeme (Probes oder Messroboter) benötigt. Diese bedienen eine Anwendung genau so, wie es ein echter Endanwender tun würde. Die Benutzerabläufe werden in Form von Skripten implementiert, d. h. in regelmäßigen Intervallen werden bestimmte Benutzeraktionen durch Skripte gesteuert ausgeführt, zum Beispiel für den Besuch einer Webseite im Onlinebanking. Die Skripte müssen entwickelt und ...

Passives Monitoring

Beim passiven Monitoring erfolgt die Messung direkt beim Endanwender auf dessen System. Dazu muss eine zusätzliche Software installiert und konfiguriert werden – und das auf vielen Systemen im Backend-(Server) und auch im Frontend (PC/Client)-Bereich. Erst dann können Monitoringdaten gesammelt und analysiert werden. Im Gegensatz zum aktiven Monitoring werden weder zusätzlicher (künstlicher) Datenverkehr noch Systemlast erzeugt. Man erhält vollständige Informationen darüber, was die realen Benutzer in den Anwendungen bzw. auf Webseiten sehen und was die wirklichen Antwortzeiten sind.

 

Ein Nachteil der passiven Überwachung ist, dass man nur messen kann, wenn die Endan-wender tatsächlich arbeiten. An Wochenenden, ...

Können wir es besser machen?

Mehrere Kunden haben nach einem einzigen Überwachungstool gefragt, mit dem sich wiederkehrende, automatisierte Tests für die Leistungsfähigkeit sowie Verfügbarkeit von Anwendungen durchführen lassen. Ich bin nicht davon überzeugt, dass dies der richtige Weg ist. Stattdessen bevorzuge ich eine gesunde Mischung aus passivem und aktivem Monitoring. Auf diese Weise erhält man eine 360? Sicht und verringert zugleich die Systemlast. Man erreicht dies, indem aktive Tests auf der Grundlage von Informationen aus der passiven Überwachung (wie z. B. die Top-Seiten eines Tages oder Seiten, die langsamer oder schneller arbeiten als normal) angepasst und optimiert werden.

Der große Nutzen für ein Unternehmen

Tatsächlich wird durch die Kombination der beiden Methoden der größte Nutzen erreicht, nämlich eine 360? Sicht auf alle beteiligten Komponenten: Das passive Monitoring liefert die Sicht der Anwender, das aktive Monitoring die (Referenz-) Werte rund um die Uhr, an 365 Tagen im Jahr, auch wenn die Endanwender die Anwendungen nicht nutzen. Veränderungen der Leistungsfähigkeit der Anwendungen werden sofort sichtbar.

Diskussion – Wie handhaben Sie es?

Ich würde gerne von Ihnen, den Lesern dieses Blogs, hören, wie Sie Ihre Anwendungen/Websites überwachen und welcher Erfahrungen Sie gewonnen haben. Ich freue mich über eine lebhafte Diskussion und einen gemeinsamen Erfahrungsaustausch!

Ihr Metin Özdiyar-Steffen

weiterlesen

Einem SharePoint-System auf die Sprünge helfen – mit Datenkorrelation und Datenanalyse

Metin Özdiyar-Steffen  18.12.2016

Im heutigen Beitrag befasse ich mich mit Korrelation. Diese ist in den vergangenen zwei Jahren zu einem der zentralen Dreh-und-Angel-Punkte geworden, wenn es um Probleme mit der Leistungsfähigkeit von Anwendungen geht.

 

Kommen wir zum konkreten Problem: Unser Kunde, ein mittelständisches Maschinenbau-Unternehmen, hatte nach der Migration auf die neue Version von SharePoint massive Probleme mit den Antwortzeiten seiner SharePoint-Seiten.

Auszug aus der IT-Landschaft des Unternehmens

Zur Windows-Infrastruktur des Unternehmens gehören unter anderem folgende Komponenten:

  • Active Directory
  • DNS
  • File
  • SharePoint
  • SQL

Die Hardware-Umgebung besteht hauptsächlich aus Komponenten der Firma HPE: Blade-Systeme vom Typ HPE C7000 mit den entsprechenden Server(Blade)Einschüben BL460g7 mit SAN-Anbindungen von je 8GB/s und Netzwerk-Anbindungen (LAN) von 10GB/s. Das Plattenspeichersystem (Storage System) ist eine HPE P9500. Die HPE P9500 war vor der breiten Einführung von „All Flash“ Systemen mit das schnellste Plattensubsystem am Markt.

Nach der SharePoint-Umstellung funktioniert vieles nicht mehr so richtig

Die Funktionen des SharePoint-Services stellen die wichtigste Basis für die Zusammenarbeit der Mitarbeiter im Unternehmen dar. Antwortzeiten von einer bis anderthalb Sekunden sind der Normalstandard. Nach der Migration lagen die Antwortzeiten bei bestimmten Seiten und SharePoint-Anwendungen (Webparts) jedoch bei über fünf Sekunden. Die Mitarbeiter beklagten sich über schlechte bis sehr schlechte Reaktionszeiten. Da SharePoint als unternehmenskritische Anwendung eingestuft wird, war dringend Handlungsbedarf geboten.

Der IT-Bereich konnte die Ursache mit den zur Verfügung stehenden Monitoringsystemen nicht finden. Alle Infrastrukturbereiche wie Windows Server, ...

Analyse und Korrelation: die wahre(n) Ursache(n) finden

Zur Problembehebung setzte das Management eine Arbeitsgruppe ein und beauftragte unser Unternehmen damit, die Ursache(n) für die schlechten Antwortzeiten zu finden. Wir installierten das Analyse- und Korrelationssystem SightLine® zur Erfassung der Daten von:

  • Windows-Server
  • Active Directory
  • MS-SQL-Server
  • SharePoint
  • Storage
  • Netzwerk-Diensten (DHCP und DNS)
  • Netzwerk

Das Ergebnis: Durch die Korrelation der Messwerte der verschiedenen Infrastruktur-komponenten wurde die „Temp-DB“ des Microsoft SQL-Servers als Ursache des Problems ausgemacht.

SharePoint und SQL-Server: Zielgerichtet Maßnahmen ergreifen

Die SharePoint-Seiten und SharePoint-Anwendungen nutzen die Datenbanken des SQL-Servers so, dass sehr viele Zugriffe auf die „TEMP-DB“ notwendigen werden. Durch die Optimierung der Temp-DB und die ständige Überwachung ihre Leistungsfähigkeit wurden die geforderten Antwortzeiten wieder erreicht und sogar auf über 200% verbessert.

Der große Nutzen für das Unternehmen:

Durch die Analyse- und Korrelationsfunktionen über die gesamte IT-Landschaft konnte wieder die beste Performance aller Systeme erreicht werden. Die Mitarbeiter können jetzt wieder schnell auf Informationen und Dokumente zugreifen. Insgesamt verbesserten sich die Leistungsfähigkeit der SharePoint-Umgebung und damit die Arbeitsleistung des gesamten Unternehmens.

weiterlesen

Servicequalität, Sicherheit und Zuverlässigkeit - IntelSol mit Kunden im Gespräch

Metin Özdiyar-Steffen  04.12.2016

Im Oktober stellte ich unsere Lösungen für Synthetic Transaction Monitoring beim IIR  Jahresforum „Service Desk“ in Wien vor:

Synthetic Transaction Monitoring:
Servicequalität und Sicherheit auf höchstem Niveau

  • End-to-End Monitoring – von allen Seiten betrachtet
  • Welche Vorteile ergeben sich für den Service Desk?
  • Die drei große Ws: Warum, wieso, welche Werkzeuge?

 

Beim IIR Jahrsforum Cashless Payments in Mauerbach bei Wien ging es Ende September um die Sicherheit und Zuverlässigkeit von Mobile Banking App.

 

Mobile Banking Apps: Sicherheit & Zuverlässigkeit auf dem Prüfstand

Stabilität, Verfügbarkeit, Geschwindigkeit – Wichtige Faktoren qualitativ hochwertiger Anwendungen

  • Bezahlen mit dem Smartphone: Qualitätsanforderungen an Apps
  • Früherkennung und Problemanalyse von Störungen
  • Extreme Auslastung zu Stoßzeiten: Trends erkennen und IT optimal darauf vorbereiten 
weiterlesen

Langsamen IT-Systemen auf die Sprünge helfen – mit Datenkorrelation, Datenanalyse und Virtualisierung

Metin Özdiyar-Steffen  09.11.2016

IT-Verantwortliche finden hier Beiträge, Tipps und Praxisbeispiele zu den Themen

  • Monitoring heterogener Systemlandschaften
  • Analyse und Korrelation aller Arten von Monitoring-Daten
  • End-2-End Monitoring
  • Industrie 4.0
  • Compliance

Ich freue mich auf eine rege Teilnahme und einen regen Austausch!
Ihr Metin Özdiyar-Steffen
- Business Development Manager Intelligent Solutions GmbH

Im heutigen Beitrag berichte ich, wie es einer Bank gelungen ist, die bestehende Windows-Infrastruktur auf VMware ESX zu virtualisieren. Der E-Mail-Verkehr, der für die Bank zu den unternehmenskritischen Anwendungen zählt, läuft dadurch jetzt deutlich schneller und vor allem ausfallsicher.

Die IT-Landschaft der Bank

Zur Windows-Infrastruktur der Bank gehören unter ...

weiterlesen