blog.it

Filter
Filter
ALLE THEMEN
ALLE BRANCHEN
ALLE REGIONEN
AKTUALITÄT
QUALITÄT
  • Neuigkeiten und Hintergründe rund um SAP und SAP-Beratung - ein Blog von itelligence.
    mehr lesenweniger lesen
    Antworten
 
  •  von  | blog.it | 
    28.8.2014
    Nach den ersten beiden Teilen (hier und hier) der Blogserie folgt nun der dritte und letzte Teil zum Thema Validierung in Rechenzentrum. Viel Spaß dabei! Die Risikoanalyse Jede Validierung erfordert eine Risikoanalyse. Aber was ist überhaupt ein Risiko? Ein Risiko tritt ein, wenn ein System gewissen Gefahren ausgesetzt ist. Zu jeder Gefahr lassen sich die Eintrittswahrscheinlichkeit und der Schaden ermitteln. Diese Kennzahlen können mit  verschiedenen Einheiten angegeben werden. In unserem Rechenzentrum genügt nach Absprache mit externen Prüfern die Klassifizierung in die Risikoklassen gering / mittel / hoch. Das Risiko selbst ergibt sich dann nach folgender Formel: Risiko = Eintrittswahrscheinlichkeit × Schaden Die Ergebnisse der Multiplikation werden in der Spalte „Kritikalität“ hinterlegt und sind wie folgt definiert: Eine Herausforderung der Risikoanalyse ist die Bewertung von Auftrittswahrscheinlichkeit und Auswirkung. Es gibt diverse Normen, die sich mit dem Thema „Risikomanagement“ befassen und in unserem Rechenzentrum zum Einsatz kommen. Unsere Zertifizierung gemäß ISO 27001 und unser Qualitätsmanagement nach ISO/IEC 20000-1 erfordern ein Risikomanagement. Projektmanagement-Empfehlungen (z. B. der GPM, IPMA) oder DIN 69901 beschreiben ebenfalls Vorgehen und Prozesse, u. a. für die Bewertung von Wahrscheinlichkeiten und Auswirkungen. Ziel der Risikoanalyse ist es, Maßnahmen zur Reduzierung der Risiken zu ergreifen. Dazu müssen zunächst die Risiken vollständig benannt werden. Risiken zurückzuhalten ist nicht zielführend, weil das Risiko damit nicht ausgelöscht wird. Auch im Kundenkontakt ist es sinnvoller, Risiken offen anzusprechen und ergriffene Maßnahmen offensiv zu kommunizieren. Die Liste der Risiken ist nie vollständig. Neue Risiken kommen mit neuen Techniken oder veränderten Prozessen hinzu. Externe Einflussfaktoren (z. B. Gesetze, Richtlinien) ändern sich. Um ein möglichst umfassendes und aktuelles Bild zu erhalten, diskutieren wir die Risiken regelmäßig im Expertenteam. Dabei werden neue Risiken erkannt und mögliche Gegenmaßnahmen besprochen. So umfasst unsere Risikoanalyse für die Monitoring-Landschaft inzwischen über 70 Gefahren. Einige Risiken haben wir als „kritisch“ eingestuft, dazu zählen neben technischen Gefahren auch: Verstöße gegen das Change Management Mängel im laufenden Betrieb Der Installationsplan Der Risikoanalyse folgt der Validierungsplan. Ist dieser erstellt, folgt der Installationsplan, der sich ebenfalls an der Anforderungsspezifikation orientiert: Er beschreibt die Installation jeder einzelnen Komponente. Der Plan selbst dient als Checkliste, die Vorgaben zur Installation sind dem Lastenheft zu entnehmen. Da wir im Rahmen unserer Monitoring-Landschaft mehrere Systeme aufsetzen, müssen einige im Installationsplan definierte Arbeiten im Rahmen der Installation auf jedem System durchgeführt werden. Im Plan beschreiben wir diese Schritte nur einmal, das später anzufertigende Protokoll enthält jedoch für jedes einzelne System ein Ergebnis. Die Testanleitungen Nach dem Installationsplan werden die Testanleitungen erstellt. Häufig werden die Testpläne dabei als Kontrolle angesehen, ob Systeme richtig installiert wurden. Dies ist allerdings eine Fehlinterpretation. Mit den Tests soll verifiziert werden, dass die Systeme einsatzbereit sind und den Anforderungen genügen. Bei solch komplexen Systemen wie der beschriebenen MAI-Monitoring-Landschaft können immer einmal Probleme auftreten oder Fehler gemacht werden. Tests bieten da eine letzte Chance, Korrekturen vor dem Go-Live vorzunehmen. So stellen unsere Testanleitungen zum einen sicher, dass die installierten Systeme der Anforderungsspezifikation genügen. Andererseits berücksichtigen sie aber auch die in der Risikoanalyse aufgeführten Kontrollen und Tests. Beide zuvor erstellten Dokumente, Anforderungsspezifikation und Risikoanalyse, finden hier also Verwendung. In der Testanleitung werden einzelne Testschritte aufgeführt. Für jeden Schritt ist anzugeben, ob er direkt erfüllt werden konnte oder ob zuvor noch Korrekturen vorgenommen werden mussten. Diese Anpassungen werden im Rahmen des Testprotokolls dann genauer beschrieben. Testprotokolle können die Wissensdatenbank mit Fehlern und Lösungen anreichern. Es ist daher unbedingt erforderlich, Tests nicht als Kontrolle der eigenen, individuellen Arbeit zu sehen, sondern als Abnahme eines bereitgestellten Systems. Mit den Testanleitungen ist der Planungsprozess abgeschlossen – nun folgt die Umsetzung der Validierung. Und die startet mit der Installation. Die Installation Die Installation der MAI Monitoring-Landschaft erfolgt auf Basis des Lastenheftes und des Installationsplans. Die Systeme sind mittels VMWare virtualisiert und werden über eine Software-Verteilung installiert. Wir setzen dazu die HP Software Automation Suite (HPSA) ein. Erst wenn unser Servermanagement-Team alle erforderlichen Dokumentationen erstellt hat, liefert die HPSA ein bereits valides Betriebssystem. Eine weitere Herausforderung ergibt sich aus der VMWare-Landschaft. Der Betrieb von virtualisierten Systemen muss ebenfalls den Anforderungen der Validierung genügen. Die dazu erforderlichen Dokumente werden derzeit erarbeitet. Testprotokolle und Validierungsbericht Ist die Validierungslandschaft installiert, so werden die einzelnen Systeme anhand der Testpläne geprüft und abgenommen. In den Testprotokollen wird vermerkt, ob es zu Abweichungen bei den Testergebnissen gekommen ist und welche Korrekturmaßnahmen ggf. ergriffen wurden. Wenn all diese Tests abgeschlossen sind, werden die Dokumente unterschrieben und archiviert. Diese Aktivitäten stehen dann ebenfalls noch für die Produktivlandschaft an, bevor die Systeme letztlich ihrer Bestimmung übergeben werden. Sämtliche Testprotokolle werden in einem Validierungsbericht zusammengefasst. Danach ist die Validierung unserer MAI-Monitoring-Landschaft abgeschlossen. Was ist bei Änderungen zu tun? Wenn nach Freigabe von Dokumenten, z.B. der Anforderungsspezifikation, noch Änderungen nötig werden, werden solche Nacharbeiten als Change dokumentiert, getestet und abgenommen. Die Verwaltung der Dokumente Die Validierung erfordert eine revisionssichere Ablage der verschiedenen Dokumente, denn diese müssen insbesondere vor Änderungen geschützt werden. Deshalb werden die Dokumente üblicherweise ausgedruckt, unterschrieben und an einem sicheren Ort archiviert. Die Dokumente liegen zunächst in elektronischer Form vor. Über eine geschickte Namensgebung gewährleisten wir die Wiederauffindbarkeit und eine gewisse Strukturierung der Dokumente. In größeren Projekten, die viele Dokumente umfassen, stellt dies eine echte Herausforderung dar: Der Überblick geht schnell verloren, zumal Dokumente nach und nach erstellt und teilweise laufend angepasst werden. Zur Namensgebung tritt also noch die Versionierung hinzu. Im Rahmen unserer Validierung werden die Dokumente mit einer Nummer versehen, die sich auf das Validierungsmodell bezieht. Eine softwaregestützte Dokumentenverwaltung (DMS) ist hier sehr hilfreich. Es ist jedoch darauf zu achten, dass die Dokumente revisionssicher abgelegt sind, um den Anforderungen der diversen Zertifizierungen (z.B. ISO 20000-1) gerecht zu werden. Mittels  elektronischer Unterschriften lassen sich im DMS abgelegte Dokumente finalisieren und gegen künftige Änderungen schützen. Dadurch wird der Umfang der auszudruckenden Dokumente reduziert. - Rainer Kunert, itelligence Outsourcing & Services GmbH -
    mehr lesenweniger lesen
    Antworten
  •  von  | blog.it | 
    26.8.2014
    Beim Reisen ist die Vielfalt groß, für jeden Geschmack gibt es ein passendes Angebot. Es stehen fast unendlich viele Möglichkeiten zur Verfügung, ob nun eine individuell zusammengestellte Reise oder eine von zahlreichen Pauschalreisen. Ähnlich ist es beim SAP-Outsourcing: Basierend auf den Wünschen und Bedürfnissen der Kunden kann für jedes Unternehmen die passende Outsourcing-Lösung erstellt werden. Sehr wichtig ist dabei auch die Wahl des Reiseveranstalters bzw. Hosting-Partners. Dieser sollte neben einer guten Vorbereitung und Planung über eine gute Servicequalität und zertifiziertes SAP-Wissen für Ihr Projekt bieten. Für eine langfristig erfolgreiche Zusammenarbeit sind außerdem eine gute Beratung und die Persönlichkeit des Dienstleisters von großer Bedeutung. Obwohl jede Hosting-Reise individuell ist, gibt es doch einige grundlegende Angebote, die auf verschiedene Ansprüche und Zielsetzungen ausgerichtet sind: Entspannt ins SAP-Projekt mit Implementation Hosting Um bei der ständigen Weiterentwicklung von SAP-Systemen auf dem neusten Stand zu bleiben, stehen für die meisten Unternehmen immer wieder verschiedene SAP-Projekte an. Hier hilft das Implementation Hosting durch Bereitstellen eines SAP-Projektsystems in der Startphase. Dadurch erfolgt eine komplette Systeminstallation mit allen Komponenten wie OS, Datenbank und SAP-Software innerhalb von wenigen Tagen und schafft für Sie den Freiraum, sich auf die wesentlichen Inhalte des Projekts zu konzentrieren. Da Sie im Rahmen dieser Methode Ihren Hosting-Partner bereits kennengelernt haben, wäre es anschließend möglich, die so installierten Anwendungen zu ihrem Partner auszulagern. Remote Services in Kombination mit Ihrer eigenen Infrastruktur Wenn Sie bereits ein Rechenzentrum mit allen notwendigen Anforderungen besitzen, ist dieses Serviceangebot das Richtige für Sie. Die Infrastruktur wird von Ihnen bereitgestellt – die technischen Dienstleistungen erledigt Ihr Outsourcing-Partner per Fernüberwachung und -steuerung. Hierzu wird lediglich eine einfache Datenverbindung benötigt, teure WAN-Anbindungen können gespart werden. Hohe Sicherheit und Verfügbarkeit – Komfort durch Application Hosting Viel Veränderung in Ihrer IT-Systemlandschaft, aber einen noch größeren Nutzen bietet das Application Hosting. Dieses ist besonders hilfreich, wenn Ihr Unternehmen flexibel auf größere Veränderungen reagieren muss. Das Application Hosting hilft Kosten für Software, Rechenzentrum-Infrastruktur und Sicherheit niedrig zu halten. Viele Applikationen oder sogar ganze Verwaltungsbereiche und Prozessschritte werden ausgelagert und über das Rechenzentrum Ihres Hosting-Partners betrieben. Das entlastet nicht nur Ihre IT-Abteilung – Auch Personal- und Infrastrukturkosten lassen sich durch ein gezieltes Application Hosting einsparen. Traumziel SAP-Outsourcing: Wie selektives Outsourcing verborgene Potenziale freisetzt und mehr Zeit für das Wesentliche schafft, entdecken Sie unter anderem in Unternehmensberichten aus der Praxis. Mit vielen hilfreichen Checklisten! Holen Sie sich jetzt Ihr kostenloses Exemplar unseres SAP Outsourcing Reiseführers. Jetzt kostenloses Exemplar bestellen > Leseprobe ansehen > - Martin Bonhage, Corporate Marketing Manager SAP Managed Services, itelligence AG -
    mehr lesenweniger lesen
    Antworten
  •  von  | blog.it | 
    25.8.2014
    Das deutsche Unternehmen bücher.de bietet seinen Kunden über den eCommerce-Kanal ein Vollsortiment im Bereich Buch sowie Musik, Software und Spielwaren mit insgesamt mehr als sieben Millionen Artikeln an. Der langjährige itelligence-Kunde ist Preisträger des Online-Handels-Awards 2013 für sein erfolgreiches, elektronisches Onlinehandelskonzept. buecher.de verfolgt mit dem Einsatz der Branchenlösung it.trade das Ziel, eine Systemlandschaft als langfristige Basis zu nutzen, die die Anforderungen der Zukunft in dem hochinnovativen Umfeld des Online-Handels abdecken kann. Mit der 2011 von itelligence eingeführten SAP ERP-Landschaft hat sich bücher.de eine Integration ihres kundenfreundlichen Online-Shops geschaffen, die im Hintergrund vollautomatisierte Prozesse managed. Neben der Vereinheitlichung der Anbindung von Drittsystemen, die prozesseingreifend integriert sind, hat bücher.de gemeinsam mit itelligence intelligente Prozesse zur PIM-Integration geschaffen, bei denen nicht alle im Online-Shop geführten Artikel auch wirklich im ERP-System angelegt sind. Durch ein ereignisgesteuertes Statusinformationsmanagement wird die Kundenorientierung durchgängig im ERP-System weiter gelebt, und der Kunde über jede Veränderung seines Auftragsstatus informiert. Auch neue Anforderungen, wie die Abbildung digitaler Produkte und die Anbindung der Tolino-Plattform für das hardwareunabhängige Lesen von eBooks konnten erst durch die neue Landschaft ermöglicht werden. Bei der Nutzung einer Standardsoftware war es deshalb notwendig, auch zu betrachten, ob diese Software offen für Flexibilität und individuelle und innovative Erweiterungen ist. Mit SAP ERP und it.trade der itelligence ist dies gelungen. Kunden sollen sich wohlfühlen – ein Konzept für Vollautomatisierung im Service Durch den Einsatz von it.trade, der Branchenlösung für den Handel von der itelligence, sowie der Middelware SAP NetWeaver Process Integration (SAP NW PI), ist bei bücher.de alles auf die weitgehende Vollautomatisierung hin ausgelegt. Sie macht es den 30 bücher.de Mitarbeitern am Standort Augsburg möglich, das tägliche Auftragsvolumen von 20.000 Aufträgen ohne gesonderten manuellen Eingriff zu bewältigen. Hier unterstützt die Branchenlösung it.trade durch ein eCash-Framework zur einheitlichen Anbindung von multiplen Payment-Providern sowie der Gutscheinlösung it.voucher, die sowohl Kaufgutscheincodes als auch Aktionscodes im System wert- und gültigkeitsbezogen verwaltet. Für die Servicemitarbeiter hat das TeleSales-Cockpit der itelligence einen 360 Grad Sicht auf den Kunden und eine Anbindung an das E-Mail-Response-System geschaffen, so dass auch dieser Verkaufs- und Servicekanal innerhalb des ERP-Systems bedient werden konnte. Wenn ein innovativer und stark wachsender Verkaufskanal und ein in der Entstehung 600 Jahre altes Produkt aufeinander treffen, braucht es Mut, Feingefühl und ein gutes Konzept. 5 Tipps für ein stimmiges eCommerce-Konzept Bei der Auswahl des richtigen ERP Systems sollte keine ausschließliche Einschränkung auf den einen Verkaufskanal gemacht werden. Es sollten nicht nur die Funktionalitäten und Prozesse des ERP-Systems zur Abbildung der eigenen Prozesse geprüft werden, erst durch die Gesamtbetrachtung von ERP und einem intelligenten und homogenen Schnittstellenlandschaftskonzept ergibt sich eine Gesamtlösung – der Prozess im Handel findet nicht nur im ERP statt. Der Wunsch nach mehr elektronischen Zahlwegen wird größer und das Angebot ist zu einem wichtigen Verlaufsfaktor geworden – deshalb sollte die Integration von ePayment einfach und vordefiniert/wiederkehrend sein. Der Zugriff auf Online-Shops erfolgt zunehmend von mobilen Geräten: 2015 wird bereits ein Umsatz von 5,9 MRD € im M-Commerce erwartet (Quelle BVH Versandhandel Deutschland). Dies bedeutet, dass der Kunde zu jeder Tageszeit den gleichen Service erwartet. Vollautomatisierung der Prozesse lässt nicht spüren, dass eigentlich niemand aktiv am Arbeiten ist. Bei der Kommunikation von Maschine an Mensch sollte berücksichtigt werden, dass der Kunde noch immer den Service und die persönliche Ansprache des Tante-Emma-Ladens aus der Vergangenheit erwartet. Deshalb ist die intensive Pflege und das aktuell halten von Kundenstammdaten sowie –kontakten und Echtzeitinformation ein wichtiger Erfolgsfaktor für den eCommercler. Eingehaltene Qualitätsversprechen führen zu Mehrkäufen und langfristige Bindung. Dr. Gerd Robertz, Geschäftsführer von buecher.de kommentiert das Projekt in seinem Video aus Sicht der Praxis: Bei Fragen oder Anregung freue ich mich auf Ihren Kommentar! - von Vera Gollner, itelligence AG -
    mehr lesenweniger lesen
    Antworten
  •  von  | blog.it | 
    21.8.2014
    Den ersten Teil der Blogreihe “Validierung im Rechenzentrum” finden Sie hier. Beispielhaft möchte ich das Thema an der Validierung der itelligence Monitoring-Landschaft aufzeichnen. Aufbau der produktiven Monitoring-Landschaft Im Rahmen des automatischen Monitorings werden diverse Komponenten benutzt – so zum Beispiel SLD (Software Landscape Directory) – ein J2EE-basiertes Verzeichnis der installierten Systeme SAP BW als zentrale Datenhaltung der eingesammelten Monitoring-Daten MAI als Teil des SAP Solution Managers Wily Introscope für die Überwachung von J2EE-Systemen Außerdem nutzen wir den Solution Manager für die Bereitstellung von Early Watch Alerts (EWA) und für Maintenance Optimizer Transactions. Aus Performance-Gründen haben wir uns entschieden, die Komponenten zu entkoppeln und auf verschiedene Systeme zu verteilen. Dies wird nach unseren Überlegungen auch die Wartung und Weiterentwicklung der Monitoring-Landschaft, die in der folgenden Grafik dargestellt ist, vereinfachen. Denkbar ist, jedes einzelne System zu validieren. Wir teilen jedoch die gesamte Landschaft in Module auf, die einzeln validiert werden, um eine Revalidierung deutlich zu vereinfachen. Wir versprechen uns davon eine höhere Transparenz der Validierung und eine erhebliche Reduzierung des Aufwands bei anstehenden Änderungen. Bei der Validierung durchlaufen die einzelnen Module sämtliche Prozessschritte, die dafür notwendig sind. Allerdings fassen wir Dokumente zusammen, wo es möglich ist. So wird es beispielsweise nur eine Anforderungsspezifikation geben, also ein Lastenheft für die gesamte  Landschaft. Die Testpläne werden jedoch auf Modulebene erstellt. Die Anforderungsspezifikation Im Lastenheft werden sämtliche Anforderungen, die an die Monitoring-Landschaft gestellt werden, beschrieben. Da dieses Dokument für die gesamte Landschaft gelten soll, ist es recht umfangreich und besteht zurzeit aus ca. 60 Seiten. Neben einleitenden Abschnitten, die zum Validierungs-Overhead gehören, finden sich Kapitel zu den einzelnen Modulen unserer Landschaft. Im Folgenden möchten wir nicht das gesamte Lastenheft präsentieren, sondern lediglich einige Details benennen: Externe Dokumente: Im Lastenheft verweisen wir häufig auf externe Dokumente – beispielsweise Verfahrens- und Arbeitsanweisungen unseres Qualitätsmanagements oder Installationsleitfäden von SAP. Damit gehen die referenzierten Dokumente in die Validierungsdokumentation ein und müssen reproduzierbar gespeichert und teils sogar ausgedruckt werden. Wir sammeln solche Dokumente zunächst in einem speziellen Verzeichnis. Der Verweis auf Internet-Quellen reicht nicht, da der Link später eventuell nicht mehr gültig ist. Vorgaben für die Installation: Damit die Installationspläne kurz gehalten werden können, beschreiben wir bereits im Lastenheft die Vorgaben für die Installation. Der Installationsplan verweist dann einfach auf ein Kapitel der Anforderungsspezifikation. So enthält das Lastenheft die Aufteilung der Festplattenbereiche ebenso wie die Details der Grundkonfiguration eines Solution Managers. Dokumentation: Im Abschnitt zum Thema Dokumentation wird festgelegt, wo das Betriebsführungshandbuch, das Berechtigungskonzept und weitere Dokumentationen hinterlegt sind. Abschließend werden auch Schulungs- und Qualifizierungsmaßnahmen benannt sowie die Zuständigkeiten für die Monitoring-Landschaft definiert. In einem dritten und letztenTeil der Blogreihe bringen wir unser Validierungsbeispiel zum guten Schluß. - Rainer Kunert, itelligence Outsourcing & Services GmbH -
    mehr lesenweniger lesen
    Antworten
  •  von  | blog.it | 
    19.8.2014
    Am 2. Juli 2014 fand der erste ECM-Fokustag der itelligence AG in Bielefeld statt, an dem zahlreiche Bestandskunden von itelligence teilgenommen haben. Die große Resonanz zeigt, dass das Thema Enterprise Content Management (ECM) in vielen Unternehmen ein Thema mit einem hohen Stellenwert geworden ist. In einer Vielzahl von Vorträgen konnten wir das sehr komplexe Thema und die damit in Verbindung stehenden Herausforderungen für Unternehmen, unseren Kunden nahe bringen. Außerdem konnten wir über zahlreiche Praxisbespiele die Anwendungsmöglichkeiten und Potentiale die eine ECM-Lösung bietet, unseren zahlreichen Kunden vorstellen. ECM ist eben nicht nur eine Technologie, sondern verändert mitunter ganze Organisationen und Prozesse. Mit unserem ECM-Strategieworkshop aus dem Add-Store können wir unsere Kunden perfekt bei den ersten Schritten in der ECM-Welt unterstützen. Durch die Vortragsreihe leitete Ingo Böckmann in einem angenehmen Rahmenprogramm. Dazu trug auch der kulinarische Teil bei. Unsere Gäste wurden nicht nur mit einer Vielzahl von Informationen sondern auch mit einem kleinen Imbiss und Kaffee rundum versorgt. Mit den ersten beiden Vorträgen wurde ECM umfassend in der Theorie erläutert, um Einsteigern die Thematik zu darzustellen. Aber auch mit dem Thema bewanderte Gäste konnten sicherlich die eine oder andere neue Entwicklung auf dem Gebiet erfahren. Nach einer kleinen Kaffeepause drehte sich in dem Vortrag alles um die Frage, wie man ein ECM-System aufbaut – Klassisch, mit Sharepoint- oder mit SAP-Integration? So unterschiedlich die Problemstellungen der Interessenten sind, so vielfältig können sich auch die Lösungsmöglichkeiten darstellen, wie die Kunden in kleinen Gesprächsrunden der Kaffeepausen von unseren fachkundigen Beratern erläutert bekommen haben. Im praxisorientierten Vortragsteil standen die Optimierungsmöglichkeiten von Prozessen, wie Freigabeprozesse für Dokumente, die automatisierte Rechnungseingangsverarbeitung und die Verwaltung von Dokumenten als digitale Akte im Vordergrund. Vor allem die Live-Demo von Kenan Sen mit dem Vortrag „Laufwege – Workflow für die Freigabe von Dokumenten „ fand große Aufmerksamkeit unter den Zuhörern. Insgesamt fanden sich einige Teilnehmer in dem einen oder anderen praxisorientierten Vortrag wieder und haben auf Anhieb das Verbesserungspotential erkannt. So umfangreich das Thema Enterprise Content Management ist, so vielfältig und umfangreich sind auch die Fragen und Interessen der Gäste. Während der Pausen wurden in Diskussionsrunden viele Fragestellungen näher erörtert und tiefgründig diskutiert. Während sich ein Teil der Kunden mit den Vorteilen elektronischen Akten auseinander setzten, steht bei einem anderen Teil die Integration von ECM-Themen mit anderen Systemen wie beispielsweise SAP, Microsoft Sharepoint oder IT-Bereichen wie beispielsweise CRM auf den Programm. Genau aus diesem Grund haben wir für diese erste Orientierungsphase den ECM-Strategieworkshop im Angebot. Für viele Kunden war der Anwendertag Anlass, sich für den ECM-Strategieworkshop zu entscheiden, um sich ein erstes grobes Bild vom Potential, den Chancen und Möglichkeiten zur Verbesserung der Unternehmensprozesse durch ECM zu bilden. Ein kleiner Teil der Interessenten ist sich schon bewusst um die Vorteile einer ECM Strategie, weiß jedoch noch nicht, wie diese im Unternehmen eingeführt und umgesetzt werden soll. Es hat sich schnell herausgestellt das hier schon die entsprechende Sensibilität vorliegt, wie wichtige dieses Thema ist, um es optimal in die Unternehmensprozesse zu integrieren. ECM darf nicht als Insellösung für einzelne Abteilungen betrachtet werden, sondern sollte immer im unternehmensweiten Gesamtkontext betrachtet werden, um das Potential effektiv auszuschöpfen. Am Ende der sehr informativen und vor allem praxisorientierten Vorträge erkannten viele Teilnehmer Analogien zu verbesserungsbedürftigen Prozessen im Unternehmen. Dies zeigte sich vor allem auch in den vielen kleinen Diskussionsrunden in welchen reger Informationsaustausch, zwischen oder nach den Vorträgen, stattfand. Relativ schnell kristallisierten sich das Interesse und die Forderung nach Folge-Events heraus. Um der großen Nachfrage gerecht zu werden, haben wir einen Folgeevent, diesmal in Hamburg am 18.09.2014, angesetzt. Benötigen Sie Informationen wie sich führende Unternehmen einen erheblichen Wettbewerbsvorsprung verschaffen durch die Steuerung von Informationen und Dokumenten durch ECM im Zusammenhang mit SAP, dann wenden Sie sich gerne an Olaf.Heyme@itelligence.de. Wir freuen uns auf viele interessante ECM-Projekte. - von Olaf Heyme, itelligence AG -
    mehr lesenweniger lesen
    Antworten
  •  von  | blog.it | 
    14.8.2014
    Cloud Computing ist heutzutage wohl keine Revolution mehr, sondern eher als Evolution innerhalb der IT zu sehen. Es bietet Unternehmen neue Implementierungs- und Betriebsmodelle, indem es IT-Ressourcen in einer bis dahin neuen Art zur Verfügung stellt. In diesem Zusammenhang wird vor allem die flexible und nahezu unbegrenzte Verfügbarkeit von Diensten aus der Cloud seitens der Softwareanbieter in den Vordergrund gestellt. Trotz dieser Vorteile haben viele Unternehmen Bedenken, den Einsatz von geschäftsprozessrelevanten Diensten aus der Cloud voranzutreiben. Was sind die Gründe für diese Zurückhaltung? Inwiefern muss sich das Leistungsspektrum von Cloud-Anbietern ändern, um Cloud-Dienstleistungen attraktiver für Unternehmen zu gestalten? Welche Erfahrungen haben Unternehmen bisher mit der Nutzung von Cloud Computing gemacht? Um ein aktuelles Stimmungsbild des Mittelstandes wiederzugeben, wurde in Kooperation mit der SAP AG, der Universität Paderborn und der itelligence AG die aktuelle und geplante Nutzung von Cloud Computing analysiert. Ziel der Untersuchung ist es, die aktuellen Herausforderungen, die mit dem Einsatz von Cloud Computing verbunden sind, zu analysieren und zu verstehen. Besonderer Fokus lag hierbei auf dem Wissen, dem relativen Vorteil, der Kompatibilität, der Komplexität, der Systemintegration, der Sicherheit, des Management Supports und dem Wettbewerb von Cloud-Lösungen. Innerhalb einer empirischen Onlineumfrage wurden dazu die Antworten von 244 Teilnehmern aus IT-und Fachabteilungen des Mittelstands ausgewertet. Ein Drittel der Befragten ist in Unternehmen von 501 bis 2500 Mitarbeitern beschäftigt. Fast die Hälfte der Unternehmen verzeichnen einen Jahresumsatz von 51 bis 500 Mio. €. Insgesamt ist festzustellen, dass je größer das Unternehmen ist, umso eher liegt eine Nutzung von Cloud-Lösungen vor. Bereits über die Hälfte der Befragten setzen Software as a Service (SaaS) in ihrem Unternehmen ein. Dabei zeigt sich, dass die meisten Nutzer zufrieden bis sehr zufrieden mit dieser Lösungsarchitektur sind. Auffällig ist, dass auch solche Unternehmen, die noch keine Cloud-Lösungen einsetzen, diese dennoch kurz- bis langfristig in ihrer IT Planung mit einbeziehen. Insgesamt ist somit ein positiver Trend der Akzeptanz des Mittelstandes zu Cloud-Lösungen zu erkennen. Als erster Themenblock wurde das aktuelle Wissen der Teilnehmer rund um Cloud Computing eingeschätzt. Es wurde untersucht, inwieweit Informationen zu Cloud Computing vorliegen und wie ausgeprägt das Verständnis hierfür ist. Gut die Hälfte der befragten Teilnehmer schätzt sein Wissen in Bezug auf die Unterschiede von Cloud Computing zu klassischen Lösungen als gut oder sehr gut ein. Allerdings liegen nur ca. einem Drittel ausreichend Informationen über die zugrundeliegenden Strukturen von Cloud Computing vor. Ergänzt man die Ergebnisse dieser empirische Studie mit weiteren Studien, die vor allem das Wissen von CIOs und CEOs untersucht haben, wird deutlich, dass ein umfangreiches Wissen besonders für mittelständische Unternehmen einen sehr großen Einfluss auf die Entscheidung für das Einsetzen von Cloud Computing Lösungen hat. Durch die Vermittlung umfangreicherer Informationen können Sie dabei unterstützt werden, die Unsicherheit zu minimieren, die mit dem Umgang von Cloud Computing verbunden ist, um in Folge dessen die langfristige Etablierung der Cloud-Thematik im Unternehmen zu sichern. Eine sehr interessante Erkenntnis aus dieser Befragung ist, dass nicht wie häufig vermutet der Kostenvorteil durch den Einsatz von Cloud Computing für die Befragten im Vordergrund steht, sondern vor allem die Verbesserung der Skalierbarkeit durch Cloud-Lösungen als ein zentraler Vorteil von Cloud-Lösungen angesehen wird. Es zeigt sich, dass die meisten Teilnehmer sich zwar den grundlegenden Eigenschaften der Cloud bewusst sind, nicht aber den möglichen Vorteilen, die ihnen die Cloud bietet. Infolge dessen fühlen potentielle Kunden sich nicht in ausreichendem Maße angesprochen, Cloud Computing aktiv in ihren Unternehmen einzusetzen. Dies macht es wichtig, Ihnen kundenspezifisch je nach Anwendungsfall die Vorteile von Cloud-Lösungen aufzuzeigen und die individuellen Vorteile aufzuzeigen. Nach Einschätzung der befragten Unternehmen ist insbesondere die Kompatibilität von bestehenden IT Erfordernissen bzw. Regularien zu Cloud Computing ein maßgebliches Kriterium für oder gegen den aktiven Einsatz der Cloud. Besonders wichtig scheint es Entscheidungsträgern zu sein, dass die Konsistenz zur momentan vorhanden IT-Strategie und zur bestehenden IT-Landschaft gegeben sein muss. Dabei geben nur ein Drittel der befragten Unternehmen an, dass dies aktuell der Fall ist und entsprechend die internen IT Regularien von Cloud Computing erfüllt werden. In diesem Zusammenhang geben ebenfalls knapp über die Hälfte der Befragten an, dass die Integration von Cloud-Lösungen zur Anpassung von Unternehmensprozessen führen wird. Um Cloud-Kunden dabei einen möglichst reibungslosen Übergang in die Cloud zu ermöglichen, empfiehlt sich eine Cloud-Integrationsstrategie als Teil der IT-Strategie zu entwickeln, die die bestehenden Prozesse, IT-Infrastrukturen und Anforderungen an Flexibilität und Verfügbarkeit berücksichtigt. Hierbei ist eine enge Zusammenarbeit von Kunden und Cloud-Anbietern nötig, um eine möglichst reibungslose Einführung von Cloud Computing im Unternehmen zu ermöglichen. Oftmals hält auch die Komplexität von Cloud-Lösungen und deren Folge, wie z.B. zusätzliche Ausbildungskosten der Mitarbeiter die Unternehmen ab, Cloud-Lösungen einzuführen. So geben fast die Hälfte der Befragten an, dass die zusätzlichen Ausbildungskosten der Mitarbeiter ein Hindernis für die Einführung von Cloud Computing darstellt. Oftmals können sie den tatsächlichen Nutzen dieser zusätzlichen Kosten nur schwer einschätzen. Ebenfalls können häufig nur schwer die Auswirkungen auf die bestehende IT-Landschaft bei der Einführung von Cloud Computing von den befragten Entscheidungsträgern abgeschätzt werden. Um diese Auswirkungen möglichst transparent zu halten, können zum Beispiel Standortbestimmung innerhalb ausgewählter IT-Architekturbereiche dazu beitragen, Klarheit über die bestehenden Prozesse und Systeme zu schaffen, potentielle Anpassungen und Optimierungspotentiale durch Cloud-Lösungen aufzuzeigen. Besonders auffällig an dieser Umfrage ist, dass fast drei Viertel der Befragten sich vorstellen können integrative Prozessschnittstellen (z.B. zu externen Partnern, Handelsplattformen oder webbasierenden Servicedienstleistern) in die Cloud zu legen. Aber auch über die Hälfte der Befragten geben an, dass Cloud-Lösungen nicht in die Unternehmensprozesse nahtlos eingebunden werden können. Zusätzlich befürchten über die Hälfte der Befragten einen schwerwiegenden Systemwechsel in der Nutzung von unterschiedlichen Cloud-Lösungen. Dies bedeutet für die Kunden solcher Cloud-Lösungen, dass angelehnt an die bereits erwähnte Cloud-Integrationsstrategie deren Umsetzung die Prozessintegration unterstützt sowie eventuelle Systembrüche weitestgehend minimiert werden müssen. Die Schaffung der damit verbundenen Integrationsbasis unterstützt dabei in Zusammenarbeit mit IT-Dienstleistern die erfolgreiche Einführung geschäftsprozessrelevanter Dienste aus der Cloud. Ein von Unternehmen häufig genannter Kritikpunkt von Cloud-Lösungen stellt die schwer einzuschätzende Datensicherheit der Cloud dar. Somit ist es auch nicht verwunderlich, dass deutlich mehr als die Hälfte der Befragten die Datensicherheit von Cloud-Lösungen als kritisch einschätzen und keine sensiblen Daten in die Cloud verlagern würden. Nur ein Fünftel der Befragten schätzt die Datensicherheit als derzeit ausreichend ein. Trotz hoher Sicherheitsbedenken konnte kein Zusammenhang zwischen dem Grad der Datensicherheit und einer Erhöhung / Verringerung in der Nutzung von Cloud-Diensten festgestellt werden. Offensichtich scheint das Thema Datensicherheit weder als Treiber noch als Verhinderer von Cloud-Diensten für die Unternehmen eine Rolle zu spielen. Dies könnte daran liegen, dass Cloud Computing-Lösungen ständigen Verbesserungen unterliegen und hierdurch ihre Sicherheit nahezu in einem ähnlichen Stadium wie die Sicherheit von on premise (eigenbetriebenen) Lösungen einzuordnen sind. Nichts desto trotz muss ein Security-Konzept ein fester Bestandteil einer jeden Cloud-Strategie sein, mit dem sich Unternehmen intensiv auseinandersetzen sollten. Um den erfolgreichen Einsatz von Cloud-Lösungen in Unternehmen zu gewährleisten, ist vor allem die Unterstützung der Unternehmensleitung im Sinne einer positiven Grundhaltung, ausreichenden Ressourcen und der Entwicklung einer positiven Einstellung im Gesamtunternehmen für Cloud-Lösungen sicherzustellen. Interessanterweise sind ein Drittel der Unternehmensleiter sich der Vorteile von Cloud Computing-Lösungen bewusst, allerdings fördern nur ein Zehntel der Befragten Unternehmen aktiv den Einsatz von Cloud-Lösungen. Insgesamt weisen nur Unternehmen mit hohem Management Support zum Thema Cloud eine höhere Nutzung von Cloud-Lösungen auf. Folglich müssen potentielle Cloud-Kunden eine sensibilisierende Strategie im Hinblick auf die Cloud-Lösungen anstreben, um eine erfolgreiche Einführung von Anfang an zu sichern. Innerhalb dieser Studie wird deutlich, dass der Wettbewerbsdruck vermutlich kein Faktor für den verstärkten Einsatz von Cloud-Lösungen ist. Insgesamt fühlen sich weniger als ein Zehntel der Befragten durch den Wettbewerb gedrängt Cloud-Lösungen einzusetzen. Allerdings sehen aber auch etwa ein Viertel der Befragten einen Wettbewerbsvorteil im Einsatz von Cloud-Lösungen gegenüber ihren Konkurrenten. Hierbei ergeben sich insbesondere für frühe Akzeptanzträger dieser Technologie („Early Adopter“) Vorteile in dem Sinne, dass sie sich bereits früh mit Problematiken auseinandergesetzt haben und mögliche Lösungsstrategien entwickelt haben. Da in Zukunft mit einem positiven Trend von Cloud Computing gerechnet werden kann und somit auch immer mehr Mittelstandsunternehmen von den Vorteilen profitieren wollen, wird folglich auch der Druck auf die bestehenden Unternehmen steigen. Demnach können sich in dieser Situation gerade solche Unternehmen herausstellen, die sich bereits frühzeitig mit dieser neuen Situation und Technologie auseinander gesetzt haben. Insgesamt zeigt diese Studie, dass eine enge Zusammenarbeit zwischen den potentiellen Kunden und den Cloud-Anbietern entstehen muss, um eine möglichst effektive und reibungslose Einführung von Cloud-Lösungen in Unternehmen zu gewährleisten. Um eine Standardisierung auch in der Nutzung von Cloud-Lösungen zu gewährleisten, sollten Kunden daher auf ein größeres Dienstleistungsspektrum durch die Cloud Anbieter achten, um den Sprung in die Cloud möglichst effizient und einfach zu meistern. Wenn Sie an den Ergebnissen dieser Studie im Detail interessiert sind, schicken Sie bitte eine kurze Mail an blogit@itelligence.de. - von Martin Tieves, itelligence AG -
    mehr lesenweniger lesen
    Antworten
  •  von  | blog.it | 
    12.8.2014
    In unseren Rechenzentren betreiben wir etliche Kundensysteme, die aufgrund diverser gesetzlicher Vorgaben qualifiziert oder validiert betrieben werden müssen. Die Validierung eines Systems wird beispielsweise von folgenden Regularien gefordert: SOX (Sarbanes-Oxley Act) oder ISAE No. 3402 (International Standard on Assurance Engagements) IT-Sicherheitsmanagement nach ISO/IEC 27001 Good Automated Manufacturing Practice (GAMP, GxP) Payment Card Industry Data Security Standard (PCI DSS) Zahlungsdienstleistungsaufsichtsgesetz (ZAG, BaFin) Wo liegt der Unterschied zwischen Qualifizierung und Validierung? Eine Validierung ist notwendig, wenn das zu untersuchende System kritische Daten direkt verarbeiten kann, zum Beispiel bei GxP-relevanten ERP-Systemen. Die weniger aufwändige Qualifizierung kommt zum Einsatz, wenn das zu untersuchende System selbst keinen direkten Zugang zu solchen Daten besitzt – aber ein System steuert oder überwacht, das wiederum über den direkten Datenzugang verfügt. Ein System zu qualifizieren bedeutet, den Nachweis zu erbringen, dass es nach gewissen vorgegebenen Standards und Regeln aufgebaut wurde. Validierung bietet darüber hinaus den Beweis, dass ein System den zuvor definierten Anforderungen genügt. Wozu ist das notwendig? Sicherlich haben Sie schon von Rückrufaktionen im Automobilbereich, in der Pharma- oder der Lebensmittelbranche gehört. Wenn verunreinigte Produkte zurückgerufen werden oder Bauteile ersetzt werden müssen, weil sie die Funktion gefährden, ist dies nur mit einer guten Datenpflege machbar. Zugleich muss aber auch gewährleistet sein, dass die Systeme eine solche Datenkonsistenz sicherstellen. Und genau da setzen Qualifizierung und Validierung an. Die ordnungsgemäße Funktion wird anfänglich geprüft und durch ein sauberes Change-Management fortgeschrieben. Der Betrieb von qualifizierten und validierten Systemen führt zu einem erhöhten Dokumentationsaufwand. Änderungen müssen zwar auch für andere Systeme nachvollziehbar dokumentiert werden, doch sind die Anforderungen hier deutlich höher. Nach einer Änderung muss das System ggf. erneut geprüft, das heißt re-validiert oder erneut qualifiziert werden. Und diese Dokumentation muss externen Auditoren standhalten. Ein hoher Anspruch, den die Kolleginnen und Kollegen in unseren Rechenzentren erfüllen. Ein Beispiel: Validierung der itelligence Monitoring-Landschaft Wir können die Systeme unserer Kunden nicht unbeaufsichtigt betreiben. Da es sich um einige hundert Systeme handelt, kommt ein automatisches Monitoring zum Einsatz: SAP-Systeme überwachen wir mit Nagios und mit dem SAP Solution Manager. Mit dem neuen Solution Manager 7.1 hat SAP das Monitoring komplett umgebaut und neben das alte CCMS die neue Monitoring and Alerting Infrastructure (MAI) gesetzt, die wir nun nutzen wollen. Im Rahmen der Umstellung befassen wir uns zurzeit mit der Validierung dieses neuen Monitorings. Der Validierungsprozess besteht aus mehreren Schritten: 1. Risikobewertung Anhand einer Checkliste wird ermittelt, ob eine Qualifizierung oder Validierung erforderlich ist. 2. Anforderungsspezifikation Ein Lastenheft entsteht, aus dem die Funktionen des Tools hervorgehen. Aus diesem Lastenheft werden später Testpläne abgeleitet. 3. Risikoanalyse Etwaige Schwachstellen müssen beschrieben werden. Falls möglich, werden Maßnahmen ergriffen, um die Schwachstellen zu mindern oder zu eliminieren. Die Risikoanalyse dient auch zur Berechnung möglicher Schäden, die z. B. durch Vertragsstrafen entstehen  können. 4. Validierungsplan Ein Validierungsplan wird erstellt, der genehmigt werden muss. 5. Installationsplan Die einzelnen Schritte zum Aufbau des Systems werden beschrieben. Dabei wird auf vorhandene Dokumentationen und Anleitungen verwiesen. Insbesondere der Verweis auf SAP Installation Guides ist hilfreich. 6. Testanleitungen Aus der Anforderungsspezifikation werden Testpläne abgeleitet, mit denen ein ordnungsgemäßer Betrieb des Tools überprüft wird. An die Planung der Validierung schließt sich die Umsetzung an, die wiederum in mehreren Schritten erfolgt. Die Umsetzung orientiert sich an der erstellten Planung. 1. Installation Das Tool wird anhand des erstellten Plans installiert. Hierbei werden ggf. Angaben aus der Anforderungsspezifikation umgesetzt. Abweichungen von der Planung aufgrund von unerwarteten Fehlersituationen oder Neuerungen werden dokumentiert. 2. Testprotokolle Die geplanten Tests werden durchgeführt und protokolliert. Abweichungen werden dokumentiert und möglichst behoben. 3. Validierungsbericht Die Testprotokolle werden in einem Validierungsbericht zusammengefasst. Danach wird das Tool an den Betrieb übergeben. Änderungen unterliegen dem Change-Management, das bei Bedarf Revalidierungen einleitet. Zudem wird im zweijährigen Rhythmus geprüft, ob eine grundlegende Revalidierung notwendig ist. Falls nicht, muss dies begründet werden. Bei der Revalidierung werden die genannten Schritte erneut durchgeführt. Sie baut, wenn möglich, auf den bereits erstellten Validierungsplan und die Testanleitungen auf. In einem 2. Teil dieser Blogreihe werde ich die beispielhafte Validierung der itelligence Monitoring-Landschaft weiter verfolgen. Für Rückfragen stehe ich gern zur Verfügung. - Rainer Kunert, itelligence Outsourcing & Services GmbH -
    mehr lesenweniger lesen
    Antworten
  •  von  | blog.it | 
    6.8.2014
    Wie im ersten Teil dieser Blogreihe versprochen, liefere ich jetzt ein Beispiel für eine „Teflon-Pfanne“. Nehmen wir an, sie seien ein mittelständischer Automobilzulieferer und produzieren Treibstoffpumpen für alle namhaften Hersteller. Dann schließen sie im Normalfall mit z.B. der Firma Audi einen Mengenkontrakt über die Abnahme von 200.000 Treibstoffpumpen für den neuen Audi Q18 ab. Diese Menge wird natürlich nicht auf einmal benötigt sondern abhängig vom Tages- bzw. Wochenbedarf abgerufen. Für die Planung ihrer Produktion bekommen sie in regelmäßigen Abständen Informationen zu den aktuellen und zukünftigen Bedarfsmengen. Diese Informationen werden in Form von Lieferabrufen übermittelt und sind auf der technischen Ebene EDI-Nachrichten und da meistens unsere altehrwürdigen IDOCs. Sie bekommen also Informationen der Art, dass ihr Kunde in der nächsten Woche vom Produkt X 1000 Stück brauchen wird, in der Folgewoche 1120, in der Woche darauf 1080 etc. Diese Datenreihen sind natürlich für die Planung sehr interessant, sie haben nur einen Nachteil, sie ändern sich ständig. Der Lieferabruf vom Montag meldet ihnen die Mengen 1000,1120,1080, 1300 für die vier Folgewochen, der Abruf vom Mittwoch dann allerdings die Mengen 990,1150,810,1600. Es ist natürlich nicht verwunderlich, dass die Schwankungen in den Bedarfsmengen sich mit zunehmender zeitlicher Nähe zur „Zielwoche“ beruhigen. Die interessante Frage aus statistischer Sicht ist, wann haben sie sich so weit beruhigt, dass ich sie für einen vernünftige Planung verwenden kann, gibt es vielleicht spezifische Zeitspannen für jedes Produkt, haben sich diese Zeitspannen verändert etc. ? Die „ergodische“ Frage könnte lauten, lassen die Datenreihen überhaupt eine tragfähige Prognose zu ? Dazu begebe ich mich in eine zurückliegende Kalenderwoche, schaue in der Vergangenheit, treffe eine Prognose und vergleiche sie dann mit den tatsächlichen Zahlen. Wenn die Abweichung in einem definierten Rahmen bleibt, kann ich mit der Analyse fortfahren. Diese Funktionen gehören zu den einfacheren ihrer Art, für einen Erstkontakt sind sie aber bestens geeignet. Die Rohdaten, die ich zur Beantwortung dieser Frage bearbeiten könnte, stecken u.a. in den IDOC-Tabellen also EDIDC und EDID4. Diese Tabellen haben schon mal einige Millionen Einträge. Gleiche ich diese Daten dann noch mit kaufmännischen Daten ab und zerlege und gruppiere meine Produkte nach weiteren Kriterien, dann sind wir sehr schnell bei BIG DATA. Dieses Szenario war die Grundlage für meine erste HANA-Lösung. Ein Kunde stellte mir sein Datenmaterial zur Verfügung, das ich natürlich erstmal anonymisiert habe. Dann habe ich angefangen, mit diesen Daten zu spielen und herauszufinden, wieviel Aufwand ich treiben muss, um die oben gestellten Frage zu beantworten. So viel vorab, noch immer kann man sich eine Lösung dieser Art nicht mit ein paar Mausklicks zusammenbauen. Die Modellierung der Daten muss sorgfältig und zielführend erfolgen, dann allerdings ist der Rest keine Sache mehr. Ich bekomme mit geringem Aufwand sehr präzise und gut dargestellte Analysen meiner Daten. Die Ergebnisse kann ich dann in eine MRP-Simulation einfließen lassen und so Optimierungsverfahren implementieren, die ohne HANA-Technologie schlicht nicht möglich wären. Nach diesen Erfahrungen sehe ich nun ein Feld nützlicher Anwendungen im Bereich komplexer Simulationen und Optimierungsverfahren. Der Aufwand bis zu dem Punkt, an dem meine Daten im HANA-System zur Verfügung standen, war zunächst erheblich. Abgesehen von der Modellierungsphase lag der Aufwand zur Übertragung aus dem Quellsystem in der Größenordnung von zehn Stunden. Übertragen wurden dabei ca. 3,2 Millionen Datensätze, die einzeln anonymisiert und konsolidiert wurden. Das lässt sich sicher noch optimieren und ist eher als initialer Aufwand zu sehen. Als Nebeneffekt habe ich mich mit den Methoden zum Datenzugriff unter HANA befasst. Herausgekommen ist ein HANA-Bot-Net, ein Verfahren zur „Belegsynthese“ und die Adaption einiger Verfahren aus der Proteinbiosynthese für die Erzeugung von Belegdarstellungen, jede Menge Teflon-Pfannen würde ich meinen… - von Mario Lütkebohle, itelligence AG -
    mehr lesenweniger lesen
    Antworten
  •  von  | blog.it | 
    30.7.2014
    SAP-Outsourcing, eine Reise ins Unbekannte? Wie auf jeder Reise in ein fremdes Land haben Viele auch bei Antritt einer Outsourcing-Reise vor allem eines im Gepäck: Viele Pläne, Spannung und Erwartung auf das Neue und die Hoffnung, dass sich die Reiseziele auch leicht erfüllen lassen. Erst wenn man das Ziel erreicht hat, erfährt man, ob diese Mythen wahr sind oder doch eher dem Märchenland entstammen. Ein guter Reiseführer gibt die Insider-Tipps der Kenner weiter, hilft bei der Auswahl der richtigen Ziele und zeigt auch, wie man sie am besten erreicht. Bevor also die Reise in Richtung SAP-Outsourcing richtig losgeht, hier die wichtigen Outsourcing-Ziele, die Sie kennen sollten. Entwicklung planen Viele fragen sich, was passiert, wenn erst einmal alle SAP-Anwendungen ausgelagert wurden und über die Rechenzentren ihres Hosting-Partners laufen. Sie befürchten, dass dann die eigene IT-Abteilung überflüssig oder unterfordert sein könnte. Allerdings ist das nicht der Fall. Statt der Auslagerung aller IT-Prozesse wird heutzutage nämlich ein selektives Outsourcing empfohlen. Dieses minimiert Risiken und sorgt dafür, dass Sie die Kontrolle und Übersicht behalten.  Es wird lediglich Raum für neue Aufgaben und die Weiterentwicklung der Geschäftsprozesse geschaffen. So können Sie sich nicht nur auf ihr Kerngeschäft konzentrieren, sondern ihren eigenen Usern den besten Service und die aktuellsten Weiterentwicklungen liefern. Outsourcing – die Universallösung für alle IT-Probleme? Immer schnellere Entwicklungen und Innovationen fordern von Ihrer IT-Abteilung immer komplexere Problemlösungen sowie gut durchdachtes und flexibles Handeln. Außerdem steigen sowohl die Ansprüche der Unternehmensleitung als auch die der Anwender und Kunden. Diesem Konflikt gilt es mit einer gezielten Auslagerung bestimmter Anwendungen und einer guten organisatorische Struktur der IT-Aufgaben entgegenzuwirken. Was geschieht mit meinen Daten? Viele Unternehmen fragen sich: Kann man einem externen Dienstleister wirklich wichtige und geheime Kundendaten anvertrauen? Sie geben ihre Daten nicht gern aus der Hand, doch die Datensicherheit im eigenen Unternehmen wird meist überschätzt. Diese ist oft unzureichend, da häufig die Ressourcen fehlen oder nicht spezifisch darauf geachtet wird, die höchsten Sicherheitsstandards zu erfüllen. Bei einem Hosting-Dienstleister hingegen steht die Datensicherheit an erster Stelle. Diese müssen die vielen, ständig steigenden Anforderungen im Bezug auf Datensicherheit erfüllen, um für die Kunden maximale Datensicherheit gewährleisten zu können und sich rechtlich abzusichern. Aus diesem Grund kann es also sein, dass Ihre Daten im Rechenzentrum eines Hosting-Dienstleisters besser aufgehoben sind, als im eigenen Unternehmen. Einen Reiseleiter wählen Allgemein gilt: Vor der Reise sollten Sie möglichst viele Informationen zu Ihrem bevorstehenden Projekt sammeln und sich bei Fragen an einen festen Ansprechpartner innerhalb Ihres Outsourcing-Partnerunternehmens wenden können. Traumziel SAP-Outsourcing: Wie selektives Outsourcing verborgene Potenziale freisetzt und mehr Zeit für das Wesentliche schafft, entdecken Sie unter anderem in Unternehmensberichten aus der Praxis. Mit vielen hilfreichen Checklisten! Holen Sie sich jetzt Ihr kostenloses Exemplar unseres SAP Outsourcing Reiseführers. Jetzt kostenloses Exemplar bestellen > Leseprobe ansehen > - Martin Bonhage, Corporate Marketing Manager SAP Managed Services, itelligence AG -
    mehr lesenweniger lesen
    Antworten
  •  von  | blog.it | 
    23.7.2014
    Erinnern Sie sich noch an die Abkürzung „KI“ ? Zugegebenermaßen liegt die Hype-Phase um diesen technologischen Ansatz schon ein paar Jahrzehnte zurück. Inzwischen tritt diese Abkürzung für den Begriff der künstlichen Intelligenz nur noch eher schüchtern in Erscheinung. Man könnte meinen, das Thema sei mausetot. Tatsächlich sind aber sehr viele technische Konzepte und Designansätze, die seinerzeit unter diesem Thema geführt wurden, fester und unverzichtbarer Bestandteil neuester Technologien. Die moderne Robotik wäre ohne die Pionierarbeit der KI-Forscher undenkbar. Möglicherweise muss man am Anfang viel Lärm machen, dann macht das viele Leute neugierig und von diesen neugierigen Leuten fangen dann vielleicht einige an, mit der neuen Technologie ganz eigene Wege zu gehen. Dann wird es spannend. Gute Ideen finden ihren Weg, wenn auch fast nie so, wie die Visionäre der ersten Stunde sich das gedacht haben. HANA ist eine sehr mächtige Basistechnologie und es ergeht ihr in der Wahrnehmung von außen ein wenig wie der guten alten KI. Nur selten und nur bei wenigen großen Anwendern werden die zugrundeliegenden technischen Konzepte dann in Reinkultur in eine echte Business-Lösung überführt und bei einem breiteren Nutzerkreis kommen sie selten auf diese Weise an. Der eigentliche Nutzen für „normalsterbliche“ SAP-Anwender ist meist anderer Natur. Ich vergleiche das gerne mit der Teflonpfanne, die ja seinerzeit als Kollateralnutzen bei Forschungsprojekten für die Raumfahrt abgefallen sein soll. Zum Mond fliegen nach wie vor nur wenige Menschen, ein risikoarm in die Pfanne gehauenes Spiegelei erfreut da schon deutlich mehr Zeitgenossen. So oder so ähnlich erging es auch vielen „großen“ SAP-Themen, sie stifteten ihren Nutzen in Form von kleinteiligeren operativen Lösungen, die dann unter anderem Namen und zu angemessenen Kosten einem deutlich größeren Nutzerkreis zur Verfügung standen. Auch nach über 20 Jahren als Entwickler bin ich noch immer neugierig, wenn es etwas Neues zu sehen und zu lernen gibt. HANA fand ich von Anfang an spannend aber auch ein wenig „too fat“ für meine Kunden. Unsere typischen Kunden kommen aus dem gehobenen Mittelstand und die Lösungen, mit deren Entwicklung ich normalerweise befasst bin, sind auch auf diesen Anwenderkreis zugeschnitten. Die naheliegende Frage war also, was könnten unsere Kunden damit anfangen ? Die ersten Schritte waren relativ einfach, SAP-HANA-Studio installiert, ein paar PlugIns dazu und dann mal unser HANA-System aufgeschaltet. Das war der einfache Teil. Wie bei jeder hochkomplexen Software, geht da nicht immer alles glatt und manches Update war eher „kontraproduktiv“. Das ist für ein eher junges Produkt normal und die Probleme liessen sich allesamt schnell lösen. Der eigentlich schwierige Teil war da anderer Natur. Zunächst mal bringt man HANA unweigerlich mit dem schon leicht abgenutzten Buzzword „BIG-DATA“ in Verbindung. Die in diesem Kontext zur Sprache kommenden Datenmengen sind weit jenseits dessen, was ein mittelständischer SAP-Anwender so in seinen Systemen zu bearbeiten hat, zumindest scheinbar. Wenn wir allerdings an so typische Funktionen wie einen MRP-Lauf oder die zahllosen Reportings aus dem SAP-BW denken, dann wird schnell klar, dass unsere Daten vielleicht nicht so big sind aber small sind sie nun ganz gewiss auch nicht. Wenn man sie nur oft genug anfasst und durcharbeitet werden auch moderate Datenbestände schnell zu BIG-DATA. Das könnte alles viel schneller gehen, wenn man denn HANA darauf losliesse. Es geht also in diesem Gedankengang erstmal um Zeitersparnis und damit um eventuell reduzierte Kosten. Eine realistische Kosten-/Nutzenanalyse würde allerdings bei einem großen Teil der Anwender zu der Erkenntnis führen, dass man dann doch lieber auch in Zukunft eine Weile auf seine Daten warten möchte. HANA kann aber noch viel mehr und da wird es dann wirklich interessant. Ich möchte an dieser Stelle in kleinen Beiträgen dieses „Mehr“ vorstellen und so einige Ideen zu den berühmten Teflonpfannen liefern. Beginnen möchte ich mit einem funktionalen Element, das auf den schönen Namen „predictive analysis“ hört. Technisch gesehen ist das eine Bibliothek von Funktionen, die ich auf entsprechend aufbereitete Daten anwenden kann, um bestimmte statistische und andere Eigenschaften in Erfahrung zu bringen. Diese Analyse liefert mir Zahlenmaterial, das mich bei operativen Entscheidungen unterstützen kann. Den wichtigsten dieser Funktionen liegt dabei die Annahme eines sogenannten ergodischen Systems zugrunde. Das bedeutet grob gesprochen, dass ein System sich auch in der Zukunft so verhält, wie es sich in der Vergangenheit verhalten hat. Diese Annahme findet man auch der Risikoanalyse von Banken und Versicherungen. Das ist immer dann eine tragfähige Annahme, wenn wesentliche Systemeigenschaften im betrachteten Zeitraum nicht geändert werden. Systeme funktionieren nur in den Grenzen ihrer Paradigmen. Wenn man also diese Funktionen auf die eigenen Daten anwendet, sollte die Frage nach diesen Paradigmen immer im Hinterkopf bleiben. Das war nun ein wenig Metatext zu HANA, in dem zweiten Teil dieser Blogreihe möchte ich ein Beispiel für eine „Teflon-Pfanne“ liefern. - von Mario Lütkebohle, itelligence AG -
    mehr lesenweniger lesen
    Antworten
current time: 2014-09-02 16:04:20 live
generated in 1.513 sec