MetaApplicationCenter

Competence-Center

IT-Nachrichten

Cloud

Cloud Computing bietet Firmen interessante Chancen für die effiziente und flexible Gestaltung der IT. Aber die Umsetzung erweist sich als sehr komplex.

Laut Gartner ist mit dem Trend zu Cloud Computing als "Unter-Trend" auch eine verstärkte Nachfrage nach Cloud Brokerage zu beobachten. Die Cloud hat somit das Business-Modell des "Cloud Brokers" hervorgerufen. Cloud Brokerage bietet neue Möglichkeiten für Unternehmen, die eine leistungsfähige, stabile IT brauchen und gleichzeitig einen großen Bedarf an Anwendungen aus der Cloud haben.

Was ist konkret unter dem Cloud-Broking-Modell zu verstehen? Kurz gesagt ist es ein Ansatz, der den Herausforderungen begegnet, die beim Beziehen und Managen von Software über die Cloud entstehen. Der Cloud Broker verbindet Software-as-a-Service mit Infrastructure-as-a-Service, um Software einzusetzen und zu hosten. Dies schließt Datenspeicherung und andere Hardwarekomponenten mit ein. Darüber hinaus kann diese Lösung durch Beratung zu spezifischen Anforderungen des Kunden ergänzt werden. All diese Services werden über den Cloud Broker zur Verfügung gestellt und nach Leistung abgerechnet.

Cloud Brokerage - das Modell

Es gibt zwei Wege, wie das Broker-Modell angewendet werden kann. Eine Möglichkeit ist, dass der Cloud Broker als Drittanbieter auftritt, der zwischen den Kunden und die verschiedenen Cloud-Anbieter geschaltet ist. Somit übernimmt der Cloud Broker für den Kunden das Management der Anwendungen aus der Cloud, für die der Kunde nach Verbrauch bezahlt. Dieser Ansatz wird momentan von Systemintegratoren genutzt.

Der zweite Ansatz wird von Telekommunikationsdienstleistern bevorzugt. In diesem Fall kombiniert der Dienstleister sein eigenes Angebot mit Software-as-a-Service und bietet dem Kunden beides als Bundle an. Auf diese Weise kann das Telekommunikationsunternehmen, das hier als Cloud Broker auftritt, einen Mehrwert an Service anbieten. Der Telekommunikationsdienstleister kann seinen Kunden einen Service bereitstellen, der maßgeschneiderte SaaS-Komponenten enthält, die genau auf die Bedürfnisse des Kunden abgestimmt sind. Diese maßgeschneiderten Services können zum Beispiel Dinge wie Google Voice und E-Mail für Call Center beinhalten, die große Datenvolumina für Telefonie benötigen.

Ein Unternehmen, das diesen Ansatz bereits erfolgreich umsetzt, ist der niederländische Telekommunikationsanbieter KPN. Er hat drei Elemente zusammengeführt - sein Netzwerk für Sprachtelefonie, sein Datenzentrum und SaaS, um Kunden einen besseren Service bieten zu können. Dieses Angebot ermöglicht es Unternehmen aller Größen und Branchen, vorhandene Enterprise-Systeme mit Anwendungen aus der Cloud je nach Bedarf zusammenzuführen. Somit können Kunden Applikationen in einer webbasierten Umgebung für die sofortige Nutzung erstellen und es fallen keine Kosten für zeitintensive Entwicklungsprojekte an.

Bereitstellung einer Business-IT

Das Cloud-Broker-Modell der Telekommunikationsbranche ist Teil eines größeren Trends in der IT – der einer Business-IT. Business-IT bedeutet, die IT-Prozesse so zu gestalten, dass Geschäftsziele optimal unterstützt werden. Das Cloud-Broker-Modell spiegelt diesen Trend wider: Der Cloud-Broker-Kunde muss sich nicht länger darum kümmern, dass die gesamte Business-Software funktioniert. Alle Services werden jetzt durch einen Dienstleister ausgeführt, der sich auch um Updates und Wartung kümmert. Der Kunde erhält somit alle Vorteile der IT, während sich der Dienstleister um den Rest kümmert.

Diese Art der Business-IT kann aus einem Bundle an Applikationen bestehen, wie beispielsweise Salesforce, Google Enterprise oder Office 365 in Kombination mit Möglichkeiten der Datenspeicherung und einer Infrastruktur. Der Kunde kann zu jeder Zeit und von jedem Ort innerhalb einer einheitlichen Umgebung auf diese Dienste zugreifen.

Zunächst sind die Anbieter dieser Bundles vergleichbar, jedoch werden die Angebote sich mit der Zeit so entwickeln, dass sie auf die Bedürfnisse der Unternehmen abgestimmt sind. Cloud Broker werden verschiedene Technologien so kombinieren, dass sie dem Endanwender im Unternehmen einen Mehrwert bieten. Der Anwender hat dann nur einen Dienstleister als Kontakt und kann Business-Software sehr kostengünstig und schnell nutzen.

Aufgrund des Kostendrucks ist es nur in Ausnahmefällen akzeptabel, eine selbstgestrickte Software zu entwickeln oder diese über Outsourcing entwickeln zu lassen. Aus diesem Grund ist das Cloud-Broker-Modell für Unternehmen so attraktiv. Es enthält alle wichtigen Features und umfasst Storage und Infrastruktur, ohne dass sich der Kunde über die Wartung Gedanken machen muss. Bei der Brokerauswahl ist darauf zu achten, wie professionell die Services vom Cloud Broker bereitgestellt werden, sowie wie die Leistung gemessen und abgerechnet wird.

Fazit

2012 könnte das Jahr der Cloud Broker werden. So wie sich dieses Business-Modell verbreitet, können Unternehmen verstärkt auf Cloud Services zurückgreifen, wodurch diese Services noch stärker wachsen werden. Viele Unternehmen aller Größen profitieren vom Cloud-Broker-Modell, da sie damit kostengünstig Services aus der Cloud beziehen können. Unternehmen können ohne Zeitverzögerung innovative Services nutzen und bemerken dabei nicht einmal die komplexe, hybride Lösung, die darunter liegt.

Das Cloud-Broker-Modell wird auch deshalb Erfolg haben, weil hier die beste Cloud und vor Ort verfügbaren Lösungen kombiniert werden. Unserer Meinung nach ist es so nur eine Frage der Zeit, dass sich dieser Ansatz zum bevorzugten Modell für Unternehmen entwickeln wird.

AUTOR: Peter Leichsenring ist Sales Director Zentraleuropa bei Cordys. Quelle

marc-duale-iron-mountainFirmen müssen mit immer mehr Daten zurechtkommen. Allerdings geschieht das oft eher auf Zuruf und ohne große Strategie. Das kann nicht gut gehen. Marc Duale zeigt ein Alternative auf.

Waren es früher noch Produktionsfaktoren wie Boden oder Rohstoffe, sind heute Informationen der Lebensnerv nahezu aller geschäftlichen Tätigkeiten. Richtig genutzt sind sie eine unbezahlbare Ressource, mit der sich Unternehmen Wettbewerbsvorteile verschaffen können. Informationen können dabei helfen, die Produktivität zu steigern oder die Kundenbindung zu verbessern und somit für mehr Absatz zu sorgen.

Umso erstaunlicher ist es, dass viele Unternehmen ihre Informationen mit zu wenig Sorgfalt und Respekt behandeln. Exponentielles Datenwachstum, neue Medienformate und Technologien, immer strengere gesetzliche Bestimmungen und sich laufend wandelnde Unternehmensanforderungen haben die Informationslandschaft in den vergangenen Jahren tiefgreifend verändert. Gleichzeitig gibt es heute bessere Möglichkeiten denn je, Wert aus Informationen zu schöpfen und einfache Daten in wertvolles Wissen zu verwandeln. Unternehmen sollten deshalb ihre Informationsmanagementprozesse an diese neuen Möglichkeiten und die damit verbundenen Chancen anpassen. Dabei kann ihnen das Konzept der Corporate Information Responsibility (CIR) helfen.

Mehr Informationen denn je

Unternehmen müssen heute mit mehr Informationen als je zuvor umgehen. Einige beeindruckende Zahlen dazu:

  • Innerhalb von zwei Tagen wird heute die gleiche Menge an Informationen generiert, wie seit Beginn der Zivilisation bis zum Jahr 2003.
  • 2011 gab es laut einem Bericht von The Radicati Group weltweit mehr als 3,1 Milliarden E-Mail-Konten, ein Fünftel davon in Europa, mit denen Daten erzeugt und verteilt wurden.
  • Soziale Netzwerke treiben die Zahlen weiter in die Höhe. Jeden Monat werden 30 Milliarden Facebook-Inhalte geteilt und 25 Milliarden Tweets gepostet.

Beim Umgang mit all diesen Informationen gibt es jedoch sowohl auf Konsumenten- als auch auf Unternehmensseite zahlreiche Widersprüche und Inkonsistenzen: Konsumenten geben einerseits bereitwillig persönliche Daten preis, andererseits setzen sie sich vehement für den Schutz ihrer Privatsphäre ein. Unternehmen möchten mit ihren Kunden über soziale Netzwerke in Kontakt treten, befürchten dabei jedoch die Kontrolle zu verlieren - ganz zu schweigen von den gesetzlichen und regulatorischen Bestimmungen und Aufbewahrungsanforderungen dieser neuen Kanäle.

Genauso möchten Unternehmen das Maximum aus ihren Informationen herausholen, sind aber nicht in der Lage, Ordnung in den Umgang mit ihren Informationen zu bringen. Dabei müssen sie sich mit strukturierten und unstrukturierten Daten in physischen und digitalen (oder beiden) Formaten auseinandersetzen, die über das gesamte Unternehmen verteilt und unterschiedlichen Regeln und Prozessen unterworfen sind. Außerdem müssen sie den Datenschutz berücksichtigen. Allzu häufig versuchen Unternehmen dabei, ihr Sicherheitsrisiko zu minimieren, indem sie ihre Daten hinter einer regelrechten digitalen Festung verschanzen. Oft stellen sie dann aber fest, dass sensible Daten das Unternehmen in Papierform verlassen oder für alle zugänglich auf dem Drucker liegen bleiben.

Alarmsignal für Unternehmen

Diese Entwicklungen führen dazu, dass sich das Informationsrisiko für Unternehmen deutlich erhöht. Eine aktuelle europaweite Studie von Iron Mountain und PwC*** zeigt, dass viele europäische Unternehmen diesen Entwicklungen sehr hilflos gegenüberstehen und die damit verbundenen Gefahren unterschätzen. Nur die Hälfte der mittelständischen Unternehmen in Deutschland, Großbritannien Frankreich, Spanien, Ungarn und den Niederlanden zählt das Informationsrisiko zu seinen drei größten Unternehmensrisiken.

Es herrschen auch sehr unterschiedliche Auffassungen darüber, wer im Unternehmen die Verantwortung für den Schutz von Informationen tragen sollte. Nur 13 Prozent der Befragten sind der Ansicht, das Thema ist Chefsache. Etwa ein Drittel (35 Prozent) sieht alleine die IT-Abteilung in der Verantwortung – egal übrigens, ob es sich um papierbasierte oder digitale Informationen handelt. Nur ein Prozent der Unternehmen ist der Meinung, dass jeder Mitarbeiter mitverantwortlich ist.

Die Studie hat auch gezeigt, dass es Unternehmen an geeigneten Mitteln und Wegen fehlt, um mit dem steigenden Informationsrisiko umzugehen. Die im Januar angekündigte neue EU-Datenschutzrichtlinie wird die Anforderungen für alle Unternehmen noch verschärfen. Bei Unternehmensverantwortlichen in ganz Europa müssten also die Alarmglocken läuten. Die Flut an Informationen könnte ihnen außer Kontrolle geraten. Der Bedarf an professionellem Informationsmanagement ist also größer denn je.

Verantwortung für Informationen übernehmen

Aufgrund der zunehmend lauter werdenden Forderungen an Unternehmen, dem Einfluss ihres Handelns auf Umwelt und Gesellschaft gerecht zu werden, entstand vor einigen Jahren das Konzept der Corporate Social Responsibility (CSR). Unternehmen sollen demnach mehr Verantwortung für ihre Informationen übernehmen und sich dem Schutz von vertraulichen Kunden-, Mitarbeiter- und Unternehmensdaten verpflichten. Dabei geht es darum, eine Unternehmenskultur zu etablieren, in der besonderer Wert auf den Umgang mit Informationen gelegt wird: Dazu gehört der Respekt vor und der Schutz der Informationen, genauso wie die maximale Wertschöpfung aus Daten und die Risikominimierung in Bezug auf Datenverluste, Sicherheitsvorfälle und nicht-datenschutzkonforme Vorgänge.

Corporate Information Responsibility dient der Transparenz und der Kontrolle von Informationen. Unternehmen müssen jederzeit wissen, welche Informationen sie erstellen, sammeln, verarbeiten und speichern, wo sich die Daten befinden und wer für sie verantwortlich ist. Außerdem benötigen sie eine Strategie zur sicheren Informationsspeicherung sowie zur rechtskonformen Vernichtung von Daten. Dazu gehören Backups digitaler Informationen, die Archivierung von Papierdokumenten, das Scannen und Shreddern von Dokumenten sowie tägliche Sicherungsprozesse. Wichtige Aspekte einer robusten, unternehmensweiten Informationsmanagementstrategie sind außerdem feste Abläufe zur Suche beziehungsweise zur Wiederherstellung von Informationen sowie verbindliche Zugriffsbeschränkungen.

Zudem sollten Unternehmen ihre spezifischen Risiken kennen und verstehen sowie auf Worst-Case-Szenarien vorbereitet sein. Datenverluste durch höhere Gewalt wie Brände oder Überschwemmungen sowie durch fährlässiges Handeln oder IT-Ausfälle sind eine Gefahr für die Informationssicherheit und können ein Unternehmen binnen kürzester Zeit handlungsunfähig machen. Eine Strategie für Corporate Information Responsibility hilft Unternehmen dabei, solche Gefahren zu erkennen und sich frühzeitig dagegen zu wappnen. Nur so können sie die Aufrechterhaltung ihrer Geschäftsprozesse durch eine rasche Wiederherstellung gewährleisten und Reputation, Kunden, Mitarbeiter und in letzter Konsequenz ihre wirtschaftliche Existenz schützen.

Kultur der Informationssicherheit am Arbeitsplatz schaffen

Viel hängt dabei vom Faktor Mensch ab. Informationsmanagement ist weit mehr als eine reine IT-Angelegenheit oder ein fest definierter Geschäftsprozess. Es geht vielmehr um eine entsprechende Unternehmenskultur und das verantwortungsvolle Verhalten der Mitarbeiter. Beim Erstellen von Informationen genau wie bei deren Verlust oder Missbrauch spielen Menschen oft die entscheidende Rolle. Deshalb müssen alle Mitarbeiter in das Informationsmanagement einbezogen werden.

Für die Einführung einer nachhaltigen Unternehmenskultur der Informationsverantwortung sind deshalb Schulungen und weitere unterstützende Maßnahmen wie verbindliche Richtlinien besonders wichtig. Impulse und Anleitungen für den verantwortungsvollen Umgang mit Informationen müssen von höchster Stelle kommen. Zudem sollte die Unternehmensleitung mit gutem Beispiel vorangehen und so die Richtung für das gesamte Unternehmen vorgeben. Informationsmanagement ist längst zu einem Top-Management-Thema geworden. Das gilt nicht nur für die Entwicklung und Verbreitung unternehmensweiter Richtlinien.

In der heutigen, zunehmend wissensbasierten globalen Wirtschaft können Erfolg bzw. Misserfolg eines Unternehmens davon abhängen, wie es mit seinen Informationen umgeht. Unternehmen bieten sich riesige Chancen, wenn sie ihre Informationen richtig nutzen. Gleichzeitig kann der Verlust, die unbeabsichtigte Veröffentlichung oder die Vernichtung von Informationen verheerende Folgen für die datenabhängigen Geschäftsprozesse, den Kundenservice oder das Marken-Image haben. Bei einer Corporate Information Responsibility geht es darum, eine Kultur der Informationsverantwortung zu entwickeln und diese mit zuverlässigen Geschäftsprozessen zu untermauern. Informationen sollten endlich wie ein Wert und nicht mehr wie eine Verpflichtung behandelt werden.

Marc Duale ist President International bei Iron Mountain. Das Untenehmen beschäftigte sich ursprünglich mit der physischen Archivierung von Akten und Datenträgern, hat sich aber inzwischen zu einem wichtigen Anbeiter von Informationsmanagement entwickelt - es kümmert sich um Sicherung und Archivierung von unternehmenswichtigen Informationen ebenso wie um deren Schutz und Wiederherstellung oder auch die sichere Vernichtung nicht mehr benötigter Daten und Unterlagen.

Quelle

IPadEinige PC-Hersteller haben Sorgen geäußert, ob sie die (für den Herbst erwarteten) Tablets mit ARM-Prozessor und Windows 8 zu konkurrenzfähigen Preisen auf den Markt bringen können, berichtet die taiwanische Digitimes. Sie schätzen die Materialkosten für ein 10-Zoll-Tablet auf 300 bis 350 US-Dollar, für einen 7-Zöller auf 150 bis 200, dazu kämen die Kosten für Windows 8 RT in der Höhe von 90 bis 100 US-Dollar.

Damit würde ein Windows-8-Tablet mehr kosten als das in den USA für 199 US-Dollar erhältliche Kindle Fire, ein Android-Tablet mit 7-Zoll-Display und Zugang zu einem riesigen Multimedia-Angebot. Amazon verkauft das Fire unter den geschätzten Herstellungskosten und verdient sein Geld dann an den Medienverkäufen. Diese Möglichkeit steht den Herstellern der Windows-Tablets jedoch nicht offen, beziehungsweise nur den wenigen wie Sony, die ein eigenes Multimedia-Angebot haben.

Bei den 10-Zoll-Tablets markiert Apple mit dem iPad 2 für 399 und iPad 3 für 499 US-Dollar einen wichtigen Preis, den die meisten Android-Tablets unterbieten. Auch hier dürften die Windows-Tablets einen schweren Stand haben, weil es für sie anfangs weit weniger Apps geben wird als für iOS und Android. Denn unter Windows RT für die ARM-Prozessoren werden keine x86-Anwendungen laufen – auch wenn es eine Desktop-Oberfläche geben wird – sondern nur für die Metro-Oberfläche erstellte, was wiederum gerade in Bezug auf das Fehlen von alternativen Browsern zu einer Untersuchung durch den US-Senat führte. Quelle

Tablet-Prognose: iPad vergrößert Marktanteil

Das US-amerikanische Marktforschungsunternehmen IDC sieht den Tablet-Markt weiter im Aufwind. Insgesamt 107,4 Millionen Tablets werden nach dessen neuester Schätzung bis zum Ende des Jahres weltweit verkauft. Damit korrigierte das Unternehmen eine frühere Prognose um 1,3 Millionen Geräte nach oben. Als Grund nannte die IDC eine erwartete starke Nachfrage in der zweiten Hälfte des Jahres, außerdem steige das Interesse an Tablets im kommerziellen Bereich.

Vom größeren Tablet-Interesse in diesem Jahr soll Apple laut IDC stärker als die Hersteller von Android-Tablets profitieren. Hatten Letztere sich im vergangenen Jahr einen Marktanteil von 38,7 Prozent erkämpft, wird dieser den Prognosen zufolge wieder um einige Punkte auf 36,5 Prozent schrumpfen, während Apple von 58,2 auf 62,5 Prozent leicht zulegt. Basis für die Vermutung sei die erfolgreiche Einführung der dritten iPad-Generation sowie die Strategie, ältere iPad-Modelle weiter für einen günstigeren Preis zu verkaufen. Blackberry spielt dagegen mit einem Prozent Marktanteil für sein PlayBook nur eine marginale Rolle in 2012.

Ein vollständiges Bild des Tablet-Markts gibt die IDC allerdings nicht: Noch berücksichtigt sie bei der Vorhersage keine Tablets mit Windows 8 beziehungsweise mit der ARM-Variante Windows RT, die noch in diesem Jahr auf den Markt kommen sollen. Diese würden von der IDC derzeit noch zum PC-Markt gerechnet, sollen aber ab nächstem Quartal in die Kategorie der "Media Tablets" fallen.

Während der Tablet-Markt weiter rasant wächst – die IDC erwartet rund 222 Millionen verkaufte Tablets im Jahr 2016 –, stagniert der Verkauf von E-Book-Readern. Fürs aktuelle Jahr rechnet das Unternehmen mit 28 Millionen verkauften Readern, etwas weniger als im Vorjahr (28,2 Mio). Quelle

Ultrabook_toshiba_90Nicht mehr nur flach und leicht, sondern auch für professionelle Anwender - die neuen Ultrabooks mit Ivy-Bridge-CPUs gibt es in vielen Varianten - ob mit 21:9-Display, optischem Laufwerk oder mattiertem Bildschirm.

Zufällig in derselben Woche, in der Apple seine neuen Macbooks vorgestellt hat, lud Intel Journalisten in München zu einer Veranstaltung rund um Ultrabooks. Dabei stellen zahlreiche Hersteller ihre neuen Geräte aus, die zum Teil erst noch in einigen Wochen auf den Markt kommen. Statt mit 11,6- oder 13,3-Zoll-Displays wie bei der ersten Generation von Ultrabooks mit Sandy-Bridge-CPUs werden die Formfaktoren nun vielfältiger.

Dabei ist vor allem auffällig, dass der alte Streit zwischen spiegelndem und mattiertem Display immer noch nicht entschieden ist. So ist ausgerechnet eines der ersten Ultrabooks mit 15,6-Zoll-Display, Acers Timeline U M5 sowie mit einem stark spiegelnden Display von nur 1.366 x 768 Pixeln versehen. Das Gerät solle vor allem private Anwender ansprechen, sagte Acer, und mitsamt optischem Laufwerk unter 1.000 Euro kosten.

Entspiegelt sind unter anderem die Displays der Rechner von Asus, Fujitsu, Samsung und Wortmann/Terra. Auf den ersten Blick wirkte der Bildschirm von Fujitsus Lifebook U am widerstandsfähigsten gegen Reflexionen. Das Ultrabook, das der Hersteller ausdrücklich Geschäftskunden empfiehlt, ist zudem eines der wenigen Modelle der Kategorie, das es auch mit integriertem 3G-Modem oder sogar LTE gibt.

Wortmanns Terra, ebenfalls für professionelle Anwender vorgesehen, bietet keinen Mobilfunk, aber viele Schnittstellen. So sind unter anderem ein Ethernet-Port in Normalgröße, HDMI und VGA vorhanden. Der analoge Bildschirmausgang wird häufig noch in Konferenzräumen mit älteren Projektoren benötigt. Unverständlicherweise bringt das Gerät aber nur einen USB-3.0-Port mit, obwohl Intels mobile Ivy-Bridge-Chipsätze vier davon unterstützen.

Ein Exot unter den Ultrabooks ist Toshibas U840W mit seinem 21:9-Display. Es kommt bei einer 14,4-Zoll-Diagonalen zwar nur auf 1.792 x 768 Pixel und bietet somit nicht Full-HD-Auflösung. Durch die hohe Pixeldichte ergibt sich trotzdem eine scharfe Darstellung. Filme müssen dem Rechner als Datei oder Stream zur Verfügung gestellt werden, denn ein Blu-ray-Laufwerk gibt es nicht. Die Lautsprecher von Harman/Kardon sind seitlich angeordnet, so dass sich eine breite Stereobasis ergibt.

Insgesamt zeigen die neuen Geräte, zu denen auch die schon ausführlich vorgestellten Zenbooks von Asus gehörten, dass die Hersteller in der zweiten Generation der Ultrabooks experimentierfreudiger werden. Galt es im letzten Jahr noch, vor allem Intels strenge Vorgaben hinsichtlich Laufzeit, Gewicht und Dicke zu erfüllen, so steht nun eine möglichst individuelle Ausstattung im Vordergrund.

Dazu zählen unter anderem eine Tastaturbeleuchtung, wie sie manche Modelle von Acer und HP bieten, oder auch eine diskrete Nvidia-GPU, die beispielsweise bei Acer, Asus und Lenovo zu finden ist.

Von vielen Anbietern war aber zu hören, dass die bisherigen Absatzzahlen von Ultrabooks eher enttäuschend sind. Zu den genauen Marktanteilen wollte sich kein Hersteller äußern, der Tenor war aber eindeutig: Von den von Intel angepeilten 40 Prozent Ultrabooks, die nach den ersten Planungen Ende 2012 erreicht werden sollen, ist jeder Anbieter weit entfernt.

Das soll sich vor allem durch niedrigere Preise ändern, die aber wohl nicht mehr in diesem Jahr erzielt werden können. Mehrere Unternehmen sagten, dass die starke Nachfrage von Privatanwendern erst dann einsetzen dürfte, wenn auch Ultrabooks - ebenso wie Standardrechner mit 15-Zoll-Display und passabler Ausstattung - unter 600 Euro zu haben sind. Ein großer Kostenfaktor sind weiterhin die aufwendig konstruierten Gehäuse, die inzwischen nicht mehr vorwiegend aus Aluminium gefertigt sind. Intel empfiehlt dafür Verbundwerkstoffe, die nicht nur billiger, sondern auch leichter sind. Aber auch da, so ein Hersteller, "stehen wir noch in der Entwicklungsphase". Quelle

SAP_90Auf seiner Hausmesse klopfte SAP ordentlich auf den Putz: Statt dicker Software-Pakete gibt es künftig lose verknüpfte Anwendungen, und bis 2015 will man Nummer zwei bei Datenbanken sein. Nur bei Business By Design wird SAP bescheidener.

SAP verändert sich. Mit dem Wechsel an der Führungsspitze vor zwei Jahren haben die Walldorfer eine neue Entwicklung eingeleitet. Der Softwarehersteller will offener und moderner werden. Trends sollen nicht mehr verschlafen, sondern vorangetrieben werden. Und diese Entwicklung hat nun ein Gesicht. Lars Dalgaard ist Gründer und CEO des Cloud-Spezialisten SuccessFactors, den SAP vor kurzem übernommen hat. Der Däne steht jetzt an der Spitze einer neuen Geschäftseinheit, in der alle Cloud-Technologien von SAP zusammengefasst sind.

Auf der Anwenderkonferenz Sapphire in Orlando verkündete er eine neue Strategie. Statt großer Software-Pakete wird SAP künftig einzelne Applikationen auf dem Markt bringen – zumindest im Cloud-Segment. Diese sind laut Dalgaard nur "lose" miteinander verknüpft. Auch wenn er betont, dass sich die Cloud-Lösungen eng mit den übrigen SAP-Lösungen integrieren lassen. Seine Botschaft ist klar: "Das ist eine Anti-Suite-Story".

Diese Aussage ist durchaus bemerkenswert bei einem IT-Anbieter, der sich bisher vor allem auf Suiten fokussiert hat. Doch noch mehr: Dalgaard hat auch eine Meinung zu SAPs bisher mäßig erfolgreichem Cloud-Paket Business By Design. Eine wundervolle Vision sei Business By Design gewesen, so Dalgaard. Aber: "Diese Vision war zu groß." Mit Business By Design soll es laut Dalgaard zwar weiter gehen. Doch ein klares Bekenntnis zur Online-Suite hört sich anders an.

Stattdessen will Dalgaard aus den vielen unterschiedlichen SAP-Technologien eigenständige Cloud-Applikationen entwickeln. Zunächst konzentriert sich SAP auf Prozesse aus den vier Bereichen Mitarbeiter, Finanzen, Kunden und Lieferanten. So bieten die Walldorfer ihre Software zur Verwaltung von Gehaltsabrechungen jetzt auch aus der Cloud an und integrieren sie mit der Personalmanagementlösung von SuccessFactors.

Daneben sind die Angebote Financials OnDemand sowie Sales OnDemand verfügbar. Für das Beziehungsmanagement mit Lieferanten bringt SAP Sourcing OnDemand auf den Markt. Dieses soll Firmen bei der strategischen Beschaffung sowie beim Lieferanten- und Vertragsmanagement unterstützen. Was diese Lösungen kosten werden, bleibt jedoch unklar. Dalgaard erklärte auf der Sapphire lediglich, die Preise seien "attraktiv".

SAP-Software soll sich also künftig aus der Datenwolke nutzen lassen. Und sie soll gut dabei aussehen. Dalgaard verspricht Anwenderoberflächen, die einfach und intuitiv bedient werden können. Bereits auf der europäischen Sapphire in Madrid im vergangenen Jahr hatte Co-CEO Jim Hagemann Snabe den IT-Riesen Apple als Vorbild für SAP genannt. Dalgaard stößt nun ins gleiche Horn: "Apple kann nicht den ganzen Spaß für sich alleine haben." Will heißen: SAP-Oberflächen sollen sich so leicht bedienen lassen wie die der Apple-Produkte.

Nach Meinung der Nutzer gibt es in diesem Bereich noch Nachholbedarf beim Walldorfer Softwerker. Der CIO-Beirat der deutschen Anwendergruppe DSAG zum Beispiel sieht in einer Pressemitteilung "den Bedarf einer klaren Strategie für anwenderorientierte, durchgängige und einfach anzupassende Bedienoberflächen." In einer Umfrage nannten die Mitglieder des CIO-Kreises die Benutzeroberflächen als eines der derzeit fünf wichtigsten Themen. In dem Kreis innerhalb der DSAG sind 360 IT-Leiterinnen und -Leiter organisiert.

Neben Apple ist Google ein weiterer Anbieter, dem SAP gerne nacheifern möchte - und zwar in Sachen Geschwindigkeit. Die Technologie, mit der der deutsche Softwareanbieter Tempo in sein Portfolio bringen will, ist HANA. Die In-Memory-Datenbank ist nach wie vor einer der Stars in SAPs Produktprogramm. Daten lassen sich mit dieser Technologie extrem schnell verarbeiten. Unter anderem nutzt inzwischen die McLaren Group HANA. Im Kerngeschäft, dem Formel-1-Rennsport, hat McLaren Telemetriesysteme entwickelt, die Daten aus den Autos verarbeiten, welche mithilfe von Sensoren erfasst werden. Auf Basis von SAPs Datenbank können diese Informationen in Echtzeit analysiert werden.

Ziel: 2015 die Nummer 2 im Datenbankmarkt

Die Anwendungsmöglichkeiten für HANA will SAP kontinuierlich ausbauen. "HANA für alle", hat schließlich Snabe bereits in Madrid als Leitmotiv verkündet. Nachdem das Netweaver Business Warehouse mittlerweile auf der HANA-Appliance läuft, soll die Technologie künftig als Plattform für eine ganze Reihe von neuen Anwendungen dienen. Dazu zählen sowohl Cloud- als auch On-Premise-Applikationen.

Zu den neuen Lösungen auf Basis von HANA gehört zum Beispiel eine Anwendung für Sales and Operations Planning. Laut SAP können Unternehmen damit bei Schwankungen in der Nachfrage ihre Fertigungs-, Beschaffungs- und Logistikpläne schnell anpassen. Im Angebot sind auch eine Lösung für Liquiditätsprognosen sowie –analysen sowie eine Applikation, um Planungsprozesse zu beschleunigen.

HANA steht im Mittelpunkt der SAP-Strategie. "Wir sind zur Zeit der am schnellsten wachsende Datenbankanbieter der Welt", erklärt Co-CEO Bill McDermott. "Und ich halte es für realistisch, dass wir 2015 die Nummer 2 im Datenbankmarkt sein werden."

Die "single source of truth" soll HANA irgendwann in den Unternehmen sein – also die einzig relevante zentrale Datenquelle. Das heißt aber auch, dass neben sämtlichen SAP-Anwendungen auch die Applikationen anderer Anbieter auf HANA laufen sollen. Dafür bauen die Walldorfer ihre Datenbank als Entwicklungsplattform für Drittanwendungen aus.

Neben analytischen Informationen werden dann auch transaktionale Daten mithilfe von HANA verarbeitet. Entsprechende Anwendungsfälle gebe es bereits jetzt, sagt Ingo Brenckmann, Senior Development Manager bei SAP. Im transaktionalen Bereich sehen Experten spaltenorientierte Datenbanken wie etwa HANA jedoch im Nachteil gegenüber zeilenbasierenden Systemen, weil zum Beispiel das Einfügen von Daten aufwändiger ist. Dem hält Brenckmann entgegen: "SAP hat die HANA-Technologie stark weiter entwickelt, um die Nachteile aufzuheben."

Neben transaktionalen Daten wird HANA wohl bald auch fähig sein, mit unstrukturierten Informationen umzugehen, wie sie etwa in Dokumenten oder E-Mails vorliegen. Die Datenmanagement-Lösungen SAP Data Services und SAP Information Steward enthalten Funktionen für die Textverarbeitung. Mithilfe linguistischer Analyse lassen sich Dokumente analysieren. Durch das Service Pack Stack 4 können entsprechende Anwendungen mit HANA umgesetzt werden.

Unter "HANA für alle" versteht SAP aber nicht nur die Erweiterung von Aufgaben, die sich mit der Datenbank erledigen lassen. Der Slogan bezieht sich auch auf die unterschiedlichen Unternehmensgrößen. So weist Brenckmann darauf hin, dass mit "HANA Edge" auch eine Version für Mittelständler bereit steht. Gleichzeitig räumt er ein, dass SAP diese Zielgruppe noch nicht dem Maße erreicht habe, wie sich das die Verantwortlichen in Walldorf vorstellen. "HANA wird in erster Linie immer noch als eine teure Lösung gesehen", so Brenckmann.

Er schiebt das vor allem auf die Berichterstattung über HANA, die sich besonders auf die Kosten für die Lösung konzentriere. Aber immerhin: Laut SAP gibt es schon deutsche Anwender aus diesem Bereich. Öffentlich präsentiert werden diese jedoch noch nicht.

Neben Cloud Computing und In-Memory gibt es derzeit noch einen weiteren Schwerpunkt in der SAP-Strategie: Mobility. In Orlando stellte der deutsche Softwerker denn auch eine Reihe neuer mobiler Apps vor. Dazu zählen unter anderem Mini-Anwendungen für den Personalbereich, den Vertrieb und mobile Commerce. Für das letztgenannte Einsatzfeld wurde die Lösung Sybase 365 entwickelt. Dies ist eine Kundenbeziehungs- und Handelsplattform für Unternehmen aus den Branchen Telekommunikation, Banken, Versorgung, Handel und Verbrauchsgüter. Deren Kunden können dank der SAP-Lösung mit ihren Mobilgeräten bezahlen oder andere Finanzgeschäfte erledigen. Quelle

Markus Strehlitz

Aktuelle Seite: Startseite MetadatenManagement News IT-Nachrichten