MetaApplicationCenter

Competence-Center

IT-Nachrichten

Windows_XP_100XP ist die am häufigsten infizierte Windows-Version. Und das kommt nicht von ungefähr: Dem Betriebssystem fehlen etliche Schutzfunktionen, die Microsoft im Laufe des vergangenen Jahrzehnts in die Nachfolgeversionen eingebaut hat. Warum ab 2014 alles noch viel schlimmer wird und XP-Nutzer schon jetzt ein Upgrade planen sollten.

Für ungefähr jeden vierten Internetnutzer ist das elf Jahre alte Windows XP laut Statistiken nach wie vor das Betriebssystem der Wahl – und das, obwohl den meisten davon klar sein dürfte, dass der Urgroßvater von Windows 8 den aktuellen Angriffsmethoden der Cyber-Ganoven nicht allzu viel entgegenzusetzen hat. Dieser Meinung ist auch Microsoft: Gegenüber c’t erklärte das Unternehmen, dass XP „nicht für die heutige Bedrohungslage ausgelegt“ ist.

Auch der jüngste Gefahrenbericht des Unternehmens lässt keinen Zweifel an dieser Aussage: Demnach mussten Microsofts Schutzprogramme im ersten Halbjahr 2012 bei XP-Nutzern doppelt so häufig Schadcode vom System kratzen wie bei Nutzern neuerer Windows-Versionen. Von 1000 untersuchten XP-Rechnern waren 10 infiziert.

In naher Zukunft dürfte sich die Lage weiter zuspitzen, da am 8. April 2014 der sogenannte Extended Support von XP ausläuft. Das Support-Ende bedeutet vor allem, dass Microsoft keine weiteren Sicherheits-Updates entwickeln wird. Neu entdeckte Sicherheitslöcher werden dann nicht mehr geschlossen, wodurch sich XP nach und nach zu einem Schweizer Käse entwickelt. Verübeln kann man Microsoft das Einstellen des Supports nicht, immerhin hat Redmond das Betriebssystem dann über 13 Jahre lang unterstützt. Zum Vergleich: Den Kassenschlager Windows 95 hat das Unternehmen nicht mal halb so lange gepflegt.

Für viele Software- und Hardware-Hersteller dürfte das Support-Ende ein willkommener Anlass sein, die XP-Unterstützung ihrerseits ebenfalls einzustellen. Wer danach noch XP nutzt, sollte gute Gründe dafür haben – und wissen, was er tut.

Patchday ohne Patch

Spätestens, wenn Microsoft die ersten kritischen Windows-Lücken nach dem Tag X schließt und dabei Windows XP nicht mehr berücksichtigt, sollte sich bei den verbleibenden XP-Nutzern ein flaues Gefühl in der Magengegend einstellen: Da einige Systemkomponenten historisch gewachsenen Code nutzen, betreffen Schwachstellen allzu oft sämtliche Ausgaben des Betriebssystems. So wurde etwa im Frühjahr eine kritische Lücke im Remote-Desktop-Server bekannt, durch die man alle Windows-Versionen mit speziell präparierten Netzwerkpaketen kompromittieren kann. Ein passender Exploit kursierte nur zwei Tage, nachdem der Patch veröffentlicht wurde, im Netz. Man muss fest damit rechnen, dass Schwachstellen ähnlichen Kalibers auch in Zukunft entdeckt werden – und die dazu passenden Patches werden Exploit-Entwicklern wertvolle Hinweise darauf liefern, wo genau das Sicherheitsloch klafft. Darüber, ob auch XP betroffen ist, kann man dann nur rätseln, weil nicht länger unterstützte Produkte an den Patchdays gar nicht mehr in den Advisories auftauchen.

Zum großen Knall kann es überall dort kommen, wo das Betriebssystem mit Daten von außen in Berührung kommt. Das können Netzwerkpakete, aber auch Mediendateien, Dokumente oder Webseiten sein. Ein löchriges Betriebssystem sollte man nur noch mit großer Vorsicht benutzen – und zwar ausschließlich mit Daten eindeutig vertrauenswürdiger Herkunft. Letztere kann man im Internet nur schwerlich verifizieren. Selbst wer nur eine Hand voll Webseiten ansurft, ist nicht vor Angriffen sicher. Immer wieder manipulieren Cyber-Ganoven Anzeigenserver, damit diese über die Werbung auf eigentlich seriösen Webseiten Schadcode ausliefern. Auch im lokalen Netzwerk lauern Gefahren: Sobald Lücken in einem der Windows-Dienste bekannt werden, können Angreifer ungepatchte Rechner ohne Zutun des Nutzers übernehmen. So könnte etwa ein Schädling, der den Rechner des Sohnemanns infiziert hat, auch auf andere PCs im gleichen Netz überspringen.

Wer XP nutzt und Windows treu bleiben will, sollte also tunlichst ein Upgrade durchführen, damit der Rechner weiterhin mit Sicherheits-Patches versorgt wird. Will man in drei Jahren, wenn Microsoft den Vista-Support einstellt, nicht schon wieder vor diesem Problem stehen, sollte man mindestens zu Windows 7 greifen. Diese Version will das Unternehmen noch bis 2020 unterstützen. Noch zukunftssicherer ist Windows 8: Mit Sicherheits-Updates ist hier voraussichtlich erst im Oktober 2023 Schluss. Ein weiteres Argument spricht für die Acht: Bis Ende Januar 2013 bekommt man das Upgrade als Download-Version für günstige 30 Euro. Upgrade-berechtigt sind alle Versionen ab XP.

Quelle

CRM_100

Einführung und Betrieb von Lösungen zur Kunden-beziehungspflege sind für viele Unternehmen eine große Herausforderung. Mit den richtigen Strategien bei der Systemauswahl lassen sich jedoch die meisten Probleme im Vorfeld vermeiden und CRM-Prozesse erfolgreich einrichten.

Der IT-Dienstleister ec4u Expert Consulting hat Anwender zu den häufigsten Problemen im Zusammenhang mit CRM-Projekten befragt. Demnach beanstanden zahlreiche Firmen fehlende Flexibilität, zu hohen Administrationsaufwand oder unzureichende Skalierbarkeit.

Ganz oben auf der Mängelliste steht der Umgang mit Service Level Agreements. 76 Prozent der Befragten beklagen fehlende Transparenz, Durchgängigkeit und Einhaltung der SLAs in der CRM-Landschaft. Unternehmen sollten daher bei der Auswahl eines CRM-Anbieters oder Dienstleisters genau darauf achten, dass dieser über die notwendigen Ressourcen verfügt, um die vereinbarte Dienstgüte gewährleisten zu können.

In jedem Fall sollte der Service rund um die Uhr verfügbar sein. Und international operierende Unternehmen benötigen einen global aufgestellten CRM-Partner, der über weltweit verteilte Niederlassungen verfügt und unterschiedliche Sprachen abdeckt.

Offene Systeme für mehr Flexibilität

Ein weiterer wichtiger Kritikpunkt ist die unzureichende Flexibilität: Nach Ansicht von 74 Prozent der befragten Anwender setzen die meisten CRM-Lieferanten variierende Praxisanforderungen nicht schnell und effizient um. Ganze 71 Prozent der Teilnehmer bemängeln zudem die fehlende Skalierbarkeit. Demnach ließen sich die meisten CRM-Lösungen nur schwer an zu- beziehungsweise abnehmende Anforderungen anpassen.

Gut beraten sind Unternehmen hier mit Systemen, die nach Open-Source-Manier auf einer offenen Architektur basieren. Ist der Quellcode frei verfügbar, programmieren interne Entwickler die benötigten Funktionen und Anwendungen einfach selbst, was ein Maximum an Flexibilität und Skalierbarkeit garantiert.

Zudem lassen sich offene CRM-Systeme optimal in andere Applikationen integrieren. Open-Source-Anbieter punkten hier klar vor den Branchenriesen, deren proprietäre und starre Lösungen sich nur schwer auf die individuellen Bedürfnisse der Kunden zuschneiden lassen.

Ähnliches gilt für die Infrastruktur: Offene Scale-Out-Architekturen sind je nach den aktuellen Anforderungen flexibel skalierbar. Wichtig ist in diesem Zusammenhang auch die Einbindung moderner Cloud-Strategien. Damit nutzen Unternehmen genau die Kapazitäten, die sie aktuell benötigen.

Denkbar sind hier unterschiedlichste Modelle: So lassen sich etwa CRM-Applikationen als Software-as-a-Service (SaaS) oder auch Rechner- und Speicherressourcen als Infrastructure-as-a-Service (IaaS) bedarfsgerecht aus einer Public Cloud beziehen. Alternativ können Firmen auch On-Demand-Lösungen nutzen, die aus einer Private Cloud kommen.

Im Rahmen der Open-Cloud-Strategie von SugarCRM beispielsweise ist es sogar möglich, flexibel zwischen unterschiedlichen Betreibermodellen zu wechseln: Inhouse betriebene On-Premise-Lösungen lassen sich in eine öffentliche oder private Cloud migrieren.

Von der Datenerfassung zur Vertriebsunterstützung

Im Fokus einer erstklassigen CRM-Lösung müssen immer die Anforderungen des Anwenders an das Frontend stehen, also die Bedürfnisse des also des Vertriebsmitarbeiters, der tatsächlich mit den Kundendaten arbeitet, der sie sammelt und einpflegt. Zudem sollte die Möglichkeit existieren, Daten problemlos aus unterschiedlichen Systemen und Quellen zu konsolidieren. Dass hier noch Nachholbedarf besteht, zeigt die aktuelle Befragung: 70 Prozent der Teilnehmer geben an, dass eine regelmäßige Konsolidierung der Kundendatenbanken nicht stattfinde. Fortschrittliche CRM-Systeme sollten sich daher weg von reinen Datenerfassungs-Tools hin zu Gesamtlösungen für konzeptionelle Vertriebsunterstützung entwickeln.

Weiterhin kritisieren 73 Prozent der Befragten das fehlende Optimierungspotenzial vieler CRM-Systeme. Diese ermöglichen oft nur eine unzureichende Qualität von Kundendaten. Werden sie durch ein transparentes, intuitiv zu bedienendes System unterstützt, steigt auch die Datenqualität und damit das Optimierungspotenzial. Bei der Entwicklung von Dashboards für CRM-Systemen sollte man sich daher am Interface von sozialen Netzwerken wie Facebook oder Google Plus orientieren. Da sie aus dem Alltag nicht mehr wegzudenken sind und die Arbeitnehmer der Zukunft damit groß geworden sind, ist ihnen die Bedienung vertraut – was kurze Einarbeitungszeit ohne aufwändige Schulungsprogramme erlaubt.

Nicht zuletzt beklagen 68 Prozent der Befragten den zu hohen Pflege- und Wartungsaufwand ihres CRM-Systems. Hierbei sollten Unternehmen darauf achten, dass die Lösung ihrer Wahl auf Standardtechnologien basiert. Denn damit können kompetente Administratoren auch ohne spezifische Kenntnisse des jeweiligen Systems Prozesse wie Archivierung, Backup, Recovery oder Performance-Monitoring managen. Dadurch sinkt der Ausbildungsaufwand für die Wartung. Ist das System dagegen zu komplex, bedarf es oft externer Spezialisten, was die Kosten in die Höhe treibt.

Die Tools von Anbietern proprietärer Systeme oder reiner Hosting-Lösungen sind hier zu unflexibel. Entweder bleiben Nutzer doch auf den Wartungskosten für ihr System sitzen oder sie müssen ihre Daten ins Ausland verlagern und verstoßen damit unter Umständen gegen Compliance-Vorgaben.

Nicht jede Lösung passt zu jedem Business. Im idealen Fall entscheiden sich Unternehmen für einen CRM-Anbieter, der sowohl eine On-Premise- als auch eine Cloud-Lösung anbietet – und hier bestenfalls mit den Optionen für eine Public und eine Private Cloud. Das gibt Unternehmen die Möglichkeit, zu entscheiden, was am Besten zu den Anforderungen und Sicherheitsvorgaben ihres Unternehmens passt.

Fazit

Die Studie zeigt eindeutig: Anwender sind mit bestehenden CRM-Systemen tendenziell unzufrieden. Unternehmen, die eine neue Lösung suchen, sollten daher bei der Auswahl vorstehende Punkte beachten. Dann steht reibungslosen CRM-Prozessen nichts mehr im Wege.

AUTOR Julian Heerdegen ...

... ist Product Evangelist bei SugarCRM. Das Unternehmen bietet Open-Source-basierte CRM-Software an. Die lässt sich entweder On-Site oder aus der Cloud nutzen. Es hat dafür eigenen Angaben zufolge weltweit über 7000 Kunden gewinnen können.

Quelle

data-center-4_100Mit privaten, öffentlichen und hybriden Clouds sind Unternehmen in der Lage, die Komplexität ihrer vorhandenen IT-Infrastrukturen zu reduzieren, den Aufwand für deren Betrieb zu verringern und Kosten zu senken. All dies sind wichtige Voraussetzungen dafür, wenn IT-Abteilungen leistungsfähiger und letztlich innovativer werden müssen.

Die IT befindet sich in einer der größten Umwälzungen ihrer Geschichte: Sie ist auf dem Weg in das virtuelle Zeitalter. Software und Hardware, Prozesse und Systeme werden entkoppelt. Auf der Ebene der Server, Speichersysteme sowie der stationären und mobilen Endgeräte für Anwender erlaubt die Virtualisierungstechnologie eine flexiblere und bessere Nutzung der Ressourcen.

Cloud Computing geht noch einen Schritt weiter und entkoppelt die Bereitstellung der IT von ihrer Nutzung. Unternehmen müssen keine eigenen IT-Ressourcen mehr aufbauen und unterhalten, sondern können die Mittel von Cloud-Providern nutzen. Aufgrund von Skaleneffekten sind die Cloud-Provider in der Lage, die Services zu günstigeren Konditionen bereitzustellen, als Unternehmen dies in ihren eigenen Rechenzentren können.

Diese Veränderungen betreffen den Kern der IT-Infrastrukturen, wie sie seit Jahrzehnten im Einsatz sind. Künftig wird die IT nur noch zu einem Teil von unternehmenseigenen Abteilungen bereitgestellt werden und darüber hinaus von Cloud-Providern übernommen.

Dell hat diese Entwicklung frühzeitig erkannt und gestaltet sie mit einem speziell darauf ausgerichteten Portfolio von IT-Lösungen und Services aktiv mit. Dabei unterstützt Dell die Unternehmen nicht nur bei deren eigenen Cloud-Projekten, sondern bietet auch selbst Ressourcen aus der Cloud an.

Mit neuen Konzepten gegen die Komplexität der IT

data-center-3_320Seit langem schon leidet die IT unter einer zunehmenden Komplexität der Systeme, während gleichzeitig das Geflecht der Compliance-Vorschriften und Regeln, denen sie genügen muss, immer dichter und immer weniger durchschaubar wird.

Zu den Konzepten, mit denen Unternehmen hier gegensteuern können, gehört Cloud Computing, denn Cloud Computing bietet eine neue Art der IT-Nutzung, bei der Ressourcen ortsunabhängig und virtualisiert vorgehalten und als Service zur Verfügung gestellt werden. Cloud Computing zeichnet sich dadurch aus, dass die Ressourcen dynamisch - intern und/oder extern - verteilt werden.

Cloud Computing ist in hohem Maße skalierbar, weil die Ressourcen nach Bedarf abgerufen werden. Die Abrechnung der IT-Services erfolgt auf Basis der tatsächlichen Inanspruchnahme, und die Anwender müssen keine umfangreichen Vorab-Investitionen tätigen. Damit gewinnt die IT auch wieder ihre Handlungsfreiheit zurück: Sie muss nicht länger das Gros ihrer Mittel in die Aufrechterhaltung des Betriebs stecken, sondern kann sich verstärkt innovativen Projekten zuwenden.

Cloud Computing ist heute keine technische Herausforderung mehr, denn die Voraussetzungen sind schon heute vorhanden: Virtualisierte Rechner, breitbandige Netzwerke und Browser - mehr benötigt man im Grunde nicht für den Einstieg in die Cloud. Die Nutzung von CPUs, Festplatten oder Backup-Systemen, die physisch nicht in eigenen Räumlichkeiten stehen, sondern im Rechenzentrum eines Providers vorgehalten werden, bildet keine technische Hürde. Cloud Computing ist nur ein weiterer Schritt der Virtualisierung, ergänzt und erweitert durch ein zentrales, einheitliches Managementsystem und ein Abrechnungsmodell.

Private, öffentliche und hybride Clouds

Zur Umsetzung von Cloud Computing gibt es verschiedene Ansätze: private, öffentliche und hybride Clouds.

  • Private Clouds stellen ein exklusives Angebot für einen geschlossenen Nutzerkreis bereit. Die Anwender als mittelbare Betreiber kontrollieren die Verteilung der Ressourcen, die sich im eigenen Rechenzentrum oder dem des Cloud-Providers befinden
  • Öffentliche Clouds sind Ressourcen-Pools, die von mehreren Unternehmen gemeinsam genutzt werden
  • Hybride Lösungen verbinden diese beiden Modelle entsprechend dem Bedarf eines Unternehmens.

Darüber hinaus lassen sich bei Cloud Computing verschiedene Service-Modelle unterscheiden: Software-as-a-Service (SaaS, die Bereitstellung von Software via Internet), Platform-as-a-Service (PaaS, zum Beispiel eine Test- oder Entwicklungsumgebung), und Infrastructure-as-a-Service (IaaS); bei IaaS wird eine komplette IT-Infrastruktur mit Servern, Storage-Systemen oder Netzwerk bereitgestellt.

Globale Rechenzentren für Cloud Computing

data-center-4_180Um Unternehmen einen schnellen und einfachen Zugang zu privaten und öffentlichen Clouds zu bieten, baut Dell eigens dazu hocheffiziente Rechenzentren rund um den Globus auf. Durch die Kombination von Dell-Lösungen und Services mit aktuellen Technologien von Partnern können Unternehmen Modelle wie IaaS, PaaS und Virtual-Desktop-as-a-Service nutzen. Die Rechenzentren bieten eine hohe Flexibilität, wenn es um das Entwickeln, Testen und Hosten von Applikationen geht. Unternehmen erhalten Zugriff auf unbegrenzte Speichervolumina für Produktionsumgebungen, Datensicherung und Disaster Recovery.

Komplettpaket für die Virtualisierung

Dell vStart ermöglicht durch den Bezug sofort einsatzbereiter Lösungen einen schnellen und einfachen Aufbau virtueller Infrastrukturen. Von einer einzigen Management-Umgebung können sofort bis zu 200 virtuelle Systeme gestartet werden, etwa Xeon-basierte Dell-PowerEdge-Server, Dell-EqualLogic-Speicherlösungen oder Dell-PowerConnect-Switches. Dazu kommen Deployment-Services, Virtualisierungssoftware und weitere Tools für das Virtualisierungsmanagement. Unternehmen können diese Infrastruktur als Rack und komplett verkabelt von Dell erwerben. In der ersten Phase unterstützt Dell vStart VMware; die Unterstützung weiterer Hypervisor ist geplant.

Ferner arbeitet Dell bei Cloud Computing eng mit Microsoft zusammen. Ziel ist es, Kunden bei der Implementierung und dem Management von Virtualisierungs- und Cloud-Lösungen zu unterstützen. Basis dafür bilden Dells Virtual Integrated System, der Dell Advanced Infrastructure Manager und das Microsoft System Center, die eine verbesserte Integration physischer und virtueller Komponenten ermöglichen. In diesem Fall bildet der Microsoft Windows Server Hyper-V das Fundament der Virtualisierung. Entscheidend dabei: Eng aufeinander abgestimmte Management-Lösungen, die physische und virtuelle Komponenten berücksichtigen, liefern die oft noch fehlenden Bausteine, wenn Unternehmen ihre IT-Infrastrukturen virtualisieren und dabei auf private, öffentliche oder hybride Clouds setzen.

Green-IT_100Wirtschafts-informatiker von der FH Mainz klopfen in einem neuen Buch eine Reihe von IT-Trends auf ihre Perspektiven ab.

Heiß ersehnt ist alljährlich der Hype Cycle von Gartner als die Referenz schlechthin für IT-Trends. Angehende Wirtschaftsinformatiker der Fachhochschule Mainz haben sich davon inspirieren lassen und einige aktuelle Trends selbst unter die Lupe genommen. Ihre Fachartikel sind im Band „Trends in der IT“ gesammelt, den die Professoren Anett Mehler-Bicher und Lothar Steiger herausgegeben haben. Auch für einige der bestimmenden Megatrends haben die Studenten die Lage analysiert und das Gespräch mit Experten gesucht. Die wichtigsten Erkenntnisse zu Big Data, BYOD, Cloud Computing, IT-Sicherheit und Social Media sind im Folgenden skizziert.

1. Big Data

„Aktuell ist Big Data für viele Unternehmen noch ein Schlagwort ohne große Relevanz“, schreiben Vanessa Bagnoli, Eugen Martel und Benedikt Wagner. Von der Analyse und Auswertung großer Datenmengen seien viele IT-Abteilungen noch weit entfernt. „Wünschenswert und notwendig ist eine Strukturierung des Marktes, da sie Anwendern wie auch Anbietern die Orientierung und Positionierung von Big Data erleichtert“, so die Autoren weiter. Doch wegen der immer größer werdenden Datenmengen führe in Zukunft kein Weg an Big Data vorbei. „Voraussichtlich ist Big Data erst der Anfang“, so das Trio. „Die Lösungen werden weiter strukturiert und die Systeme auch den Anwendungsgrößen angepasst.“

„Big Data ist erst dann Big Data, wenn die Datenanzahl und Menge nicht mehr mit den typischen Ansätzen gehandhabt werden kann“, erläutert als Experte Joseph Reger, CTO von Fujitsu Technology Solutions. Big Data sei eine Kombination aus alter und neuer Technik. „Open Source Techniken wie Map Reduce, Hadoop oder NoSQL werden mit Industriestandards wie x86 und HPC kombiniert“, so Reger. „Dabei wird versucht, so kostengünstig wie möglich zu handeln, da bei derartig großen Datenmengen allein die Datenhaltung sehr kostenintensiv ist.“

Zwingend ist es laut Reger nicht, dass alle größeren Unternehmen Big Data einsetzen. „Nein, es müssen schon Daten vorliegen, bei denen es Sinn macht, sie auszuwerten“, so der CTO. Allerdings sollten die Möglichkeiten im Bereich Business Intelligence (BI) und Big Data zumindest ausgelotet werden. „Die Unternehmen sollten eine Risikoanalyse durchführen, um zu sehen, welches Potenzial in den vorhandenen Daten steckt und welche neuen Möglichkeiten sich daraus ergeben“, so Reger.

Probleme sieht der Experte beim benötigten Personal: Die notwendigen Data Analysts, Data Scientists und Daten-Architekten seien heute in kaum einem Unternehmen vorhanden. „Viele Unternehmen werden ein Big Data-Management-Problem bekommen, aber nicht alle werden die Chance nutzen, Vorteile daraus zu generieren“, prognostiziert Reger weiter. Möglicherweise entwickelten sich Hadoop oder NoSQL zu einem eigenen Eco-System wie einst Linux. Eine neue Herausforderung für die IT sei es, durch Datenanalyse neu entstandenes Wissen zu schützen und zu verwalten.

2. ByoD

Bring your own Device (ByoD) sei technologisch längst kein Wunschtraum mehr, so die Autoren Daniel Flath, Ben Harnisch und Benedikt Zobel. „Nie gab es mehr Cloud Dienste und Virtualisierungsplattformen, die ein einheitliches Look-and-Feel per Remotezugriff auf einem beliebigen mobilen Endgerät ermöglichen, sei es nun per Android-Smartphones, iPad oder privatem Notebook“, schreiben die drei Wirtschafsinformatiker.

Kosteneinsparungen, Mitarbeiterwerbung und Schaffung einer flexiblen Unternehmens-IT seien die bestechend klingenden Vorteile an BYOD. „Wird aber allein auf die positiven Seiten vertraut, kann die Umstellung aufgrund vieler Inkompatibilitäten schnell zu einem Albtraum für eben diese IT-Verantwortlichen werden“, heißt es weiter im Artikel.

Mit einiger Skepsis beurteilt auch Karsten Weronek, Leiter Corporate Information Management der Fraport AG, den aktuellen Hype um BYOD. „BYOD steckt meines Erachtens noch in der Experimentierphase mit Höhen und Tiefen“, so Weronek. „Erst wenn die Innovationszyklen der Hersteller langsamer werden und sich eine Standardisierung im Sinne der Kompatibilität einstellt, wird der Hype abflauen.“

Als Herausforderung für Anwender nennt Weronek IT-Governance, Technik und Support sowie Compliance – ohne indes davon auszugehen, dass ein Smartphone in Punkto Sicherheit grundsätzliche Nachteile im Vergleich zu einem PC habe. Genau zu hinterfragen ist nach Einschätzung des Fraport-Managers allerdings, wo genau die Vorzüge von BYOD liegen. Eine echte Produktivitätssteigerung gebe es etwa dann, wenn eine Führungskraft zum Beispiel Terminvereinbarungen schneller und ohne Interaktion mit Mitarbeitern erledigen könne. „Im Großen und Ganzen ist daher die Einschätzung einer Produktivitätssteigerung durch Smartphones sowohl sehr situativ als auch sehr subjektiv“, so Weronek.

Er geht ferner davon aus, dass die wachsende Zahl freiberuflicher Spezialisten künftig vor allem eigene Endgeräte nutzen werde. „Mitarbeiter, die im Unternehmen Sachbearbeiter-Tätigkeiten ausführen oder Spezialsysteme als Arbeitsmittel benötigen, werden als Angestellte diese weiterhin vom Arbeitgeber gestellt bekommen“, vermutet der IT-Experte des Frankfurter Flughafens.

3. Cloud Computing

Viele Anwender scheuten sich aufgrund der unklaren Rechtslage, auf die Cloud umzusteigen, lautet das Fazit des Beitrags von Sebastian Becker, Marvin Korfant und Hakan Yildirim: „Nach Klärung sollte der Cloud nichts mehr im Weg stehen und der Verbreitungsgrad nicht mehr aufzuhalten sein.“

„Ich denke, dass Cloud Computing die Zukunft gehört“, vermutet trotz der noch vorhandenen Zurückhaltung bei geschäftskritischen Anwendungen und Kernsystemen auch Marco Spitzer, operativer Leiter bei der Urano Informationssystem GmbH. Am Anfang einer Cloud-Initiative sollte laut Spitzer die Entwicklung einer Cloud-Strategie stehen. Momentan setzten viele Firmen nur punktuell auf Cloud-Services. „Natürlich macht es bei einem kleinen Zwei-Mann-Betrieb mit zwei Rechnern und zwei Druckern wenig Sinn, die IT auszulagern“, so Spitzer. „Generell kann man sagen, dass man sich ab ca. 20 Usern Gedanken machen kann.“

4. IT-Sicherheit

Ein Schwarzbrot-Thema von fundamentaler Bedeutung, dessen sich keine Studierendengruppe, sondern ein Professor annimmt. Der Ökonom Dirk Loomans wirft den Blick voraus ins Jahr 2014 und gibt auf drei Ebenen Tipps an die Anwender. „Die Häufigkeit, die Komplexität und die Wirkung externer Angriffe werden steigen und Unternehmen müssen darauf schneller und effektiver reagieren“, so Loomans.

Unternehmen sollten deshalb standardmäßige Sicherheitsmaßnahmen umsetzen, die sich an internationalen Best-Practice-Grundsätzen orientieren. Eine bestimmte Gruppe in der Organisation sollte die Verantwortung für eine stringente Cyber-Abwehr-Strategie übernehmen. „Notfallpläne sind regelmäßig zu aktualisieren, um auf Strom- und Kommunikationsausfälle reagieren zu können“, lautet der dritte Ratschlag des Experten wider die Bedrohungen von außen.

Ebenfalls drei Tipps gibt Loomans für die internen Gefahren, die von den eigenen Mitarbeitern ausgehen. Zum einen brauche es Governance-Ansätze für die Informationssicherheit, zum anderen sollten neue Projekte und Änderungsprozesse von den Sicherheitsverantwortlichen betreut und geprüft werden, so Loomans. Außerdem sollte jedes Unternehmen für sich seinen „Risiko-Appetit“ definieren – also bestimmen, bis zu welchem Punkt man beispielsweise bei der Nutzung mobiler Geräte Risiken in Kauf nehmen will. „Mit dem Risiko-Appetit vor Augen können die Entscheidungsträger Investitionen in die Sicherheit zielgerichteter einsetzen“, erklärt Loomans.

Einige weitere Ratschläge hat der Experte auch für den Umgang mit der wachsenden staatlichen Regulierung. Es sei wichtig, mit Hilfe eines systematischen Ansatzes den Melde- und Transparenzpflichten nachzukommen. Überdies sollten datenschutzrelevante Maßnahmen mit existierenden Schutzmaßnahmen kombiniert werden. „Das Datenschutzmanagement und die Abläufe in der Informationssicherheit sind um ein Element zu ergänzen, das bei Gesetzesänderungen die entsprechenden Anpassungen erleichtert“, so Loomans weiter. „Die aktuelle Gesetzgebung und Rechtsprechung sind regelmäßig zu prüfen.“

5. Social Media lohnt

Im B2B-Bereich biete Social Media zahlreiche Chancen wie etwa Vertriebsunterstützung, direktes Feedback, Employer Branding. Marktanalysen, neue Kontakte, bessere Suchmaschinen-Positionen und Promotion via viralem Marketing, schreiben Lukas Jendraszak, Benjamin Jung und Dennis Sepeur. „Gemessen am finanziellen Aufwand ist der Erfolg durch Social Media überproportional groß“, so die Autoren weiter. Eine Erfolgsgarantie gebe es aber nicht. Die Kommunikationsart müsse zur eigenen Unternehmenskultur passen und von den Mitarbeitern angenommen werden.

„Unternehmen mit deutlicher Internet-Präsenz werden es zukünftig einfacher haben, neue Arbeitskräfte zu gewinnen“, schreiben die Autoren im Hinblick auf die junge Generation der Digital Natives. „Ein früher Einstieg in der momentanen Experimentierphase könnte sich also auszahlen.“

Quelle

Das Buch Trends in der IT kostet in gedruckter Form 12 Euro, der PDF-Download ist kostenlos.

Fernsehen_100

Werden wir in einigen Jahren anders fernsehen als bisher? Bei großen Ereignissen dürfte das Fernsehen das «Lagerfeuer» der Nation bleiben. Im Alltag aber drängt das Internet verstärkt auf den Wohnzimmer-Bildschirm.

Das Internet hat eine Branche nach der anderen umgepflügt - das Fernsehen aber ist bislang allen Prophezeiungen zum Trotz davon weitgehend verschont geblieben. Schritt um Schritt baut sich nun allerdings eine kritische Masse von Veränderungen auf, die auch vieles im Fernseh-Geschäft auf den Prüfstand stellen werden. Die Olympischen Spiele in London waren im vergangenen Sommer ein Paradebeispiel dafür, wie Online-Angebote klassische Übertragungen ergänzen können. Und künftig wird der Übergang vom herkömmlichen Fernsehen ins Internet nahezu standardmäßig nahtlos.

FernsehenZum Jahr 2016 werden nahezu 85 Prozent der neuen Fernsehgeräte einen Internet-Zugang haben, prognostizierte jüngst das Marktforschungsunternehmen Gartner. Die Produktion der «Smart TVs» werde von 108 Millionen in diesem Jahr auf 198 Millionen steigen. «Der Fernseher wird zur zentralen Komponente, die verschiedene Bildschirme im Haushalt zusammenbringt», erwartet Gartner-Analyst Paul O'Donovan. Damit dürften auf den Fernsehbildschirm aber auch zahlreiche andere Inhalte zusätzlich zum üblichen Fernsehprogramm schwappen.

Anbieter bringen sich bereits für die neue Fernsehwelt von morgen in Stellung. Die Internet-Branche will dabei eine Schlüsselrolle spielen. So baut Google auf der Wucht seiner Videoplattform YouTube auf und bietet mit über 100 Spartenkanälen seit vergangenem Jahr eine Art Ersatz-Fernsehen an. Zum Deutschland-Start im Herbst war die Botschaft des verantwortlichen Managers Robert Kyncl an die TV-Branche aber vor allem ein «Wir kommen in Frieden!» Google suche nur nach «weißen Flecken», in denen es heute kein Angebot gibt. «Mein Wunsch ist, dass die Fernsehsender Google als einen Partner betrachten.»

Doch an zwei Punkten werden die alten und neuen Player der Fernsehbranche unweigerlich aufeinanderprallen: Die Werbeerlöse und die Zeit der Nutzer. Die Lücke zwischen den Erlösen mit Werbung im Internet und im Fernsehen schließt sich von Jahr zu Jahr - und in wirtschaftlich unsicherer Zeit wird der Kuchen auch nicht größer. Zugleich bieten die Online-Mediatheken und Bezahl-Anbieter ganz neue Möglichkeiten für zeitversetztes Fernsehen, mit denen die heutigen werbefinanzierten Geschäftsmodelle in Frage gestellt werden könnten.

Die großen US-Sender erlebten die neue Realität gerade mit einem Quoten-Einbruch für ihre aktuellen Serien. Auf Kritik kontern deren Verantwortliche unter anderem, die Zuschauer seien weiterhin interessiert - schauten sich die Folgen aber auf anderen Wegen als früher an. Die deutschen Sender sorgen bereits vor: So gehört zum Beispiel die Online-Videothek Maxdome - auf den meisten Smart-TVs nur wenige Tastendrucke entfernt - zum Fernsehkonzern ProSiebenSat.1. Konzernchef Thomas Ebeling beschwört zugleich das allseits bekannte Fernsehen weiterhin als das virtuelle «Lagerfeuer» der Republik, um das sich die Familie versammelt.

Das Jahr 2013 könnte auch ein seit Jahren herumgeisterndes Phantom Wirklichkeit werden lassen: Den Apple-Fernseher. Laut US-Medienberichten testet der Konzern bereits seit Monaten verschiedene Prototypen mit seinen asiatischen Zulieferern. Es soll jedoch am wichtigsten Punkt haken - dem Angebot an attraktiven Inhalten. Die US-Fernsehbranche mache sich zu viele Sorgen um ihre bisherigen Geschäftsmodelle, um Apple ins Boot zu holen. Schon dem legendären Apple-Gründer Steve Jobs gelang es nicht, die Fernsehbosse zu überzeugen. Aber nach Einschätzung von Branchenbeobachtern ist ein wirklich innovatives Apple-TV ohne die Verknüpfung von Hardware und Inhalten nicht zu machen. Einfach nur einen Fernseher bauen können schließlich viele und auch die Musikindustrie konnte Apple erst mit der Kombination aus iPod-Player und der Download-Plattform iTunes revolutionieren. Quelle

Aktuelle Seite: Startseite MetadatenManagement News IT-Nachrichten