Suche
Close this search box.

TEILEN

TEILEN

TEILEN

Big Data-Unternehmensserverprobleme

Da viele Unternehmen Big-Data-Analysen einsetzen, um ihre Kunden besser anzusprechen und den Betrieb zu optimieren, müssen Rechenzentren ihre Kunden neu konfigurieren Unternehmensserver Setups, um diese Bemühungen effektiver zu erleichtern.

Zum Teil dank Trends wie dem Internet der Dinge, Social Media, mobilen Geräten und Cloud Computing hat die Menge der in einem durchschnittlichen Monat generierten Daten ein zuvor unerreichtes Volumen erreicht. Laut IBM waren 90 Prozent aller derzeit vorhandenen Daten vorhanden in den letzten zwei Jahren geschaffen, and these volumes are only expected to grow further in the future. IT services company CSC predicted that 35 zettabytes of data will be created by 2020, which is 44 times greater than the amount created in 2009.

Für intelligente Unternehmen bietet dieses Datenwachstum eine enorme Chance. Mit mehr Informationen für ein Analyseprogramm, das auf einem hochmodernen Unternehmensserver ausgeführt wird, können Unternehmen detaillierte Einblicke in ihre Kunden und Abläufe gewinnen. Die zwei bekanntesten Beispiele für die Leistungsfähigkeit der Big-Data-Analyse stammen von Target und dem Blogger der New York Times, Nate Silver:

  • Im Jahr 2012 berichtete die Times, dass der Einzelhändler Target mithilfe von Informationen aus früheren Einkäufen und anderen identifizierenden Daten wie Alter und Geschlecht mit großer Genauigkeit bestimmte, was ein Käufer in den nächsten Monaten erhalten möchte. Zum Beispiel konnte Target anhand der jüngsten Zahlungsdaten feststellen, dass es sich um ein Highschool-Mädchen in Minnesota handelt schwanger, bevor ihre Eltern wussten.
  • Durch die Verwendung großer Datenmengen in seinem Analyseprogramm konnte Silver dies erreichen das Ergebnis genau vorhersagen AdAge berichtete über die Präsidentschaftswahlen 2012 vor dem Wahltag. Sein Algorithmus war in 49 Bundesstaaten korrekt, und dies ist die zweite Präsidentschaftswahl, die Silver vorzeitig korrekt durchführen konnte.

Wenn Big Data wächst, müssen auch Enterprise Server- und Speicheranforderungen erfüllt werden
Während Big-Data-Analysen Unternehmen unzählige Vorteile bieten können, benötigen diese Organisationen auch einen Ort, an dem alle Daten gespeichert werden können. Laut Microsoft sind derzeit rund 62 Prozent der Unternehmen mit mindestens 1.000 Mitarbeitern in der Fertigungs-, Gesundheits- und Finanzdienstleistungsbranche tätig Speichern Sie 100 Terabyte oder mehr Daten. Darüber hinaus gaben 32 Prozent dieser Unternehmen an, dass sich ihr Bedarf an Datenspeicherung in den nächsten zwei bis drei Jahren verdoppeln wird.

Diese Probleme mit Unternehmensservern und -speichern werden durch die Notwendigkeit verstärkt, aus Sicherheits- und Compliance-Gründen Sicherungskopien der Daten zu erstellen. Unternehmen, die Kundenfinanzdaten oder andere vertrauliche Informationen verwenden, müssen wahrscheinlich eine oder mehrere zusätzliche Versionen der Daten verwalten, falls etwas mit den Originalen passiert.

Die Speicherung ist jedoch bei weitem nicht das einzige Problem, mit dem sich Rechenzentren im Zusammenhang mit großen Datenmengen auseinandersetzen müssen. Der Schlüssel zur Big-Data-Analyse liegt nicht nur in der Menge der Informationen, sondern auch in der Fähigkeit eines Unternehmens, nützliche Erkenntnisse daraus zu gewinnen. Mit zunehmender Bedeutung von Softwareplattformen wie Apache Hadoop werden die Tools, die für diese Art der Analyse erforderlich sind, einfacher zu beschaffen als je zuvor. Unternehmen, die diese Art von Programmen verwenden, müssen jedoch sicherstellen, dass der Unternehmensserver, der die Analyse erleichtert, leistungsfähig genug für den Job ist.

Da Big Data Analytics immer beliebter wird, müssen Rechenzentren ihre Enterprise-Server- und Speicherinfrastruktur aktualisieren, um mithalten zu können.
Da Big Data Analytics immer beliebter wird, müssen Rechenzentren ihre Enterprise-Server- und Speicherinfrastruktur aktualisieren, um mithalten zu können.

Big Data kann Rechenzentren mit einer Reihe wichtiger Probleme in Bezug auf die Speicherung und Verarbeitung konfrontieren, aber die Antwort ist glücklicherweise einfach: Stellen Sie sicher, dass jeder Server im Rechenzentrum ein Unternehmensserver ist, der für diese Dilemmata entwickelt wurde. Da die Datenströme in den kommenden Jahren noch größer werden, möchten Führungskräfte auf C-Ebene wahrscheinlich die Big-Data-Analyse zu einem größeren Unternehmensfokus machen. Big Data bleibt in der Zukunft, und Rechenzentren müssen möglicherweise ihre Konfigurationen aktualisieren, um dem Trend gerecht zu werden und relevant zu bleiben.

"Die Welt der 'Big Data' ändert sich unmittelbar vor unseren Augen dramatisch - von der Zunahme des Wachstums von Big Data bis zu der Art und Weise, wie es strukturiert und genutzt wird", so CSC. "Der Trend des 'Big Data-Wachstums' stellt enorme Herausforderungen, bietet aber auch unglaubliche Geschäftsmöglichkeiten."

Empfohlene Beiträge

Tech LIFT

The 7 Top Data Center Trends for 2024

Data centers play a crucial role in allowing enterprises to process, access, and store mission-critical data for their daily operations. As the world sees

Geben Sie die folgenden Informationen ein, um das Whitepaper herunterzuladen

Das Handbuch zur Migration von Rechenzentren

Geben Sie die folgenden Informationen ein, um das Whitepaper herunterzuladen

Der Data Center-Sicherheitsleitfaden

Geben Sie die folgenden Informationen ein, um das Whitepaper herunterzuladen

Best Practices für den Umzug der IT-Abteilung im Rechenzentrum

Geben Sie die folgenden Informationen ein, um das Whitepaper herunterzuladen

Best Practices für den Umgang mit Rechenzentrumsgeräten

Geben Sie die folgenden Informationen ein, um das Whitepaper herunterzuladen

Whitepaper zum Aktionsplan zur Konsolidierung von Rechenzentren

Geben Sie die folgenden Informationen ein, um das Whitepaper herunterzuladen

Kauf eines Rechenzentrumshebegeräts