Big Data in der Cloud - Wie sicher sind unsere Daten?

Autor: Roger Morrison
Erstelldatum: 19 September 2021
Aktualisierungsdatum: 9 Kann 2024
Anonim
Big Data - Das Wettrennen um unsere Daten
Video: Big Data - Das Wettrennen um unsere Daten

Inhalt


Quelle: Cuteimage / Dreamstime.com

Wegbringen:

Entdecken Sie die größten Bedrohungen für Big Data in der Cloud und lernen Sie, wie Sie sich vor diesen Bedrohungen schützen können.

Das Volumen von Big Data steigt von Tag zu Tag. Von 2.500 Exabyte im Jahr 2012 wird erwartet, dass Big Data im Jahr 2020 auf 40.000 Exabyte ansteigt. Daher ist die Datenspeicherung eine ernsthafte Herausforderung, die nur die Cloud-Infrastruktur bewältigen kann. Die Cloud hat sich vor allem aufgrund ihrer enormen Speicherkapazität und ihrer Nutzungsbedingungen, die dem Abonnenten keine Verpflichtungen auferlegen, zu einer beliebten Option entwickelt. Cloud-Speicher kann in Form von Abonnements und Services für einen festgelegten Zeitraum angeboten werden. Danach besteht für den Kunden keine Verpflichtung zur Verlängerung.

Das Speichern von Big Data in der Cloud eröffnet jedoch neue Sicherheitsherausforderungen, die mit Sicherheitsmaßnahmen für reguläre statische Daten nicht zu bewältigen sind. Obwohl Big Data kein neuartiges Konzept ist, hat seine Erfassung und Nutzung erst in den letzten Jahren Fahrt aufgenommen. In der Vergangenheit beschränkten sich die Speicherung und Analyse großer Datenmengen nur auf große Unternehmen und die Regierung, die sich die für die Speicherung und den Abbau von Daten erforderliche Infrastruktur leisten konnten. Eine solche Infrastruktur war proprietär und nicht allgemeinen Netzwerken ausgesetzt. Über die öffentliche Cloud-Infrastruktur ist Big Data jetzt für alle Arten von Unternehmen kostengünstig verfügbar. Infolgedessen sind neue, hoch entwickelte Sicherheitsbedrohungen aufgetreten, die sich vermehren und weiterentwickeln.


Sicherheitsprobleme in verteilten Programmierframeworks

Verteilte Programmierframeworks verarbeiten Big Data mit parallelen Rechen- und Speichertechniken. In solchen Frameworks können nicht authentifizierte oder geänderte Mapper - die große Aufgaben in kleinere Unteraufgaben aufteilen, sodass die Aufgaben zu einer endgültigen Ausgabe zusammengefasst werden können - Daten gefährden. Fehlerhafte oder geänderte Arbeitsknoten, die Eingaben vom Mapper zur Ausführung der Aufgaben benötigen, können Daten gefährden, indem sie auf die Datenkommunikation zwischen dem Mapper und anderen Arbeitsknoten tippen. Rogue-Worker-Knoten können auch Kopien von legitimen Worker-Knoten erstellen. Die Tatsache, dass es äußerst schwierig ist, unerwünschte Mapper oder Knoten in einem derart großen Framework zu identifizieren, macht die Gewährleistung der Datensicherheit noch schwieriger.

Die meisten cloudbasierten Datenframeworks verwenden die NoSQL-Datenbank. Die NoSQL-Datenbank eignet sich für den Umgang mit großen, unstrukturierten Datenmengen, ist jedoch aus Sicherheitssicht schlecht konzipiert. NoSQL wurde ursprünglich fast ohne Berücksichtigung von Sicherheitsaspekten entwickelt. Eine der größten Schwächen von NoSQL ist die Transaktionsintegrität. Es verfügt über schlechte Authentifizierungsmechanismen, die es für Man-in-the-Middle- oder Replay-Angriffe anfällig machen. Um das Ganze noch schlimmer zu machen, unterstützt NoSQL keine Modulintegration von Drittanbietern, um die Authentifizierungsmechanismen zu stärken. Da Authentifizierungsmechanismen eher lasch sind, sind Daten auch Insiderangriffen ausgesetzt. Angriffe können unbemerkt bleiben und aufgrund schlechter Protokollierungs- und Protokollanalysemechanismen nicht verfolgt werden.


Daten- und Transaktionsprotokollprobleme

Daten werden normalerweise auf mehrschichtigen Speichermedien gespeichert. Es ist relativ einfach, Daten zu verfolgen, wenn das Volumen relativ klein und statisch ist. Wenn das Volumen jedoch exponentiell ansteigt, werden Auto-Tiering-Lösungen eingesetzt. Auto-Tiering-Lösungen speichern Daten in verschiedenen Ebenen, verfolgen jedoch nicht die Standorte. Dies ist ein Sicherheitsproblem. Beispielsweise verfügt eine Organisation möglicherweise über vertrauliche Daten, die nur selten verwendet werden. Auto-Tiering-Lösungen unterscheiden jedoch nicht zwischen vertraulichen und nicht vertraulichen Daten und speichern nur die Daten, auf die selten zugegriffen wird, in der untersten Ebene. Die untersten Ebenen haben die niedrigste verfügbare Sicherheit.

Probleme bei der Datenüberprüfung

In einer Organisation können große Datenmengen aus verschiedenen Quellen gesammelt werden, zu denen Endgeräte wie Softwareanwendungen und Hardwaregeräte gehören. Es ist eine große Herausforderung, sicherzustellen, dass die gesammelten Daten nicht böswillig sind. Personen mit böswilligen Absichten können das Gerät, das Daten bereitstellt, oder die Anwendung, die Daten sammelt, manipulieren. Beispielsweise kann ein Hacker einen Sybil-Angriff auf ein System auslösen und dann die gefälschten Identitäten verwenden, um dem zentralen Erfassungsserver oder -system schädliche Daten bereitzustellen. Diese Bedrohung tritt insbesondere in einem BYOD-Szenario (Bring Your Own Device) auf, da Benutzer ihre persönlichen Geräte im Unternehmensnetzwerk verwenden können.

Überwachung der Big Data-Sicherheit in Echtzeit

Die Echtzeitüberwachung von Daten ist eine große Herausforderung, da Sie sowohl die Big-Data-Infrastruktur als auch die von ihr verarbeiteten Daten überwachen müssen. Wie bereits erwähnt, ist die Big-Data-Infrastruktur in der Cloud ständig Bedrohungen ausgesetzt. Böswillige Entitäten können das System so ändern, dass es auf die Daten zugreift und dann unerbittlich Fehlalarme generiert. Es ist äußerst riskant, falsch positive Ergebnisse zu ignorieren. Darüber hinaus können diese Entitäten versuchen, sich der Erkennung zu entziehen, indem sie Ausweichangriffe erstellen oder sogar Datenvergiftungen verwenden, um die Vertrauenswürdigkeit der verarbeiteten Daten zu verringern.

Keine Bugs, kein Stress - Ihre schrittweise Anleitung zur Erstellung lebensverändernder Software, ohne Ihr Leben zu zerstören

Sie können Ihre Programmierkenntnisse nicht verbessern, wenn sich niemand um die Softwarequalität kümmert.

Strategien zur Bewältigung von Sicherheitsbedrohungen

Big-Data-Sicherheitsstrategien stecken noch in den Kinderschuhen, müssen sich jedoch schnell weiterentwickeln. Die Antworten auf die Sicherheitsbedrohungen liegen im Netzwerk selbst. Die Netzwerkkomponenten benötigen absolute Vertrauenswürdigkeit und dies kann mit starken Datenschutzstrategien erreicht werden. Es sollte keine Toleranz für laxe Datenschutzmaßnahmen geben. Es sollte auch einen starken, automatisierten Mechanismus zum Sammeln und Analysieren von Ereignisprotokollen geben.

Verbesserung der Vertrauenswürdigkeit in verteilten Programmierframeworks

Wie bereits erwähnt, können nicht vertrauenswürdige Mapper und Worker-Knoten die Datensicherheit beeinträchtigen. Daher ist die Vertrauenswürdigkeit von Mappern und Knoten erforderlich. Zu diesem Zweck müssen Mapper die Worker-Knoten regelmäßig authentifizieren. Wenn ein Worker-Knoten eine Verbindungsanforderung an einen Master sendet, wird die Anforderung genehmigt, sofern der Worker über einen vordefinierten Satz von Vertrauenseigenschaften verfügt. Danach wird der Mitarbeiter regelmäßig auf die Einhaltung der Vertrauens- und Sicherheitsrichtlinien überprüft.

Starke Datenschutzrichtlinien

Die Sicherheitsbedrohungen für Daten aufgrund des von Natur aus schwachen Datenschutzes im verteilten Framework und in der NoSQL-Datenbank müssen angegangen werden. Passwörter sollten mit sicheren Hashing-Algorithmen gehasht oder verschlüsselt werden. In Ruhe befindliche Daten sollten immer verschlüsselt und nicht offen gelassen werden, auch nach Berücksichtigung der Auswirkungen auf die Leistung. Hardware- und Massendateiverschlüsselung sind von Natur aus schneller und können die Leistungsprobleme in gewissem Maße beheben. Die Verschlüsselung einer Hardware-Appliance kann jedoch auch von Angreifern verletzt werden. In Anbetracht der Situation empfiehlt es sich, SSL / TLS zum Herstellen von Verbindungen zwischen dem Client und dem Server sowie für die Kommunikation zwischen den Clusterknoten zu verwenden. Darüber hinaus muss die NoSQL-Architektur steckbare Authentifizierungsmodule von Drittanbietern zulassen.

Analyse

Mithilfe der Big-Data-Analyse können verdächtige Verbindungen zu den Clusterknoten überwacht und identifiziert sowie die Protokolle ständig überprüft werden, um potenzielle Bedrohungen zu identifizieren. Obwohl im Hadoop-Ökosystem keine Sicherheitsmechanismen integriert sind, können andere Tools zur Überwachung und Identifizierung verdächtiger Aktivitäten verwendet werden, sofern diese Tools bestimmte Standards erfüllen. Solche Tools müssen beispielsweise den Richtlinien des Open Web Application Security Project (OWASP) entsprechen. Es wird erwartet, dass sich die Echtzeitüberwachung von Ereignissen verbessern wird, da einige Entwicklungen bereits stattfinden. Beispielsweise wird das Security Content Automation Protocol (SCAP) schrittweise auf Big Data angewendet. Apache Kafka und Storm versprechen gute Echtzeit-Überwachungstools zu sein.

Erkennen Sie Ausreißer beim Sammeln von Daten

Es gibt noch kein einbruchsicheres System, um unbefugte Eingriffe zum Zeitpunkt der Datenerfassung vollständig zu verhindern. Einbrüche können jedoch erheblich reduziert werden. Erstens müssen Datenerfassungsanwendungen so sicher wie möglich entwickelt werden, wobei das BYOD-Szenario zu berücksichtigen ist, wenn die Anwendung auf mehreren nicht vertrauenswürdigen Geräten ausgeführt werden kann. Zweitens werden entschlossene Angreifer wahrscheinlich selbst die stärksten Abwehrmechanismen und böswilligen Daten im zentralen Erfassungssystem verletzen. Es sollte also Algorithmen geben, mit denen solche schädlichen Eingaben erkannt und herausgefiltert werden können.

Fazit

Sicherheitslücken bei Big Data in der Cloud sind einzigartig und können mit herkömmlichen Sicherheitsmaßnahmen nicht behoben werden. Der Schutz von Big Data in der Cloud ist noch im Entstehen begriffen, da bestimmte Best Practices wie die Echtzeitüberwachung noch in der Entwicklung sind und verfügbare Best Practices oder Maßnahmen nicht strikt angewendet werden. Wenn man bedenkt, wie lukrativ Big Data ist, werden die Sicherheitsmaßnahmen in naher Zukunft aufholen.