Daten sind das neue Gold, wird oft und gerne gesagt. Daten werden aufgrund von Möglichkeiten zur Effizienzsteigerung als vierter Produktionsfaktor gesehen. Fakt ist aber: Daten für sich allein haben wenig Wert, erst durch ihre Analyse und die Nutzung der gewonnenen Erkenntnisse für Entscheidungen bringen sie Ergebnisse. Wenn die Datenmengen dann immer größer werden, ist die Rede von Big Data. Aber was meint dieser Begriff eigentlich?, fragt sich unser Autor.

Die klassische Definition von Big Data folgt der Charakterisierung über die drei Vs: Volume, Variety und Velocity. Sie stammt aus dem Jahr 2001 und wurde von Doug Laney, VP Research beim Marktforschungsinstitut Gartner (vormals Meta Group), geprägt.

  • Volume steht für die enormen Mengen an Daten, die in Unternehmen täglich produziert werden. Deren Aufkommen ist so groß und so komplex, dass sie mit den herkömmlichen Methoden der Datenverarbeitung nicht mehr gespeichert oder analysiert werden können.
  • Variety definiert die Vielfalt der Datentypen und -quellen. In der Regel sind Daten unstrukturiert und weisen auf den ersten Blick keinerlei Zusammenhänge auf. Mit Hilfe spezieller Algorithmen können sie aber strukturiert eingeordnet und auf Zusammenhänge untersucht werden. Neben herkömmlichen Datensätzen zählen hierzu auch Bilder, Videos oder Sprachaufzeichnungen.
  • Velocity zu guter Letzt bezeichnet die Geschwindigkeit, mit der Daten – am besten in Echtzeit – generiert, ausgewertet und weiterverarbeitet werden können.

Zu diesen ursprünglichen drei Vs kamen im Laufe der Zeit weitere Eigenschaften wie etwa

  • Veracity (Richtigkeit der Daten),
  • Validity (Aussagekraft),
  • Visibility (Sichtbarkeit) oder
  • Value (unternehmerischer Mehrwert)

hinzu, die sich gegenseitig beeinflussen beziehungsweise bedingen. Damit soll Big Data genauere Prognosen, mehr Markttransparenz, dank schnellerer und komplexerer Analysen auch schnellere Entscheidungen und einen verbesserten Kundenservice erlauben.

Big Data oder Small Data?

Aus Sicht von Experten steckt Big Data in der Immobilienbranche aber noch in den Kinderschuhen. Für Dr. Eva Luig, Stellvertretende Vorsitzende des ZIA-Ausschusses Recht, ist Big Data ein Thema – wenn auch nur in dem Sinne, dass die Unternehmen der Immobilienwirtschaft noch nicht dafür gerüstet sind oder dem Thema kritisch gegenüber stehen. "Man kann in der Immobilienbranche statt von Big Data eher von Small Data sprechen", sagt Luig. "Zwar gibt es – je nach Branchenzweig – große Datenmengen, diese sind aber in der Regel noch nicht vernetzt oder strukturiert."

Auch nach Meinung von Richard Ranftl, Manager Consulting bei der KPMG Wirtschaftsprüfungsgesellschaft, ist "Small Data" der passendere Begriff. "Berichte werden meist auf Basis von Datenanalysen – Stichpunkt Business Intelligence – aus ERP-Datenbanken in Excel aufbereitet und als PDF verarbeitet", weiß er aus seiner Projekterfahrung. Um beispielsweise Monatswerte zu vergleichen, würden im schlimmsten Fall die PDF als Ausdrucke zum Abgleich nebeneinandergelegt. Wirklich aussagekräftige Reports geb es in der Regel nicht. Und überraschend große Datenmengen würden auch nicht zusammenkommen.

Smart Data braucht eine Kombination mehrerer Disziplinen

Kernfrage sei außerdem, wie die Daten richtig genutzt und wie daraus Smart Data – also intelligente und aussagekräftige Informationen – gefiltert werden können. Denn nur wahllos sammeln führt zu keinem Erfolg.

"Die große Gefahr bei Big Data ist, dass Daten unreflektiert ins Unternehmen fließen. Indem ich alle nur möglichen Daten in das Unternehmen pumpe, besteht das Risiko, mich in diesen Daten zu verlieren", so Ranftl weiter. Man brauche ein klares Verständnis dafür, dass Daten nicht per se ein Benefit sind, sondern nur, wenn ein passender Use Case zugrunde liegt. Big Data sei immer eine Folge von Fragestellungen, die man beantwortet haben wolle, nicht umgekehrt. Ansonsten ziehe man keinen monetären Vorteil aus Big Data. "Das Konzept ist wichtig, nicht die Technik alleine", sagt Raftl.

Ein gutes Beispiel für die zunehmende Digitalisierung und damit wachsende Datenberge sehen beide Experten im Building Information Modeling (BIM), also der Optimierung von Gebäudetechnologie. Das Herz von BIM ist ein virtuelles Modell mit allen Daten rund um Planung, Bau sowie Betrieb und Instandhaltung – der immerhin längsten Phase im Lebenszyklus eines Gebäudes. Dieser digitale Zwilling soll helfen, die Prozesse besser
aufeinander abzustimmen. Denn oftmals muss für viel Geld nachgebessert werden, weil Probleme erst spät erkannt werden. Im besten Fall wird das 3D-Modell des Gebäudes mit nicht-geometrischen Daten wie Kosten, Terminen und technischen Informationen verknüpft, die heute meist verstreut bei den vielen am Bau Beteiligten vorliegen. Dadurch, dass BIM über den Bauprozess hinaus auf die gesamte Lebenszeit des Gebäudes ausgedehnt wird, kann man schon in der Planungsphase aber auch den Energieverbrauch optimieren.

Kunst der Datenanalyse

Hier kommt die Kunst der Datenanalyse zum Einsatz oder setzt Big Data an: Die großen Datenmengen werden anhand eines Such-Algorithmus auf Zusammenhänge überprüft. Dazu notwendig ist eine Kombination mehrerer Disziplinen, von klassischer Informatik über Data Science bis hin zu künstlicher Intelligenz (KI).

Richard Ranftl hat mit dem Segment "Retailimmobilien" ein weiteres Beispiel parat: "Da interessiert: Was sind die heutigen Märkte und wo kommen neue Märkte auf?" Um diese Fragen zu beantworten, arbeite dieses Segment etwa mit Telekommunikationsprovidern. Bewegungsdaten von Handykunden werden – anonym – ausgewertet. "Wenn ich weiß, an welchem Punkt die meisten Menschen vorbei gehen, kann ich die attraktivsten Lagen für eine Laden-Immobilie identifizieren", führt Raftl aus.

Aber nicht nur die räumliche Nähe veranlasst einen Kunden zum Besuch eines Stores, Gravitationsanalysen helfen bei der Standortplanung. Diese Analysen bilden die wahrscheinlichen Kundenströme unter Berücksichtigung der Wettbewerbssituation ab. "Ziehe ich noch Web Crawler und demografische Informationen beispielsweise zu den Beschäftigungsverhältnissen hinzu, sind der intelligenten Datengewinnung keine Grenzen mehr gesetzt", so Ranftl weiter.

Datenspeicherung: der kritische Punkt

Auf der anderen Seite ist die Speicherung und Übermittlung der gesammelten Daten ein kritischer Punkt – gerade vor dem Hintergrund, dass die Immobilienbranche mit personenbezogenen Daten, wie beispielsweise Namen, Kontodaten, Telefonnummern und E-Mail-Adressen von Mietern oder Interessenten, hantiert.

Diese Daten müssen revisionssicher abgelegt und vor einem Zugriff Dritter geschützt werden. Das galt auch schon vor der neuen Datenschutzgrundverordnung (EU-DSGVO), die am 25. Mai in Kraft getreten ist. "Die größte Gefahr bei Big Data liegt in der Gewährleistung des Datenschutzes", betont Dr. Eva Luig. "Man darf nicht wahllos Daten erheben und sich erst dann überlegen: Wie gehe ich damit um?" Daten müssten in einem Kontext erhoben werden, in dem sie sinnvoll sind, man sollte sie nur systemrelevant speichern. Daten von Kunden dürfen gemäß der Gesetze außerdem nur für bestimmte Bereiche und in Abstimmung freigegeben werden.

Viele verschiedene Akteure des Marktes wollen Zugriff auf die Gebäudedaten haben, einschließlich derer ihrer Nutzer. Mit fortschreitender Vernetzung – etwa durch Smart-Home-Technologie unterstützt von "Internet of Things"-Anwendungen oder Sensorik sowohl in der Anlagentechnik als auch der Mietfläche – werden immer mehr Daten über die Gebäude, deren Nutzung und deren Nutzer erzeugt. Zu diesem Ergebnis kommt die Deloitte Consulting GmbH in ihrer neuesten Studie "Daten sind das neue Gold. Immobiliendienstleistungen 2030". Demnach werden klassische Immobilienunternehmen Konkurrenz aus dem Technologiesektor bekommen. Etwa durch IBM, deren Sparte "IBM Interactive Experience (iX)" sich in den vergangenen Jahren zu einer der weltweit führenden Digital-Agenturen entwickelt hat.

Warum sollte also IBM die Wartung der zugrunde liegenden Anlagen in Zukunft noch den Immobiliendienstleistern oder deren Subunternehmen überlassen, wenn ein Eigeninteresse daran besteht, diese zur Datengenerierung selber durchzuführen? Und: Wird der Zugriff auf diese Daten zum Zwecke der Verwertung in Zukunft eine zweite Miete? "Diese Entwicklung sehe ich sehr kritisch. Es passiert genau das, was eigentlich nicht passieren sollte", erklärt Luig abschließend.

Das könnte Sie auch interessieren:

Investment: Mit Data Intelligence lohnende Immobilien finden

Smart Metering: Deutschland fährt mit angezogener Handbremse

Top-Thema DSGVO: Neue Regelungen für Immobilienverwalter

Schlagworte zum Thema:  Big Data, Datenmanagement