Die Finanzbranche erlebt eine Phase tiefgreifender Veränderung. Die Zunahme extremer Wetterereignisse und Naturkatastrophen1, wachsende regulatorische Anforderungen und steigende Erwartungen von Investoren und Öffentlichkeit erhöhen den Druck auf Banken und Finanzdienstleister, ihre Steuerungs- und Risikoprozesse und somit ihre Kernsysteme grundlegend zu modernisieren.
Die Zunahme extremer Wetterereignisse, insbesondere von sogenannte Sekundärgefahren (Starkregen, Sturm, Hagel, Waldbrände) zeigt sich in steigenden Schadensereignissen, zunehmenden Versicherungsprämien und sinkender Verfügbarkeit von Deckungen. Abhängig von der geographischen Lage fallen Risikoprofile innerhalb Deutschlands sehr unterschiedlich aus und sollten aufgrund mikroklimatischer und topographischer Unterschiede möglichst feingranular ausgewertet und vor allem nicht auf Gemeinde- oder Postleistellenebene pauschalisiert werden.
Ein weiteres Symptom der extrem hohen Dynamik ist die Verabschiedung von über 300 neuen ESG-bezogene Regularien und politischen Interventionen in nur 3 Jahren2. Regulatorische Vorgaben wie MaRisk (Mindestanforderungen an das Risikomanagement), CRR III (Capital Requirements Regulation), BelWertV (Beleihungswertverordnung), PfandBG (Pfandbriefgesetz), EBA-Leitlinien (Europäische Bankenaufsicht) sowie CSRD/ESRS (Corporate Sustainability Reporting Directive / European Sustainability Reporting Standards) verlangen heute eine systematische Integration von physischen Naturgefahren und klimabezogene Risiken in Strategie, Kreditprozesse, Risikoanalysen, Stresstests, Governance und Offenlegung. Somit ziehen trotz der allgemeinen Tendenz zu Anpassungen und Erleichterungen der ESG-Regulatorik, wie es etwa die Omnibus-Verordnung vorsieht, die Anforderungen für Banken insgesamt weiter an.
Die Finanzbranche erlebt eine Phase tiefgreifender Veränderung. Die Zunahme extremer Wetterereignisse und Naturkatastrophen1, wachsende regulatorische Anforderungen und steigende Erwartungen von Investoren und Öffentlichkeit erhöhen den Druck auf Banken und Finanzdienstleister, ihre Steuerungs- und Risikoprozesse und somit ihre Kernsysteme grundlegend zu modernisieren.
Die Zunahme extremer Wetterereignisse, insbesondere von sogenannte Sekundärgefahren (Starkregen, Sturm, Hagel, Waldbrände) zeigt sich in steigenden Schadensereignissen, zunehmenden Versicherungsprämien und sinkender Verfügbarkeit von Deckungen. Abhängig von der geographischen Lage fallen Risikoprofile innerhalb Deutschlands sehr unterschiedlich aus und sollten aufgrund mikroklimatischer und topographischer Unterschiede möglichst feingranular ausgewertet und vor allem nicht auf Gemeinde- oder Postleistellenebene pauschalisiert werden.
Ein weiteres Symptom der extrem hohen Dynamik ist die Verabschiedung von über 300 neuen ESG-bezogene Regularien und politischen Interventionen in nur 3 Jahren2. Regulatorische Vorgaben wie MaRisk (Mindestanforderungen an das Risikomanagement), CRR III (Capital Requirements Regulation), BelWertV (Beleihungswertverordnung), PfandBG (Pfandbriefgesetz), EBA-Leitlinien (Europäische Bankenaufsicht) sowie CSRD/ESRS (Corporate Sustainability Reporting Directive / European Sustainability Reporting Standards) verlangen heute eine systematische Integration von physischen Naturgefahren und klimabezogene Risiken in Strategie, Kreditprozesse, Risikoanalysen, Stresstests, Governance und Offenlegung. Somit ziehen trotz der allgemeinen Tendenz zu Anpassungen und Erleichterungen der ESG-Regulatorik, wie es etwa die Omnibus-Verordnung vorsieht, die Anforderungen für Banken insgesamt weiter an.
Darüber hinaus haben sich auch Investoren und Kapitalmarktteilnehmer positioniert. Fonds, Banken und institutionelle Anleger verlangen neben Informationen zu transitorischen Risiken auch immer mehr transparente Informationen zu physischen Risiken und sanktionieren unzureichende Daten mit schlechteren Refinanzierungsbedingungen oder geringerer Nachfrage.
Darüber hinaus gewinnt das Kundenerlebnis stetig an Bedeutung. Viele Banken übernehmen zunehmend eine beratende Rolle bei Transformationsfinanzierungen und positionieren sich dabei als kompetente Experten und Partner. Gleichzeitig wird ein strukturierter, auf den einzelnen Kunden zugeschnittener Dialog immer wichtiger und das über verschiedenste Kommunikationskanäle hinweg. Auch hier fehlen häufig die Daten zur Vorbelegung von Formularen und zur Automatisierung und Dunkelverarbeitung gesamter Prozesse.
Die äußeren Rahmenbedingungen lassen daher keinen Zweifel: Für den Finanzsektor wird die Datenqualität in Bezug auf physische Risiken für Entscheidungsprozesse zum kritischen strategischen Faktor für zukunftsfähige Geschäftsmodelle sowohl im Neugeschäft als auch bei der Bestands-Baufinanzierung.
Darüber hinaus haben sich auch Investoren und Kapitalmarktteilnehmer positioniert. Fonds, Banken und institutionelle Anleger verlangen neben Informationen zu transitorischen Risiken auch immer mehr transparente Informationen zu physischen Risiken und sanktionieren unzureichende Daten mit schlechteren Refinanzierungsbedingungen oder geringerer Nachfrage.
Darüber hinaus gewinnt das Kundenerlebnis stetig an Bedeutung. Viele Banken übernehmen zunehmend eine beratende Rolle bei Transformationsfinanzierungen und positionieren sich dabei als kompetente Experten und Partner. Gleichzeitig wird ein strukturierter, auf den einzelnen Kunden zugeschnittener Dialog immer wichtiger und das über verschiedenste Kommunikationskanäle hinweg. Auch hier fehlen häufig die Daten zur Vorbelegung von Formularen und zur Automatisierung und Dunkelverarbeitung gesamter Prozesse.
Die äußeren Rahmenbedingungen lassen daher keinen Zweifel: Für den Finanzsektor wird die Datenqualität in Bezug auf physische Risiken für Entscheidungsprozesse zum kritischen strategischen Faktor für zukunftsfähige Geschäftsmodelle sowohl im Neugeschäft als auch bei der Bestands-Baufinanzierung.
Mit dem wachsenden äußeren Handlungsdruck steigt zugleich der interne Handlungsbedarf. Viele Banken kämpfen mit heterogenen Datenbeständen und Datensilos, parallelen Systemen, fragmentierten und manuellen Prozessen und historisch gewachsenen Bewertungslogiken. Die Herausforderung liegt nicht nur darin, neue Anforderungen zu erfüllen, sondern diese auch mit bestehenden Strukturen zu verknüpfen.
Im Kreditgeschäft wird die präzise Bewertung von Sicherheiten zunehmend entscheidend. Standortinformationen, Gebäudezustand, Energieeffizienz oder Versicherbarkeit beeinflussen Beleihungswerte und Ausfallwahrscheinlichkeiten und damit direkt Pricing, Margen und Risikoparameter. Wo Daten fehlen oder ungenau sind, werden oft konservative Annahmen genutzt, die zu höheren Kapitalanforderungen führen.
Im Risikomanagement wiederum müssen Klimadaten im ICAAP (Internat Capital Adequacy Assessment Process), in Stresstests und limitorientierten Steuerungsverfahren eingebettet werden. Ohne umfangreiche Schadendaten und somit statistische Eintrittswahrscheinlichkeiten und Szenarien lassen sich die geforderten Analysen kaum valide durchführen. Dies stellt besonders kleine Finanzinstitute vor große Herausforderungen, da entsprechende Erfahrungswerte häufig nicht in ausreichendem Umfang vorliegen.
Im Meldewesen stellt die zunehmende ESG-Transparenzpflicht die Teams zudem vor enorme Mehrarbeit: Viele Institute müssen Daten manuell zusammenführen, kontrollieren und dokumentieren. Fehlende Evidenzketten und inkonsistente Daten führen zu Rückfragen der Aufsicht, zusätzlichem Abstimmungsaufwand und erhöhtem internen Druck auf Governance und Compliance.
Und nicht zuletzt tragen Vorständ:innen die Letztverantwortung (siehe Abbildung 2). Haftungsrisiken, Reputationsrisiken und potenzielle Maßnahmen der Aufsicht erhöhen den Anspruch an belastbare Prozesse und verlässliche Daten weiter.
Mit dem wachsenden äußeren Handlungsdruck steigt zugleich der interne Handlungsbedarf. Viele Banken kämpfen mit heterogenen Datenbeständen und Datensilos, parallelen Systemen, fragmentierten und manuellen Prozessen und historisch gewachsenen Bewertungslogiken. Die Herausforderung liegt nicht nur darin, neue Anforderungen zu erfüllen, sondern diese auch mit bestehenden Strukturen zu verknüpfen.
Im Kreditgeschäft wird die präzise Bewertung von Sicherheiten zunehmend entscheidend. Standortinformationen, Gebäudezustand, Energieeffizienz oder Versicherbarkeit beeinflussen Beleihungswerte und Ausfallwahrscheinlichkeiten und damit direkt Pricing, Margen und Risikoparameter. Wo Daten fehlen oder ungenau sind, werden oft konservative Annahmen genutzt, die zu höheren Kapitalanforderungen führen.
Im Risikomanagement wiederum müssen Klimadaten im ICAAP (Internat Capital Adequacy Assessment Process), in Stresstests und limitorientierten Steuerungsverfahren eingebettet werden. Ohne umfangreiche Schadendaten und somit statistische Eintrittswahrscheinlichkeiten und Szenarien lassen sich die geforderten Analysen kaum valide durchführen. Dies stellt besonders kleine Finanzinstitute vor große Herausforderungen, da entsprechende Erfahrungswerte häufig nicht in ausreichendem Umfang vorliegen.
Im Meldewesen stellt die zunehmende ESG-Transparenzpflicht die Teams zudem vor enorme Mehrarbeit: Viele Institute müssen Daten manuell zusammenführen, kontrollieren und dokumentieren. Fehlende Evidenzketten und inkonsistente Daten führen zu Rückfragen der Aufsicht, zusätzlichem Abstimmungsaufwand und erhöhtem internen Druck auf Governance und Compliance.
Und nicht zuletzt tragen Vorständ:innen die Letztverantwortung (siehe Abbildung 2). Haftungsrisiken, Reputationsrisiken und potenzielle Maßnahmen der Aufsicht erhöhen den Anspruch an belastbare Prozesse und verlässliche Daten weiter.
Die zentrale Ursache liegt fast immer in einer unzureichenden und zu ungenauen Datenbasis (siehe Abbildung 3). Zu große Zonierungen oder veraltete Modelle erfassen die Realität einzelner Gebäude nicht. Sie machen Risiken unscharf, Bewertungen volatil und Entscheidungsprozesse schwer nachvollziehbar.
Der zentrale Lösungsansatz liegt daher in präzisen, objektscharfen Risikodaten, die für jedes der 57 Millionen Gebäude in Deutschland verfügbar sind und per API nahtlos in bestehende Prozesse integriert werden können. Diese hochauflösenden Daten ermöglichen präzise, konsistente und automatisierbare Kreditprozesse, liefern verlässliche Risiko- und Szenariodaten für Stresstests, unterstützen automatische Neubewertungen nach Extremereignissen und machen bislang verborgene Klumpenrisiken sichtbar.
Durch eine zentrale, konsistente Datenbasis für physische Risiken und ESG-Faktoren entsteht ein einheitliches Risikosignal, das Kredit, Risiko, Strategie und Reporting miteinander verbindet. Integrierte Datenflüsse erleichtern zusätzlich die Offenlegung und das interne Reporting: Prozesse werden effizienter, Governance-Lücken werden geschlossen und die Gefahr regulatorischer Beanstandungen sinkt deutlich. So wird aus einem früheren Schwachpunkt ein robustes Fundament für eine zukunftsfähige, risiko- und steuerungsorientierte Bankpraxis, die neue Maßstäbe setzt.
Die zentrale Ursache liegt fast immer in einer unzureichenden und zu ungenauen Datenbasis (siehe Abbildung 3). Zu große Zonierungen oder veraltete Modelle erfassen die Realität einzelner Gebäude nicht. Sie machen Risiken unscharf, Bewertungen volatil und Entscheidungsprozesse schwer nachvollziehbar.
Der zentrale Lösungsansatz liegt daher in präzisen, objektscharfen Risikodaten, die für jedes der 57 Millionen Gebäude in Deutschland verfügbar sind und per API nahtlos in bestehende Prozesse integriert werden können. Diese hochauflösenden Daten ermöglichen präzise, konsistente und automatisierbare Kreditprozesse, liefern verlässliche Risiko- und Szenariodaten für Stresstests, unterstützen automatische Neubewertungen nach Extremereignissen und machen bislang verborgene Klumpenrisiken sichtbar.
Durch eine zentrale, konsistente Datenbasis für physische Risiken und ESG-Faktoren entsteht ein einheitliches Risikosignal, das Kredit, Risiko, Strategie und Reporting miteinander verbindet. Integrierte Datenflüsse erleichtern zusätzlich die Offenlegung und das interne Reporting: Prozesse werden effizienter, Governance-Lücken werden geschlossen und die Gefahr regulatorischer Beanstandungen sinkt deutlich. So wird aus einem früheren Schwachpunkt ein robustes Fundament für eine zukunftsfähige, risiko- und steuerungsorientierte Bankpraxis, die neue Maßstäbe setzt.
Unsere Analysen stützen sich auf ein außergewöhnlich breites Datenfundament. Dazu gehören hochaufgelöste Geländemodelle, Wetterdaten, historische Hindcasts, Satellitendaten zu Landnutzung und Erdbewegungen sowie amtliche Datenquellen. Dieses Datenfundament ermöglicht eine Präzision, die konventionelle Modelle deutlich übertrifft. Um Risiken möglichst präzise abbilden zu können, wird bei uns die Granularität der Zonierungen bei jedem Risiko individuell in Abhängigkeit der Zielstellung und Sinnhaftigkeit gewählt. So werden Sturmrisiken im 200-Meter-Raster, Starkregen im 1-Meter-Raster und Klimaprojektionen im 5-Kilometer-Raster abgebildet. Auf diese Weise erreichen wir beispielsweise in Hamburg eine 80.000%-Steigerung der Genauigkeit in Bezug auf die Stumzonierungen und eine 3.000%-Steigerung hinsichtlich Starkregen. Wo entsprechende Daten vorliegen, validieren wir die Modelle zusätzlich mit Bestands- und Schadendaten.
Unsere Analysen stützen sich auf ein außergewöhnlich breites Datenfundament. Dazu gehören hochaufgelöste Geländemodelle, Wetterdaten, historische Hindcasts, Satellitendaten zu Landnutzung und Erdbewegungen sowie amtliche Datenquellen. Dieses Datenfundament ermöglicht eine Präzision, die konventionelle Modelle deutlich übertrifft. Um Risiken möglichst präzise abbilden zu können, wird bei uns die Granularität der Zonierungen bei jedem Risiko individuell in Abhängigkeit der Zielstellung und Sinnhaftigkeit gewählt. So werden Sturmrisiken im 200-Meter-Raster, Starkregen im 1-Meter-Raster und Klimaprojektionen im 5-Kilometer-Raster abgebildet. Auf diese Weise erreichen wir beispielsweise in Hamburg eine 80.000%-Steigerung der Genauigkeit in Bezug auf die Stumzonierungen und eine 3.000%-Steigerung hinsichtlich Starkregen. Wo entsprechende Daten vorliegen, validieren wir die Modelle zusätzlich mit Bestands- und Schadendaten.
Für die Zukunftsprojektion integrieren wir drei etablierte Klimaszenarien (RCP 2.6, 4.5 und 8.5). Diese Representative Concentration Pathways bilden unterschiedliche Entwicklungen der globalen Treibhausgasemissionen ab. Sie beschreiben Zielpfade für zukünftige Treibhausgas-Konzentrationen bzw. Strahlungsantrieb bis 2100. Sie reichen von einem Szenario mit sehr strenger Klimapolitik und stark sinkenden Emissionen bis hin zu einer Entwicklung, in der Emissionen weiter zunehmen. Auf dieser Grundlage modellieren wir, wie sich Temperaturen, Niederschläge und Extremwetterereignisse in den kommenden Jahrzehnten verändern.
Die Projektionen betrachten wir in drei Zeiträumen: der nahen Zukunft bis 2044, der mittleren Zukunft von 2035 bis 2064 und der fernen Zukunft von 2070 bis 2100.
Auf dieser Grundlage berechnen wir zentrale Kennzahlen, die für Risikosteuerung, Meldewesen und strategische Planung zunehmend an Bedeutung gewinnen. Dazu zählt der AAL (Average Annual Loss) als langfristiger Erwartungswert für jährliche Schäden. Ergänzend dazu bildet der PML (Probable Maximum Loss) ein Szenario für sehr seltene, aber besonders schwere Ereignisse ab, etwa außergewöhnliche Starkregenlagen oder extreme Stürme mit Wiederkehrzeiten von einhundert oder zweihundert Jahren. Für diese Verlustkennzahlen berücksichtigen wir sowohl die Eintrittswahrscheinlichkeit der Gefahren als auch die Vulnerabilität einzelner Gebäude. Sie wird aus Schadendaten und Fachliteratur abgeleitet. Hinzu kommt der jeweilige Gebäudewert, der mithilfe unserer Gebäudedaten ermittelt wird.
So entsteht ein in Deutschland einzigartig präzises und objektscharfes Risikomodell. Es unterstützt EU-Taxonomie konforme Bewertungen, die operative Risikosteuerung, Stresstests sowie strategische Entscheidungen zu Kapital und Produkten.
Für die Zukunftsprojektion integrieren wir drei etablierte Klimaszenarien (RCP 2.6, 4.5 und 8.5). Diese Representative Concentration Pathways bilden unterschiedliche Entwicklungen der globalen Treibhausgasemissionen ab. Sie beschreiben Zielpfade für zukünftige Treibhausgas-Konzentrationen bzw. Strahlungsantrieb bis 2100. Sie reichen von einem Szenario mit sehr strenger Klimapolitik und stark sinkenden Emissionen bis hin zu einer Entwicklung, in der Emissionen weiter zunehmen. Auf dieser Grundlage modellieren wir, wie sich Temperaturen, Niederschläge und Extremwetterereignisse in den kommenden Jahrzehnten verändern.
Die Projektionen betrachten wir in drei Zeiträumen: der nahen Zukunft bis 2044, der mittleren Zukunft von 2035 bis 2064 und der fernen Zukunft von 2070 bis 2100.
Auf dieser Grundlage berechnen wir zentrale Kennzahlen, die für Risikosteuerung, Meldewesen und strategische Planung zunehmend an Bedeutung gewinnen. Dazu zählt der AAL (Average Annual Loss) als langfristiger Erwartungswert für jährliche Schäden. Ergänzend dazu bildet der PML (Probable Maximum Loss) ein Szenario für sehr seltene, aber besonders schwere Ereignisse ab, etwa außergewöhnliche Starkregenlagen oder extreme Stürme mit Wiederkehrzeiten von einhundert oder zweihundert Jahren. Für diese Verlustkennzahlen berücksichtigen wir sowohl die Eintrittswahrscheinlichkeit der Gefahren als auch die Vulnerabilität einzelner Gebäude. Sie wird aus Schadendaten und Fachliteratur abgeleitet. Hinzu kommt der jeweilige Gebäudewert, der mithilfe unserer Gebäudedaten ermittelt wird.
So entsteht ein in Deutschland einzigartig präzises und objektscharfes Risikomodell. Es unterstützt EU-Taxonomie konforme Bewertungen, die operative Risikosteuerung, Stresstests sowie strategische Entscheidungen zu Kapital und Produkten.
1 NatCat Service, Munich RE
2 PRI Responsible Investment Regulation Database