620 Ingenieurwissenschaften und zugeordnete Tätigkeiten
Filtern
Erscheinungsjahr
Dokumenttyp
- Buch (Monographie) (786)
- Konferenzveröffentlichung (383)
- Wissenschaftlicher Artikel (340)
- Bericht (63)
- Teil eines Buches (Kapitel) (25)
- Arbeitspapier (23)
- Sonstiges (1)
Sprache
- Deutsch (1316)
- Englisch (302)
- Mehrsprachig (3)
Schlagworte
- Deutschland (620)
- Germany (616)
- Forschungsbericht (470)
- Research report (459)
- Bewertung (297)
- Sicherheit (284)
- Safety (282)
- Versuch (253)
- Test (251)
- Evaluation (assessment) (242)
Institut
- Sonstige (712)
- Abteilung Straßenverkehrstechnik (267)
- Abteilung Straßenbautechnik (244)
- Abteilung Fahrzeugtechnik (229)
- Abteilung Brücken- und Ingenieurbau (218)
- Abteilung Verhalten und Sicherheit im Verkehr (55)
- Stabstelle Presse und Öffentlichkeitsarbeit (15)
- Präsident (11)
- Stabstelle Forschungscontrolling, Qualitätsmanagement (2)
- Zentralabteilung (1)
Deutschland ist ein Gebiet mit überwiegend niedriger Seismizität. Viele Anforderungen der aktuellen europäischen Erdbebennorm für Brücken DIN EN 1998-2 sind daher für eine sichere Auslegung von Brücken in Deutschland in dieser Art nicht angemessen, sodass deren vollständige Anwendung weder notwendig noch wirtschaftlich ist. In diesem Forschungsvorhaben wurde ein Konzept für eine vereinfachte Erdbebenauslegung für Straßenbrücken in Deutschland entwickelt. Die so ausgelegten Brücken erfüllen bei minimalem Aufwand in der Planungsphase alle notwendigen Anforderungen an Brücken aus DIN EN 1998-2.
Das Konzept ist für die Bemessung von Neubauten gedacht und beinhaltet vier Stufen:
I. keine Erdbebenauslegung notwendig;
II. vereinfachte Auslegungsregeln ohne explizite Erdbebenberechnung;
III. vereinfachte Erdbebenberechnung;
IV. Erdbebenbemessung nach DIN EN 1998-2 + NA.
Für jede Stufe ist in Abhängigkeit vom Brückentyp und der Überbaulänge eine maximal zulässige Erdbebenintensität definiert. Die Erdbebenintensität wird beschrieben als Produkt aus Bemessungs-Bodenbeschleunigung und Bodenfaktor ag·S.
Das Konzept ist ausgearbeitet für ein- und zweifeldrige Plattenbalkenbrücken in Stahlbeton, Spannbeton und Verbundbauweise, für ein- und zweifeldrige Plattenbrücken in Stahlbeton sowie für integrale Rahmenbrücken in Stahlbeton, Spannbeton und Verbundbauweise. Für diese Brückentypen und für verschiedene Parametervariationen wurden numerische Modelle erstellt, diese für gewöhnliche Lasten ausgelegt und anschließend das Tragverhalten unter Erdbeben mittels modalen Antwortspektrenverfahren untersucht. Die Auswertung erfolgte im Hinblick auf die Ausnutzung relevanter Zustandsgrößen unter Erdbeben im Verhältnis zu gewöhnlichen Lasten.
Die Ergebnisse der Untersuchungen wurden in Formulierungsvorschläge für Regelwerke überführt, die den Anwendungsbereich, Anforderungen an die Brückentypen, vereinfachte Auslegungsregeln sowie vereinfachte Berechnungsverfahren für Straßenbrücken in deutschen Erdbebengebieten enthalten.
Das Ziel dieses Projekts war die Konzeptionierung und der Bau abgeschlossener photokatalytischer Reaktoren (Tunnelkassetten), mit denen die Stickoxidbelastung im Tunnel „Rudower Höhe“ in Berlin in einem relevanten Maß von 15 % reduziert werden kann. Grundsätzlich teilte sich das Projekt in zwei Phasen auf, wobei in der Phase 1 ein geschlossenes System mit geeignetem Photokatalysator und Leuchtmittel entwickelt werden sollte. Im Rahmen des Projekts stellte sich heraus, dass sich für diese Fragestellung eine Tunnelkassette mit den Abmessungen 1,5 x 3 x 4 m³ sowie drei Lüftern mit einem Volumenstrom von je 1.500 m³/h geeignet zeigte. Zum photokatalytischen Abbau der Stickoxide dienen 13 mit einem Zement-Photoment-Gemisch beschichtete Schaumstoffmatten. Als Leuchtmittel eignen sich die Leuchtstoffröhren Philips Cleo Performance 80. Anhand von Simulationen zeigte sich, dass für eine Stickoxidreduktion von 15 % jeweils 50 Tunnelkassetten auf beiden Seiten am Ende des Tunnels installiert werden sollten.
Die Umsetzung dieser Ergebnisse war in Phase 2 des Projekts geplant. Aufgrund des Ausfalls eines Unterauftragnehmers, der für die Herstellung, den Einbau und den Betrieb der Tunnelkassetten verantwortlich war, konnte diese Phase jedoch lediglich in Ansätzen verwirklicht werden. So stellte die TU Berlin eigenständig eine Demonstrator-Tunnelkassette her, an der die Funktionalität durch einen längeren Testbetrieb nachgewiesen werden konnte. Bezüglich des Photokatalysators ergab sich jedoch die Problematik, dass diese infolge der Alterung geringere Abbauraten erreicht.
Als Grundlage für die Konzeption der Tunnelkassetten wurden zudem umfangreiche Messungen am Tunnel „Rudower Höhe“ vorgenommen. Labortechnische Bewertungen der photokatalytischen Materialien erfolgte an Messaufbauten nach DIN ISO 22197-1. Zudem wurde ein Reaktor speziell für die Abschätzung der Wirksamkeit der Tunnelmatten erarbeitet, der eine beidseitige Beleuchtung sowie eine Durchströmung erlaubt.
Bei einem Anprall gegen ein ortsfestes Hindernis ist mit tiefen Intrusionen in den Fahrzeuginnenraum zu rechnen, die zu schwersten Verletzungen führen können. Untersuchungen haben gezeigt, dass Kollisionen mit künstlichen Hindernissen an der Fahrbahnseite, wie Gabelständer, Trimasten, zu 80 % frontal angeprallt werden.
Ziel des Forschungsprojektes war die Bewertung der passiven Sicherheit von Gabelständern und Trimasten, um anhand der Ergebnisse Empfehlungen für die Notwendigkeit einer Absicherung durch Schutzeinrichtungen zu erarbeiten.
Als Methode wurde ein Mix aus Realversuchen und Finiten Elemente Simulationen gewählt. Ausgangspunkt bildeten je zwei Validierungsversuche für den Gabelständer und Trimast. Aufbauend auf diesen Versuchen wurden Simulationsmodelle validiert. Die Simulationsmodelle wurden modifiziert und die Insassensicherheit nach Kriterien der EN 12767 bewertet. Wesentliche Kriterien waren der Index für die Schwere der Beschleunigung (ASI: Acceleration Severity Index) und die theoretische Anprallgeschwindigkeit des Kopfes (THIV: Theoretical Head Impact Velocity).
Der wesentliche Faktor zum Erreichen einer passiven Sicherheit wurde im Abreißen der Gurtrohre beim Anprall festgestellt. Ein Abreißen der Gurtrohre führt zum Unterschreiten der Grenzwerte für den ASI und THIV gemäß EN 12767. Von Bedeutung sind in diesem Zusammenhang der Gurtrohrdurchmesser und die Ausführung der Fußplatten. Fixierte Fußplatten begünstigen ein Abreißen der Gurtrohre und ein Unterschreiten der Grenzwerte für den ASI und insbesondere für den THIV.
Die Masthöhe, die Spreizung und das Schild selbst haben nur einen geringen Einfluss auf die beiden Kennwerte. Unterschiedliche Diagonalrohranordnungen, Schwächung der Gurtrohre oder Reduktion des Schweißnahtumfangs wirken sich positiv auf das Abreißen der Gurtrohre aus und führen zum Unterschreiten der Grenzwerte des ASI und THIV
Vorbereitung von Großversuchen an Stützkonstruktionen aus Gabionen – Einzelgabionen mit Steinfüllung
Gabionen haben sich in den letzten Jahren als kostengünstige Bauelemente für Stützkonstruktionen etabliert. Bisher existiert allerdings für Stützkonstruktionen aus Gabionen weder ein realitätsnahes rechnerisches Nachweisverfahren für die innere Standsicherheit eines Einzelelements noch ein definiertes Prüfverfahren für Belastungsversuche. Aus diesem Grund sollen die vorhandenen Regelwerke überarbeitet und angepasst werden.
Im vorliegenden Forschungsprojekt wurden sechs zentrische Belastungsversuche an 3-seitig gelagerten Gabionen durchgeführt. Die Einzelkörbe wurden analog zum häufigen Vorgehen auf einer Baustelle vor Ort befüllt und handgerichtet. Es wurden drei gleiche Versuche mit Lindlarer Grauwacke und 3 unterschiedliche Versuche mit Füllungen aus Granit durchgeführt. In diesem Bericht werden die Belastungsversuche, sowie das Deformationsverhalten der Gabionen beschrieben und analysiert.
Basierend auf den Ergebnissen des vorherigen Projektes F1100.2315000 „Vorbereitung von Großversuchen an Stützkonstruktionen aus Gabionen“ wurden die Erkenntnisse aus den Sandversuchen und die Messtechnik aus den bisherigen Versuchen übernommen.
Die Gabionen reagierten mit großer Verformung des Frontgitters auf die Belastung. Die Distanzhalter wirkten sich positiv auf die Stabilität der Gabione aus. Hohe Zugkräfte in den Distanzhaltern resultierten aus der horizontalen Deformation des Frontgitters und führten zum langsamen Aufbiegen der Distanzhalterhaken, bis diese schließlich versagten.
Eine höhere Steifigkeit der Gabione und somit niedrigere Verformungsraten lassen sich durch die Wahl eines festen, homogenen Füllmaterials mit hohem Reibungswinkel erzielen. Eine Verdichtung des Füllmaterials trägt ebenso dazu bei. Eine hohlraumarme Verfüllung, welche Materialumlagerungen in der Gabione unter Belastung verhindert, ist essentiell für die innere Standsicherheit.
Die Gabionen weisen ein plastisches Verformungsverhalten auf, wodurch ein eindeutiger Bruchpunkt in der Regel nicht vorliegt. Aus diesem Grund wurde für jeden Versuch eine Bruchfestigkeit aufgrund von anhaltender Deformation des Frontgitters und Stauchung der Gabione bzw. eines Aufbiegens der Distanzhalterhaken festgelegt. Für alle Gabionen wurden äquivalente Betondruckfestigkeiten ermittelt.
Die hier untersuchten Gabionen zeichneten sich insgesamt durch niedrige Bruchfestigkeiten aus.
Basierend auf den Erfahrungen aus den durchgeführten Belastungsprüfungen in diesem Forschungsprojekt wurden abschließend Empfehlungen zur Durchführung eines Prüfverfahrens für zentrische Belastungsprüfungen an 3-seitig gelagerten einzelnen Gabionen formuliert.
Für einen hoch effizienten, nachhaltigen und kostenminimierten Winterdienst ist der Einsatz von Sole von großer Bedeutung. Frühere Forschungsarbeiten und die praktischen Erfahrungen haben das bestätigt. Damit für die Soleverwendung bei der FS30- oder FS100-Streuung ausreichend Sole, hergestellt aus Natriumchlorid, mit guter Qualität zur Verfügung steht, müssen geeignete Tausalzlöseanlagen beschafft und betrieben werden. Damit kann eine ausreichende Verfügbarkeit von Sole sichergestellt werden. In vielen Fällen ist die Eigenherstellung von Sole auch wirtschaftlicher als eine Fremdbeschaffung.
Erste Anforderungen an Tausalzlöseanlagen wurden in einem aktuellen europäischen Normungsprojekt formuliert. Allerdings wurden die technischen Zusammenhänge bei der Soleherstellung bislang nicht untersucht und es sind verschiedene Probleme bei der Soleherstellung berichtet worden.
Ziel der Forschungsarbeit war die Beurteilung der Leistungsfähigkeit unterschiedlicher technischer Ausführungen von Tausalzlöseanlagen. Dabei wurden die Zusammenhänge zwischen der verfahrenstechnischen und sonstigen technischen Ausführung der Anlagen, den Umfeldbedingungen und der Salzqualität untersucht. Als Nutzen soll zukünftig eine leistungsfähige und zuverlässige Arbeit der Tausalzlöseanlagen erreicht werden, die kostengünstig die ausreichende Bereitstellung von Sole für einen effektiven Winterdienst ermöglichen.
Schwerpunkte der Bearbeitung stellten eine Online-Umfrage bei Straßenbauverwaltungen in Deutschland, Österreich, den Niederlanden und in der Schweiz dar, um deren Erfahrungen und mögliche Optimierungspotenziale bei der Produktion von Sole zu erfassen. Aufbauend auf den Umfrageergebnissen wurden in Deutschland praktische Untersuchungen mit Salzlöseanlagen, die mit aufwärts gerichtetem Wasserdurchfluss oder Zwangsumlauf arbeiteten, durchgeführt. Die Abhängigkeiten der Soleproduktionskapazität und der Solequalität vom Systemdesign, der verwendeten Salzqualität und den Temperaturen des Lösewassers und des Salzes wurden bestimmt. Die Ergebnisse verschiedener Methoden zur Online-Messung und manuellen Messung der Solekonzentration wurden mit Laborergebnissen verglichen.
Alle erzielten Ergebnisse wurden verwendet, um technische Anforderungen an Tausalzlöseanlagen und Empfehlungen für deren Betrieb und für die Beschaffung neuer Anlagen einschließlich der Auswahl der Salzqualität zu formulieren.
Unbedingt notwendige Bestandteile einer Leistungsbeschreibung für Tausalzlöseanlagen wurden identifiziert (u.a. Anforderungen an die Produktionsleistung und Solequalität (Konzentration, Reinheit), Anforderungen der Arbeitssicherheit und des Umweltschutzes, Vorgaben für die Mess-, Steuer- und Regeltechnik, Abnahmekriterien).
Straßenbegleitflächen können wertvolle Lebensräume für eine Vielzahl von Tier- und Pflanzenarten bieten und damit einen Beitrag zum Erhalt und der Förderung der Biodiversität leisten. Gleichzeitig kommen aber auch gebietsfremde Pflanzenarten (Neophyten) auf Straßenbegleitflächen vor und breiten sich bevorzugt entlang dieser aus. Einige dieser Arten können eine Gefahr für die Biodiversität darstellen, hohe ökonomische Kosten verursachen oder die menschliche Gesundheit gefährden.
Ziel der vorliegenden Untersuchung war eine Erhebung der Verbreitung von Neophyten, den auftretenden Problemen und gegebenenfalls bereits ergriffener Maßnahmen zu deren Kontrolle auf Begleitgrün der Bundesfernstraßen in Deutschland. Um eine verlässliche Einschätzung zu erhalten, wurde eine online-Umfrage entwickelt, die an die zuständigen Straßen- und Autobahnmeistereien der Bundesländer gerichtet wurde. Dabei wurden 12 Fragen zu 10 ausgewählten Neophyten gestellt. Die Rücklaufrate betrug über 40 %.
Laut der Angaben der Teilnehmer kommen die meisten der in der Umfrage aufgeführten Neophyten häufig auf Straßenbegleitflächen vor. Die beiden Arten, die laut der Umfrage am häufigsten vorkommen, die Herkulesstaude (Heracleum mantegazzianum) und der japanische Staudenknöterich (Fallopia japonica), verursachen auch die häufigsten Probleme in den Zuständigkeitsbereichen. Die Teilnehmer gaben an, dass die Herkulesstaude zu gesundheitlichen Problemen, der Staudenknöterich zu Sichtbehinderungen und beide Arten zu einem erhöhten Pflegeaufwand führen. Beide Arten werden in einem Großteil der Zuständigkeitsbereiche aktiv bekämpft. Die Herkulesstaude wird relativ erfolgreich durch manuelle oder chemische Maßnahmen beseitigt, während Maßnahmen gegen den Staudenknöterich größtenteils nicht erfolgreich sind. Auch Maßnahmen gegen die anderen aufgeführten Neophyten führen nur selten zu einer vollständigen und dauerhaften Beseitigung der Bestände.
Die Umfrage verdeutlicht, dass ein dringender Bedarf an Maßnahmen zur Kontrolle von Neophyten, vor allem des Staudenknöterichs, besteht. Auf Grundlage dieser Ergebnisse sollen effiziente Bekämpfungsmaßnahmen und Strategien zur Vermeidung der Einbringung und Ausbreitung von Neophyten entwickelt werden. Mittel- bis langfristig sollen diese zur (Kosten-)Entlastung bei der Unterhaltung bestehender und der Planung zukünftiger Infrastruktureinrichtungen führen.
Die Fahrausbildung fungiert als ein zentraler Bezugspunkt für alle anderen Maßnahmen der Fahranfängervorbereitung: Von ihr müssen die Impulse, die fachliche Orientierung und die Koordination für die Weiterentwicklung des Gesamtsystems der Fahranfängervorbereitung ausgehen. Die derzeitige Fahrausbildung kann diesem hohen Anspruch jedoch noch nicht gerecht werden. Ihr fehlen sowohl wichtige pädagogisch-psychologische Steuerungsinstrumente (z. B. Kompetenzrahmen inklusive Mindest-Ausbildungsinhalte, Ausbildungsplan, Evaluationskonzept) zur eigenen Qualitätssicherung als auch fachlich-strukturelle Voraussetzungen für die Realisierung von Aktivitäten zu ihrer Weiterentwicklung im Rahmen des Gesamtsystems der Fahranfängervorbereitung (z. B. eine Fachkommission).
Zur Behebung der genannten Defizite wurde im vorliegenden Projekt ein Konzept für die Optimierung der Fahrausbildung zum Erwerb einer Fahrerlaubnis der Klasse B erarbeitet. Den Kern dieses Konzepts bilden ein Kompetenzrahmen und ein Ausbildungsplan. Im Kompetenzrahmen wurden sowohl die für den Erwerb von Fahr- und Verkehrskompetenz erforderlichen Kompetenzen als auch die zugehörigen Kompetenzstandards und Mindest-Ausbildungsinhalte nach aktuellen wissenschaftlichen Maßstäben festgelegt. Auf dieser Grundlage wurden dann im Ausbildungsplan die zum Erwerb der Kompetenzen zu vermittelnden Mindest-Ausbildungsinhalte den verschiedenen Lehr-Lernformen (Selbständiges Theorielernen, Theorieunterricht, Fahrpraktische Ausbildung) unter inhaltlichen, pädagogisch-psychologischen und fachdidaktischen Gesichtspunkten zugeordnet und mit Blick auf den Lehr-Lernprozess zeitlich angeordnet. Darüber hinaus wurden im Rahmen des vorliegenden Projekts inhaltliche, methodische und mediale Gestaltungsempfehlungen für das Selbständige Theorielernen und den Theorieunterricht bereitgestellt. Schließlich wurden ein belastbarer Implementationsplan und ein geeignetes Evaluationskonzept beschrieben, mit dem die Lern- und Sicherheitswirksamkeit der optimierten Fahrausbildung noch in der Implementationsphase weiter erhöht (Formative Evaluation) und danach summarisch überprüft (Summative Evaluation) werden kann.
Die Anpassung von Bestandsbrücken für zukünftige Verkehrsbelastungen ist häufig mit der Veränderung oder Erneuerung der Fahrbahn verknüpft. Der geänderten Situation entsprechend sind statische Nachweise zur Tragsicherheit erforderlich. Die Nachrechnungsrichtlinie [1] für den Teil Mauerwerk soll mit der Nachrechnung bestehender Gewölbebrücken validiert, sowie auf den aktuellen Stand der computerunterstützten Nachweisführung angepasst werden.
Bei Bogenbrücken aus Mauerwerk und unbewehrtem Beton ist das sogenannte Stützlinienverfahren vorteilhaft anwendbar, da hiermit die Strukturnichtlinearität infolge der belastungsabhängigen Rissbildung mit klaffenden Fugen berücksichtigt wird.
Beim Nachweis von Mauerwerksstrukturen sind im Allgemeinen die drei folgenden Nichtlinearitäten zu berücksichtigen:
• Strukturnichtlinearität (klaffende Fugen)
• Geometrische Nichtlinearität (Knicken)
• Materialnichtlinearität („plastisches“ Verhalten von Mörtel)
Die Analyse nichtlinearer Aufgabenstellungen erfordert deshalb vertiefte Fachkenntnisse des Ingenieurs. Im Gegensatz zur linear-elastischen Berechnung sind hier Sensitivitätsuntersuchungen notwendig, damit sich die Einflüsse bestimmter Eingangswerte besser beurteilen lassen.
Das Baumaterial Mauerwerk lässt sich bei genauerer Analyse nicht mehr als elastisches Kontinuum abbilden, da sich die Struktur entsprechend der Einwirkungskombination durch Rissbildung mit sich öffnenden Fugen verändert. Mithilfe der Methode der finiten Elemente entsteht mit Einbau von Kontaktelementen zwischen den Fugenrändern der Steine das sogenannte Diskontinuumsmodell. Die verknüpften Kontaktelemente übertragen nur Druck- und Reibungskräfte. Dieses wichtige Detail ermöglicht die realitätsnahe Modellierung von Mauerwerk mit Rissbildung unter Laststeigerung.
Die Tragfähigkeit von Mauerwerk wird neben der Steindruckfestigkeit im Besonderen von der Steinzugfestigkeit bestimmt. Bei Bogenbrücken aus quaderförmigem Natursteinmauerwerk spielt wegen der verhältnismäßig geringen Fugendicke die Mörteldruckfestigkeit eine untergeordnete Rolle. In der aktuellen Normung wird vereinfachend auf der Widerstandsseite nur ein einziger Sicherheitsbeiwert Ƴm festgelegt. Zur rechnerischen Erschließung weiterer Tragreserven lassen sich aber auch die Einzelkomponenten auf der Widerstandsseite absichern.
1. Die Teilsicherheitsfaktoren basieren auf folgendem Nachweisprinzip:
Berechnung der Beanspruchung der Konstruktion über Spannungen mit Schnittgrößen (Stützlinie oder Stützfläche); Darstellung als Beanspruchungspfad
2. Ermittlung der Beanspruchbarkeit des Mauerwerks (Darstellung als Bemessungs-Traglastkurve)
3. Vergleich Beanspruchung ≤ Beanspruchbarkeit
Am Beispiel von fünf Gewölbebrücken aus Mauerwerk wird die Nachrechnungsrichtlinie für den Einsatz aktueller Rechentechnik und dem aktuellen Stand der Normung validiert. Im Zuge dieses Forschungsvorhabens sind für die praktikable Nachweisführung Vorschläge zur Aktualisierung der Richtlinie dokumentiert.
Dabei wurden folgende Parameter untersucht:
• Geometrie mit verschiedener Spannweite, Stichhöhe, Bogendicke, Kreisbögen mit konstantem und konischem Querschnittsverlauf vom Scheitel bis zum Kämpfer
• Steifigkeit der Bögen mit E-Modul für Mauerwerk
• Steifigkeit der Aufbauten als Auffüllung (Hinterfüllung)
• Laststellungen mit Lastverteilung in Querrichtung (mitwirkende Breite)
• Einwirkung aus Temperatur
• Mauerwerksart: Ziegel- Natursteinmauerwerk
• Mauerwerk verschiedener Festigkeiten
• Bemessungsfestigkeit aus Sicherheitskonzept
• Bemessungs-Tragfähigkeit unter ausmittiger Beanspruchung (Bemessungs-Traglastkurve)
Die Ausnutzungsgrade für die Nachweise wurden dokumentiert:
1. Grenzzustand der Tragfähigkeit (GZT)
• Ausnutzungsgrad für maßgebende Einwirkungskombination
• Ausweis der Tragreserve für eine mögliche Laststeigerung (faktorisierbare Lastbilder)
2. Grenzzustand der Gebrauchstauglichkeit (GZG)
• Nachweis, dass unter dem 1,0-fachen Lastmodell der Querschnitt rechnerisch nur bis zur Querschnittsmitte aufreißen (klaffen) darf, d.h. Resultierende der Beanspruchung mit Ausmitte bis zur 2. Kernweite (m ≤ 2)
• Nachweis, dass unter ständigen Einwirkungen der Querschnitt rechnerisch überdrückt ist, d. h. Resultierende der Beanspruchung mit Ausmitte bis zur 1. Kernweite (m ≤ 1)
Die Beispielbrücken ließen sich auf Grundlage der ergänzten Nachrechnungsrichtlinie nachweisen, wobei alle geforderten Grenzzustände eingehalten sind.
Jahresbericht 2021
(2022)
Im Jahresbericht 2021 präsentiert die BASt eine Auswahl von Forschungsaktivitäten des Jahres 2021.
In fast 40 Beiträgen werden Projekte aus 5 Fachbereichen vorgestellt. Das Themenspektrum reicht von digitalen Transformationen im Brücken- und Ingenieurbau über nachhaltigen, klimaresistenten Straßenbau, effiziente, ökologische und digitale Verkehrstechnik bis hin zur automatisierten, umweltbewussten Fahrzeugtechnik sowie zur Sicherheit aller, die am Verkehr teilnehmen.
Schlaglichter sowie Zahlen und Fakten in kurzer und knapper Form ergänzen den Bericht.
Intelligente Verkehrssystem-Dienste (IVS-Dienste) bilden heute in den verschiedensten Anwendungsbereichen des Straßenverkehrs eine wichtige technologische und organisatorische Basis. Die durch die zunehmende Bedeutung von Informations- und Kommunikationstechnik getriebene Vernetzung dieser Systeme stellen neue Herausforderungen an die Einführung neuer und Integration bestehender IVS-Dienste. Zur Sicherstellung einer intelligenten Mobilität in Deutschland und Europa ist die Durchgängigkeit von Informationen und eine einhergehende Integration der entsprechenden Systeme eine wichtige Voraussetzung. Neben der oftmals im Vordergrund stehenden technischen Sichtweise sind vor allem auch die inhaltliche und organisatorische Kooperation zwischen den mit der Erbringung von Mobilitätsdienstleistungen befassten Akteuren zu betrachten.
Intelligente Mobilität mit für die Reisenden durchgängigen Angeboten erfordert insbesondere, dass die beteiligten Akteure gemeinsame inhaltliche Zielsetzungen formulieren. Hierzu ist ein gegenseitiges Verständnis der jeweiligen Aufgaben sowie der für die Aufgabenerbringung etablierten Prozesse notwendig. Auf der Basis eines gemeinsamen Verständnisses gilt es dann, die erforderlichen Schnittstellen und Prozesse inhaltlich, organisatorisch und technisch festzulegen und zu implementieren.
Ziel des Projektes ist die Entwicklung einer national verbindlich eingeführten IVS-Referenzarchitektur für zuständigkeitsübergreifendes Verkehrsmanagement zur Sicherstellung eines koordinierten und harmonisierten Vorgehens bei der Einführung und Nutzung neuer und der Vernetzung bestehender IVS-Dienste im zuständigkeitsübergreifenden Verkehrsmanagement.
Dabei werden folgende Erwartungen an die IVS-Referenzarchitektur für zuständigkeitsübergreifendes Verkehrsmanagement gestellt:
• Schaffung eines allseits akzeptierten Verständnisses von Verkehrsmanagement (Semantik) als Voraussetzung für zuständigkeitsübergreifende und für den Verkehrsteilnehmer durchgängige IVS-Verkehrsmanagement-Dienste/Diensteprofile sowie zur Erleichterung der Entwicklung und Einführung von IVS-Diensten im zuständigkeitsübergreifenden Kontext.
• Entwicklung von funktionalen, organisatorischen und technischen Anforderungsprofilen für die Harmonisierung der Kooperation und Kollaboration öffentlicher Straßenbetreiber und Service-Provider und für die Interoperabilität ihrer Systeme.
• Schaffung eines für den Verkehrsteilnehmer wahrnehmbaren zusätzlichen Nutzens durch die Überwindung von zuständigkeitsbedingten Brüchen in der Bereitstellung von IVS-Verkehrsmanagement-Diensten und in deren Wahrnehmung durch den Verkehrsteilnehmer (sog. Common Look & Feel).
Basierend darauf bedeutet eine Verankerung der zuständigkeitsübergreifenden Anforderungen als Bestandteil von Ausschreibungen eine Erhöhung der Planungs- und Investitionssicherheit für Straßenbetreiber und Service-Provider, sowie die Industrie zur Vermeidung technologischer „Insellösungen“. Generell sind alle Stakeholder und Akteure, die am zuständigkeitsübergreifenden Verkehrsmanagement beteiligt sind, die Schnittstellen dazu haben oder sich in sonstiger Weise damit befassen, von der IVS-Referenzarchitektur für zuständigkeitsübergreifendes Verkehrsmanagement betroffen.
Die im Zuge des Nationalen Projekts IVS-Architektur Straße betrachteten IVS-Dienste des zuständigkeitsübergreifenden Verkehrsmanagements wurden aus Sicht des öffentlichen Straßenbetreibers für Stadt- und Fernstraßen betrachtet. So ist das zuständigkeitsübergreifende Verkehrsmanagement die Verkehrsbeeinflussung durch Strategien mit dem Ziel, die Verkehrsnachfrage und das Angebot an Verkehrssystemen über die Grenzen von hoheitlich eigenständigen Baulastträgern und Betreibern hinweg optimal aufeinander abzustimmen.
Im Zuge der Erstellung des Rahmenwerks für Architekturen Intelligenter Mobilitätsdienste (RAIM; auch IVS-Rahmenarchitektur; siehe Projekt FE 03.0483/2011/IRB) wurde ein generelles Modell zur Anpassung des TOGAF-Vorgehensmodells an die Aufgaben zur Erstellung einer IVS-Rahmenarchitektur entwickelt. Dazu wurden die einzelnen Schritte (Steps) jeder ADM-Phase auf den IVS-Bereich zugeschnitten, womit ein methodisches und umfassendes Vorgehen für die Entwicklung einer Architektur sichergestellt wurde.
Im Rahmen der Erstellung der Referenzarchitektur wurden die einzelnen Phasen und Schritte des TOGAF ADM-Vorgehensmodells auf die spezifischen Gegebenheiten des zuständigkeitsübergreifenden Verkehrsmanagements übertragen und angewendet.
Die IVS-Referenzarchitektur für Verkehrsinformation im Individualverkehr konkretisiert das Rahmenwerk für Architekturen intelligenter Mobilitätsdienste (RAIM) für die IVS-Dienstekategorie Verkehrsinformation im Individualverkehr.
Gegenstand der IVS-Referenzarchitektur für Verkehrsinformation im Individualverkehr sind alle auf Straßenverkehrsteilnehmer unmittelbar wirkenden On-Trip-Verkehrsinformationen, unabhängig vom Kommunikationsmedium. Dies umfasst z. B. über Funkkommunikation (Rundfunk, WLAN, Mobilfunk, etc.) in Endgeräte der Verkehrsteilnehmer übertragene Informationen inkl. C2X sowie Informationen auf dynamischer Beschilderung.
Zur Erarbeitung der IVS-Referenzarchitektur wird das IVS-Architektur-Vorgehensmodell des Rahmenwerks für IVS-Architektur in Deutschland – basierend auf dem TOGAF (The Open Group Architecture Framework) -Vorgehensmodell – angewendet.
Folgende Phasen werden dabei durchlaufen:
1) Vorbereitungsphase
2) Phase A: Architekturvision
3) Phase B: Geschäftsarchitektur
4) Phase C: Informationssystemarchitektur bestehend aus Datenarchitektur und Anwendungsarchitektur
In der Vorbereitungsphase wird die Einbindung zugrundeliegender Modelle geklärt, Modellanpassungen definiert sowie wichtige Prinzipien für die Architekturentwicklung festgelegt. In Phase A werden die Ziele der Architekturentwicklung und die daran Beteiligten festgelegt. Die Ergebnisse der Phasen B und C stellen die eigentliche IVS-Architektur dar. In Phase B werden der aktuelle und der gewünschte Zustand der Geschäftsarchitektur beschrieben. Dafür werden die Unterschiede herausgearbeitet und unter anderem mit Hilfe von Geschäftsprozessdiagrammen dokumentiert. In Phase C werden der aktuelle sowie der gewünschte Zustand der Daten- und Anwendungsarchitektur beschrieben.
Jede Phase ist wiederum in mehrere Schritte unterteilt. Damit wird ein methodisches und umfassendes Vorgehen bei der Entwicklung einer IVS-Architektur sichergestellt.
Die IVS-Referenzarchitektur für multimodale Reiseinformation konkretisiert das Rahmenwerk für Architekturen intelligenter Mobilitätsdienste (RAIM) für die IVS-Dienstekategorie multimodale Reiseinformation.
Multimodale Reiseinformationsdienste (MMRI) unterstützen Reisende bei der Planung ihrer Reise von A nach B durch einen Vergleich verschiedener Reiseoptionen unter Kombination verschiedener Beförderungsarten, Preise und folgender Verkehrsträger: Luftverkehr, Schienenverkehr, Straßenverkehr, Schiffsverkehr, Reisebusverkehr, öffentlicher Personenverkehr, bedarfsgesteuerter Verkehr, Fuß und Radverkehr. MMRI bieten dem Reisenden personalisierte Reisewege entsprechend spezifischer Reisepräferenzen an.
Zur Entwicklung der IVS-Referenzarchitektur wurde neben einer Bestandsaufnahme auch eine Analyse der bestehenden Ansätze zur Etablierung der multimodalen Reiseinformation durchgeführt. Die betrachteten Projekte und Initiativen sind hierbei EU Spirit, DELFI sowie die ÖV-IVS-Rahmenarchitektur. Darüber hinaus fand ein stetiger Austausch mit der VAO GmbH aus Österreich statt, die als assoziierter Partner an der Entstehung der IVS-Referenzarchitektur für multimodale Reiseinformation mitgewirkt haben.
Es gibt die Rollen Inhalteanbieter, Dienstbetreiber und Dienstanbieter mit den der jeweiligen Rolle zugeordneten typischen Aktivitäten zur Erzeugung des Wertschöpfungsbeitrags, den die Akteure leisten. Aktivitäten führen zur Erzeugung von Produkten, die als Informationsobjekte in der IVS-Wertschöpfungskette zwischen den Geschäftsprozessen weitergereicht werden. Hierbei wird von den Akteuren ein definiertes politisches (Einhaltung des Rechtsrahmens, der Verhaltensnormen und Gepflogenheiten), wirtschaftliches (Bereitstellung von Personal, Finanzierung und Controlling, Steuerung der eigenen Aktivitäten), und technisches Verhalten (Erfassung und Aufbereitung von Daten und Informationen, Erzeugung, Bereitstellung und Darstellung von IVS-Diensten) erwartet.
Intelligente Verkehrssysteme (IVS) bilden heute in den Anwendungsbereichen des Straßenverkehrs eine wichtige technologische und organisatorische Basis. Zudem nimmt die Bedeutung der Informations- und Kommunikationstechnik für die zunehmende Vernetzung dieser Systeme zu und bringt neue Herausforderungen bei der Einführung und Integration neuer Systeme in bestehende IVS-Landschaften mit sich. Mit dem Projekt „IVS-Rahmenarchitektur“ wurde ein „Rahmenwerk zur Entwicklung von Architekturen intelligenter Mobilitätsdienste“ erstellt.
Neben der bislang im Vordergrund stehenden technischen Sichtweise sind heute vor allem auch die Aspekte der Kooperation zwischen den mit der Erbringung von Mobilitätsdienstleistungen befassten Akteuren zu betrachten.
Die entwickelte IVS-Rahmenarchitektur liefert nun einen ganzheitlichen Umsetzungsrahmen für die Realisierung aller Aspekte von IVS-Architekturen. Es werden grundlegende Festlegungen getroffen, die für die Interoperabilität der auf verschiedenen Ebenen arbeitenden, verteilt kommunizierenden Organisationen und Anwendungen sicherzustellen. Dazu werden formale Definitionen zum gemeinsamen Verständnis sowie die erforderlichen Methoden und Voraussetzungen zur Zielerreichung festgelegt.
Auf der Basis der IVS-Rahmenarchitektur wurden drei IVS-Referenzarchitekturen erarbeitet, von der jede einen spezifischen Anwendungsbereich konkretisiert und so die Grundlage zur Entwicklung einer IVS-Architektur für einen konkreten Anwendungsfall liefert.
Die Entwicklung der IVS-Rahmenarchitektur erfolgte durchgehend in engem Austausch mit den drei Referenzarchitekturen. Zudem brachte ein Betreuerkreis seine Expertise in das Projekt ein. Auf zwei öffentlichen Workshops wurden die Ergebnisse über 40 Organisationen und Unternehmen aus dem Bereich intelligenter Verkehrssysteme vorgestellt.
Die IVS-Architektur-Pyramide dient dem Projekt als geeignetes Metamodell zur Darstellung und Beschreibung von IVS-Diensten. Diese besteht aus fünf Schichten – der Leitbild-/Strategie-Ebene, der Prozessebene, der Informationsstrukturebene, der IT-Dienste und IT-Infrastrukturebene – die alle gemeinsam den potentiell möglichen Betrachtungs- und Darstellungsbereich einer IVS-Architektur aufspannen.
Den methodischen Ausgangspunkt zur Entwicklung der IVS-Rahmenarchitektur bilden der internationale Standard ISO/IEC/IEEE 42010 sowie das etablierte Architekturrahmenwerk The Open Group Architecture Framework (TOGAF). TOGAF ist als weltweit verbreitetes Rahmenwerk zur Entwicklung von Unternehmensarchitekturen angesehen. Es bietet als zentrales Element ein Vorgehensmodell zur Entwicklung von Unternehmensarchitekturen, die so genannte Architecture Development Method (ADM). Aufgrund der Ausrichtung auf ein einzelnes Unternehmen erfolgte eine Anpassung – Tailoring – der ADM zur Entwicklung von IVS-Architekturen. Für die Entwicklung der IVS-Rahmenarchitektur 1.0 wurde der Schwerpunkt auf die Architekturvision, die Geschäfts- und Informationssystemarchitektur gelegt (Phasen A bis C und initiale Phase in der ADM).
In Phase A werden die Ziele der Architekturentwicklung und die daran Beteiligten festgelegt. In Phase B werden der aktuelle und der gewünschte Zielzustand der Geschäftsarchitektur beschrieben, dabei werden die Unterschiede herausgearbeitet und mit Hilfe von Geschäftsprozessdiagrammen dokumentiert. In Phase C werden der aktuelle sowie der gewünschte Zustand der Daten- und Anwendungsarchitektur beschrieben. Dazu werden die konkreten Datenmodelle und Anwendungen verwendet.
Alle erarbeiteten Ergebnisse sind in einem IVS-Wiki festgehalten und damit der Öffentlichkeit zugänglich. Für die Weiterentwicklung der Rahmenarchitektur kann ebenfalls auf das Wiki zurückgegriffen werden.
Die Entwicklung der IVS-Rahmenarchitektur erfolgte durch die Beteiligung von u. a. Unternehmen, öffentlichen Einrichtungen, Softwareentwicklungs- sowie Beratungshäusern – im ständigen Austausch mit der Praxis. Im Rahmen der wissenschaftlichen Auseinandersetzung mit dem Thema IVS-Architektur entstanden während der Projektlaufzeit zwei Veröffentlichungen, die sowohl eine wissenschaftliche Prüfung des Vorgehens und der Ergebnisse ermöglicht haben, als auch die Diffusion der Erkenntnisse in die Wissenschaft und Praxis befördern.
Mit Abschluss des Projekts hat Deutschland nun eine IVS-Rahmen- und drei konforme IVS-Referenzarchitekturen für den Bereich Straße. Durch den holistischen Ansatz nimmt Deutschland dabei in der EU eine Sonderstellung ein und grenzt sich bewusst von verwandten Ansätzen ab.
Mit dem Hilfsmittel der dokumentierten und von vielen Beteiligten empfohlenen IVS-Architekturen können zukünftig IVS-Dienste schneller entwickelt und einfacher betrieben werden, d. h. Unternehmen und weitere Organisationen im Bereich IVS können nun darauf basierende Dienste und Innovationen anbieten.
Eine ständige Anpassung und Weiterentwicklung ist angestrebt und auch erforderlich, damit die IVS-Rahmenarchitektur den Anforderungen aus der Praxis gerecht werden kann.
Intelligente Mobilitätsdienste sind datenbasierte Anwendungen im Bereich von Verkehr und Mobilität, die von Nutzern beansprucht werden können. Aufgrund des Paradigmenwechsels in der Nutzung und im Betrieb von verkehrlicher Infrastruktur stehen nicht lediglich technische Fragestellungen im Fokus. Zunehmend wird eine gesamtheitliche Perspektive auf den Dienst und all seine Facetten eingenommen, was nicht zuletzt am zunehmenden Interesse privatwirtschaftlicher Akteure an der Mobilitätsdomäne liegt.
Der strategische und geschäftliche Teil eines Dienstes inklusive der Ziele und Erwartungshaltung beteiligter Akteure hat zunehmend an Bedeutung gewonnen. Für privatwirtschaftliche Akteure, die in Kooperation mit der öffentlichen Hand Mobilitätsdienste realisieren und betreiben, stellt es ein Hindernis dar, ähnliche Dienste von Fall zu Fall mit starken Abweichungen zu implementieren. Dies verursacht auf Seiten der Unternehmen einen großen Aufwand, einen entsprechenden Beitrag zur Wertschöpfung zu leisten.
Das verstärkte Aufkommen datenbasierter Mobilitätsangebote erfordert neue, ganzheitliche Konzepte und Mechanismen zur effektiven Zusammenarbeit verschiedener Akteure. Der zunehmende Abstimmungsbedarf zwischen privaten und öffentlichen Akteuren erhöht die Komplexität in der Zusammenarbeit zusätzlich.
RAIM – das Rahmenwerk für Architekturen intelligenter Mobilitätsdienste – bietet einen Leitfaden für die gestalterische Planung sowie die funktionale, technische und wirtschaftliche Realisierung intelligenter Mobilitätslösungen. Auf vertraglicher, organisatorischer und technischer Ebene unterstützt RAIM somit die reibungslose Kommunikation zwischen den beteiligten Akteuren.
Anwendung kann RAIM beispielsweise finden, bestehende Dienste im Verkehrssektor nachträglich zu strukturieren oder die Kooperation von privaten und öffentlichen Akteuren bei der Erstellung von intelligenten Mobilitätsdiensten zu ermöglichen. RAIM soll vor allem Mobilitätsdienstleister, ÖPNV-Betriebe, Navigationsdienstleister, App-Betreiber, Regulatoren, Behörden und städtische Akteure ansprechen. Vor allem bei neuen Diensten (Mobilitätsangeboten) ist Dialog und Konsens zwischen den Akteuren zu fördern.
Das Bundesfernstraßennetz ist verschiedenen Herausforderungen wie u.a. das gesteigerte Verkehrsaufkommen und die hohe Altersstruktur der Bauwerke ausgesetzt. Aktuell basiert das Erhaltungsmanagement von Brücken auf regelmäßigen Bauwerksinspektionen, die weitestgehend aus einer visuellen Bewertung bestehen. Um den derzeitigen Herausforderungen adäquat zu begegnen sowie vorausschauend handeln zu können, müssen neue, effektive und effiziente Lösungen gefunden werden. Daher hat die BASt 2011 den Forschungsschwerpunkt „Intelligente Brücke“ ins Leben gerufen. Unter Verwendung digitaler Technologien und Methoden wurde damit eine Grundlage für ein prädiktives Erhaltungsmanagement geschaffen, welches Bauwerkseigentümer bei der Gewährleistung der Sicherheit, Zuverlässigkeit und Verfügbarkeit ihrer Bauwerke unterstützen soll.
Im Rahmen dieses Berichts wurden die relevanten zumeist konzeptionellen Arbeiten aus den Jahren 2011 bis 2020 zusammengestellt. Der Fokus liegt dabei auf den Aspekten Datenerfassung, -aufbereitung, -analyse und -bewertung, -management sowie Qualitätssicherung. Die erfolgten Arbeiten bilden die Grundlage für die Realisierung verschiedener Reallabore, in denen ausgewählte Entwicklungen und Forschungsansätze an Bauwerken unter realen Bedingungen erprobt, bewertet und weiterentwickelt werden.
Das Reallabor „Intelligente Brücke im Digitalen Testfeld Autobahn“ wird in diesem Bericht im Detail vorgestellt und die eingesetzten Systeme hinsichtlich ihrer Praxistauglichkeit und Dauerhaftigkeit beurteilt.
Bei dem Bauwerk handelt es sich um eine vierfeldrige Spannbeton-Hohlkastenbrücke, die mit den vier Messsytemen „Brückenkennwerte“, „drahtloses Sensornetzwerk“, „instrumentierte Lager“ und „instrumentierter Fahrbahnübergang“ ausgestattet ist. Über einen Zeitraum von 5 Jahren erfolgen an dem Reallabor Forschungsprojekte, mit dem Ziel, die Messsysteme im Zusammenhang zu Demonstrieren und Verfahren zur zuverlässigen Erfassung und automatisierten Auswertung sowie eine Webanwendung zur Publikation der Ergebnisse zu entwickeln. Damit stehen Informationen zu Verkehr, Wetter- und Klimaeinflüssen, bauteil- und bauwerksbezogene Kennwerte zur Verfügung.
Durch die kontinuierlichen Erkenntnisse zu Einwirkungen und Status des Bauwerks und der instrumentierten Bauteile kann der Betreiber der Brücke unterstützt werden. Die im Rahmen des Reallabors „Intelligente Brücke im Digitalen Testfeld Autobahn“ gewonnenen Erkenntnisse und Erfahrungen schaffen eine wichtige Grundlage für die Konzeption weiterer Reallabore.
Anhand von Reallaboren werden kontinuierlich Realdaten generiert, die als Grundlage für weitere Forschung dienen können im Hinblick auf u.a. die Verifizierung von Systemannahmen, Überprüfung und Kalibrierung von Ingenieurmodellen sowie die Weiterentwicklung von datenbasierten Algorithmen. Darüber hinaus bieten Reallabore optimale Bedingungen zur Erprobung und Weiterentwicklung von praxistauglichen und zuverlässigen Innovationen.
Deutschland verfügt über eine gut ausgebaute Infrastruktur. Deutschland ist auch ein hochfrequentiertes Transitland. Der Verkehr allgemein und der Straßenverkehr insbesondere sind relevante Wirtschaftsfaktoren.
Die kontinuierliche Schaffung und Erhaltung eines Netzes von Ingenieurbauwerken im Verkehrssystem Straße sind Ziele des verschiedener Management Systeme. Die Systeme leben von den vorhandenen Daten. Hierzu zählen Daten des Verkehrs und Daten des Status des Bauwerkes.
Im Rahmen des Nationalen Innovationsprogramms „Straße im 21. Jahrhundert“ des Bundesministeriums (BMVI) wurden Forschungsvorhaben gefördert, die sich u. a. mit der Entwicklung neuer Konzepte und Technologien zur Bereitstellung solcher Datenbestände befassen.
Alle bisherigen Forschungs- und Praxisprojekte betrafen Bestandsbrücken und verfolgten das Ziel eines objektspezifischen Verkehrslastmodells bzw. einer Überwachung eines vorhandenen Schadens.
Eine Weiterentwicklung des Einsatzes für Brücken von Beginn der Verkehrsfreigabe für einen weiteren Dauerbetrieb fehlt (national und international).
Mit der Pilotstudie „Intelligente Brücke im Digitalen Testfeld Autobahn sollen gemäß einer Konzeption der Bundesanstalt für Straßenwesen (BASt) die bisherigen Entwicklungen des BASt-Forschungscluster „Intelligente Brücke“ umfänglich demonstriert und damit bundesweit zugänglich gemacht werden.
Zu diesem Zweck hat die Bayerische Straßenbauverwaltung im Rahmen des vom Bundesministerium für Verkehr und digitale Infrastruktur (BMVI) geplanten Digitalen Testfeldes Autobahn das Bauwerk BW402e im Bereich des AK Nürnberg, Richtungsfahrbahn Regensburg (Verbindungsrampe A3 zur A9) zum Ausbau zur intelligenten Brücke vorgesehen. Die Brücke ist ein Neubau.
Im Fokus der „Intelligenten Brücke im Digitalen Testfeld Autobahn“ stehen die Schwerpunkte „Einwirkungsüberwachung und Analyse“, „Intelligente Fahrbahnübergänge und Lager“ sowie „Intelligente Sensornetze“.
Den Kern der „Intelligenten Brücke im Digitalen Testfeld Autobahn“ bilden die Messsysteme neben der Datenanalyse, Bewertung und Visualisierung von Ergebnissen sowie dem Datenmanagement.
Im Bauwerk 402e am Autobahnkreuz Nürnberg sind fünf verschiedene Messsysteme installiert. Dabei sind konventionelle Systeme und Systeme in Erprobung kombiniert.
Die unterschiedlichen Systeme, die unabhängig voneinander entwickelt wurden, dienen so einem gemeinsamen Ziel, gestatten Referenzen und einem ganzheitlichen Erfahrungsgewinn.
Der vorliegende Schlussbericht dokumentiert in diesem Gesamtkontext die Bearbeitung des Forschungsprojektes „Digitales Testfeld Autobahn - Intelligente Brücke - Synchronisation von Sensorik und automatisierte Auswertung von Messdaten“.
Im Rahmen der Bearbeitung werden vorhandene Algorithmen und Methoden angewendeten und weiterentwickelt, um aus den Messdaten sowohl die Erkennung von überfahrenden Fahrzeugen zu realisieren als auch Kennwerte des Status des Bauwerkes zu ermitteln. Wesentlicher Projektschwerpunkt ist dabei die Realisierung der vollständig automatisierten Datenauswertung, Datenaufbereitung und Datenpublikation vor Ort.
Die Messdaten für diese Auswertungen stammen dabei aus dem Messsystem an der Brücke, am Lager und am Fahrbahnübergang. Daten aus den anderen Messsystemen werden als Referenzquellen herangezogen. Aus diesem Ansatz heraus ist die zeitliche Synchronisation von Messdaten aus verschiedenen, heterogenen Systemen ein zusätzlicher Schwerpunkt des Projektes.
Ein weiterer Schwerpunkt ist die Erprobung und Weiterentwicklung des drahtlosen Sensornetzes. Auch hieraus können Referenzdaten für die anderen Systeme gewonnen werden.
Alle erfassten und aufbereiteten Daten müssen systematisch gehalten, gesichert und publiziert werden. Diese Anforderungen bilden einen weiteren Schwerpunkt der Projektbearbeitung. Die Entwicklung einer Web-basierten Ergebnispublikation ist dabei eine wesentliche Zielstellung.
Füllsysteme für Fugen in Betonfahrbahnen sind während ihrer Nutzungsdauer vielfältigen Beanspruchungen ausgesetzt. Daraus leiten sich erhöhte Anforderungen an die Dauerhaftigkeit des Gesamtsystems „Fuge“ ab. Neben jahreszeitlich schwankenden klimatischen Änderunge spielen insbesondere zyklische Beanspruchungen durch den überrollenden Verkehr sowie die Alterung der Fugenmassen eine maßgebliche Rolle.
Ziel dieses Forschungsprojekts war es, ein praxisorientiertes Prüfverfahren zu entwickeln, das zum einen das Gesamtsystem „Fuge“ bestehend aus Betonfugenflanke, Voranstrichmittel sowie der Fugenmasse umfasst und andererseits die maßgebenden Szenarien der in-situ-Beanspruchungen realistisch abbildet. Dazu wurden Systemprüfkörper bestehend aus Beton und Fugenfüllstoff definiert, an denen über die herkömmlichen Prüfungen am Füllstoff hinaus, statische Zug-/Scherversuche und zyklische Druck-/Zug-/Scherversuche an neuen und künstlich gealterten Proben vorgenommen wurden. Diese Prüfungen wurden sowohl an Laborproben (Referenz) als auch an Systemprüfkörpern aus Bohrkernen von originären Bestandstrecken durchgeführt.
Die Untersuchungen zeigten u.a., dass die heiß verarbeitbaren Fugenmassen, mit Ausnahme der modifizierten Fugenmasse vom Typ N2+, infolge künstlicher Alterung erheblich versprödeten, d.h. bei deutlich reduziertem Dehnvermögen höhere Maximalspannungen aufwiesen. Dieser Effekt zeichnete sich auch bei den im dynamischen Scherrheometer ermittelten Phasenwinkeln und komplexen Schermoduln ab. Unter der Annahme eines exponentiellen Verlaufs der Alterung von heiß verarbeitbaren Fugenmassen, konnte für die künstliche Laboralterung ein simulierter Nutzungszeitraum von etwa 6 Jahren ermittelt werden. Für die kalt verarbeitbaren Fugenmassen erwies sich die für heiß verarbeitbare Fugenmassen herangezogene künstliche Alterung unter Druck und Temperaturbeanspruchung als nicht zweckmäßiges Verfahren.
Zur ersten Validierung der entwickelten Laborprüfverfahren wurde im BAB-Netz eine heiß und eine kalt verarbeitbare Fugenmasse über die ersten 21 Monate Nutzungsdauer intensiv beobachtet.
Unter Einbeziehung der Systemprüfungen an Labor- und in-situ-Proben wurde ein erster Bewertungsansatz entwickelt, mit dem, anhand wissenschaftlich orientierter Kenn- und Grenzwerte, Fugenmassen im nicht gealterten ebenso wie im künstlich gealterten Zustand bewertet werden können.
Das European New Car Assessment Programme (Euro NCAP) ist ein verbraucherschutzorientiertes Programm zur Bewertung der Sicherheit von – in der Regel – neuen Kraftfahrzeugmodellen. Das Programm gibt es seit 1997, seit 2009 besteht die Bewertung aus 4 Bausteinen (1. Schutz erwachsener Insassen; 2. Schutz von Kindern im Fahrzeug; 3. Schutz schwächerer Verkehrsteilnehmer; 4. Ausstattung mit Fahrerassistenzsystemen).
Das Hauptziel des vorliegenden Projekts bestand darin, die Testergebnisse aus Euro NCAP soweit möglich auf die gesamte Pkw-Flotte zu übertragen und daraus einen Safety Performance Indikator (SPI) für den Pkw-Bestand mehrerer aufeinander folgender Jahre (Zeitreihe) zu bilden. Ein weiteres Ziel war es zu untersuchen, ob ein Zusammenhang zwischen der Euro NCAP-Bewertung von Fahrzeugen und dem Unfallgeschehen existiert. Neben Literaturanalysen wurden hierzu statistische Modelle zum Einfluss der durch den SPI ausgedrückten Fahrzeugsicherheit auf die korrespondierende Zahl der Verunglückten aus der amtlichen Straßenverkehrsunfallstatistik geschätzt.
Ein wesentlicher Schritt bei der Entwicklung eines SPI zur Fahrzeugsicherheit bestand darin, die Euro NCAP-Testergebnisse der verschiedenen Jahre im Hinblick auf die im Zeitverlauf geänderten Testprozeduren soweit als möglich vergleichbar zu machen. Hierfür wurde eine Projektgruppe bestehend aus Experten der BASt in den Bereichen Aktive und Passive Fahrzeugsicherheit gebildet, welche die Aufgabe hatte, je Baustein zu quantifizieren, wie sich diese Veränderungen der Testprozeduren auf die Fahrzeugbewertung auswirken. Dabei wurden die Testrahmenbedingungen des Jahres 2020 als Referenz herangezogen.
Der zweite wesentliche Schritt zur Erzeugung eines Safety Performance Indikators bestand darin, die – neu berechneten – Euro NCAP-Ergebnisdaten für die einzelnen getesteten Marken und Modelle mit den ZFZR-Beständen (1.1.2014 bis 1.1.2020) zu verknüpfen (matching).
Die Verknüpfung der ZFZR-Bestandsdaten mit den Euro NCAP-Bewertungsdaten erfolgte über einen komplexen Algorithmus, der im Kern auf den Merkmalen Fabrikatcode, Modellcode und Jahr der Erstzulassung basiert.
Im Ergebnis konnte im Durchschnitt über die hier betrachteten sieben Bestandsjahre (Stichtage: 1.1.2014 bis 1.1.2020) von den neueren Fahrzeugen (Erstzulassungsjahr ab 2009) rund 70 % eine Euro NCAP-Bewertung zugeordnet werden. Den übrigen Pkw im ZFZR-Bestand wurde die fehlende Bewertung über Imputationsverfahren zugewiesen.
Es wurden insgesamt vier (bausteinspezifische) Safety Performance Indikatoren gebildet, die auf den neu berechneten und vereinheitlichten Fahrzeugbewertungen aus Euro NCAP basieren. Bei den genannten Indikatoren handelt es sich um Durchschnittswerte der Sicherheitsbewertung der im ZFZR erfassten Pkw. Aus diesen vier Indikatoren wurde dann noch ein Safety Performance Gesamtindikator mittels gewichtetem Mittelwert berechnet. Im Ergebnis liegen damit Zeitreihen der vier bausteinspezifischen SPI-Werte sowie des SPI-Gesamtwerts vor.
Das zentrale Ergebnis der Analysen der SPI-Zeitreihen ist, dass alle Indikatoren einen im Zeitverlauf ansteigenden Trend aufweisen. Dies ist ein klares Indiz dafür, dass der Sicherheitsstandard nicht nur bei den Neufahrzeugen, sondern auch bezogen auf den gesamten Pkw-Bestand in den letzten Jahren kontinuierlich gestiegen ist.
Die höchsten Indikatorwerte finden sich beim SPI zum Baustein 2 (Schutz von Kindern im Fahrzeug), am niedrigsten fallen sie hinsichtlich der Ausstattung mit Fahrerassistenzsystemen aus (SPI zum Baustein 4).
Gliedert man die Indikatoren zusätzlich nach Pkw-Segment, so finden sich bei SUV’s, gefolgt von Geländewagen, Großraum-Vans und der Oberklasse die höchsten Werte beim SPI-Gesamtwert. Dass die SUV’s den höchsten SPI aufweisen, hat allerdings auch damit zu tun, dass es sich um ein relativ neues Segment handelt, in dem der Anteil älterer Fahrzeuge vergleichsweise niedrig ist.
Im Rahmen der Unfallanalyse wurden log-lineare Regressionsmodelle gerechnet, um den Einfluss der vier SPI auf die jeweils entsprechenden Unfallmerkmale (verunglückte Pkw-Insassen, Fußgänger und Radfahrer, unfallbeteiligte Pkw) zu ermitteln. Darüber hinaus wurde der Zusammenhang zwischen dem SPI-Gesamtwert und den resultierenden monetären volkswirtschaftlichen Unfallkosten analysiert. Die statistischen Auswertungen zum Zusammenhang zwischen SPI und Unfallgeschehen zeigten in allen Fällen, dass ein höherer Wert des entsprechenden Safety Performance Indikators mit einer geringeren Zahl an verunglückten Personen bzw. unfallbeteiligten Pkw einhergeht. In Bezug auf die Unfallkosten ergab sich, dass bei einer Zunahme des Gesamt-SPI der Pkw-Flotte um 1 % die entsprechenden Unfallkosten ceteris paribus um 0,7 % sinken.
Zudem wurden bei der Konzeption des Projektes bereits die wesentlichen Voraussetzungen für eine kontinuierliche Fortführung der SPI-Zeitreihen in den nächsten Jahren geschaffen.
Bei den abzugsrelevanten Merkmalen - Verdichtungsgrad und Hohlraumgehalt - liegt die Bestimmung der Raumdichte am Ausbaustück oder Marshallprobekörper entsprechend den nationalen Prüfvorschriften zugrunde. Zur Bestimmung der Raumdichte ist bei offenporigen Asphalten das Ausmessverfahren (Verfahren D) anzuwenden und bei allen anderen Walzasphalten das Tauchwägeverfahren mit Ledertuch (Verfahren B). Nur bei lärmtechnisch optimierten Asphaltdeckschichten soll zur Erfahrungssammlung neben dem Verfahren B auch das Verfahren D angewandt werden.
Aus den Erfahrungen mit den Prüfverfahren ist bekannt, dass mit zunehmendem Hohlraumgehalt die Raumdichte an Prüfkörpern mit den standardisierten Verfahren nicht präzise genug erfasst werden kann. Um ein geeignetes Verfahren für primär semiporöse und sekundär offenporige Asphaltdeckschichten zu finden wurden insgesamt 7 zum Teil standardisierte Prüfmethoden zur Bestimmung der Raumdichte an drei Mischgutarten durchgeführt. Dabei wurden die Geometrien und Herstellungsarten der Prüfkörper variiert.
Alle gesammelten Daten der Untersuchungen (Raumdichte und Streuung) wurden hinsichtlich der Einflüsse aus den geometrischen Kennwerten (Prüfkörperhöhe und -durchmesser), Prüfkörpermasse und charakterisierenden Kennwerten wie den Hohlraumgehalt, den Textureigenschaften, der effektiven Fläche der Textur und Körnungsspezifischen Kennwerten analysiert.
Es konnten deutliche Unterschiede zwischen den Verfahren nachgewiesen werden. Hinsichtlich der Eignung für semiporöse und offenporige Asphalte konnte ein Verfahren zur Umhüllung von Prüfkörpern mit einem Vakuumbeutel empfohlen werden, welches in Einklang mit der europäischen Norm steht. Alternativ ist eine Bestimmung des Volumens über eine Laserabtastung der Probekörper zu empfehlen. Diese technisch hochwertige Methodik lässt eine sichere Abgrenzung zwischen der Textur eines Prüfkörpers und den zur Raumdichte zugehörigen Volumen zu.
Analyse der Auswirkungen von Witterungsextremen an bestehenden Straßenbefestigungen in Betonbauweise
(2022)
Aufgrund des Klimawandels muss auch in Deutschland zukünftig damit gerechnet werden, dass Witterungsextreme häufiger und stärker ausfallen. Schon allein durch die prognostizierte Klimaveränderung sind Auswirkungen auf die Nutzungseigenschaften der Betonfahrbahnen zu erwarten. Im Kontext mit einer signifikanten Erhöhung der Belastung durch Schwerverkehr sowie mit erhöhten Anforderungen an die Verfügbarkeit ergibt sich die Notwendigkeit, die Regelbauweise zu überprüfen und ggf. zu modifizieren.
Es hat sich herausgestellt, dass bei der Dimensionierung die Witterungsbelastung von Betondecken mit einer Erhöhung der mittleren Plattentemperatur von 2 K und durch ungünstigere positive Temperaturverläufe bzw. Temperaturgradienten berücksichtigt werden berücksichtigt werden sollte. Zudem muss die Lage der Längsfugen nicht nur in den Kontext zur Markierung gebracht werden sondern auch gewährleisten, dass mit Berücksichtigung neuer Anforderungen eine Aufrechterhaltung des Verkehrs mindestens eines Fahrstreifens im Zuge von Erhaltungsmaßnahmen möglich bleibt. Aus diesem Grund und mit Blick auf die Dauerhaftigkeit ist es sinnvoll, die Plattengeometrien signifikant zu verkleinern, wodurch Plattenverformungen und Spannungen reduziert werden können. Resultat kleinerer Plattengeometrien sind zudem kleinere Fugenöffnungsweiten, was sich einerseits positiv auf die Langlebigkeit der Fugenfüllung auswirkt und andererseits eine deutlich verbesserte Lärmminderung ergibt, wenn gleichzeitig die Fugenausbildung schmaler ausgeführt wird.
Für den Beton selbst, der hinsichtlich der Dauerhaftigkeit der Konstruktion sowie für die Erreichung dauerhafter Gebrauchseigenschaften eine entscheidende Rolle spielt, ist bei der Konzipierung anzustreben, einen geringen E-Modul und eine geringere Wärmedehnzahl zu erhalten, wobei die Festigkeit (Zugfestigkeit) ein gewisses Niveau nicht unterschreiten sollte.
Airbags sind ein wichtiger Bestandteil der passiven Sicherheitsausstattung von Fahrzeugen, haben sich in den letzten 30 Jahren stark weiterentwickelt und somit die Schutzwirkung für die Insassen weiter erhöht. Ziel dieser Arbeit ist es, auf Basis verschiedener Datensätze die Schutzwirkung von modernen Airbagsystemen aufzuzeigen und weiteres Opimtierungspotential offenzulegen. Dabei wurde der Fokus auf die Analyse von Realunfalldaten und Verletzungen durch Airbags und deren Schallpegel gesetzt.
Daten aus dem Unfallgeschehen im Straßenverkehr wurden auf Basis von GIDAS- und NASS-Daten ausgewertet. Mittels der ausgewerteten GIDAS-Daten konnte gezeigt werden, dass bei einem Delta-v von ca. 20 km/h bereits 50 % aller Airbags ausgelöst wurden, welches nicht den Erwartungshorizont der Auslöseschwelle von 25 bis 30 km/h nach KLANNER et al. (2004) entspricht. Außerdem wurde ein Trend erkannt, der zeigt, dass bei neueren Fahrzeugen die Anzahl der Airbagzündungen in einem Unfall steigt. Eine statistische Auswertung von airbaginduzierten Verletzungen ergab, dass keine statistisch signifikanten Ergebnisse in Bezug auf airbaginduzierte Verletzungen entnommen werden konnten, allerdings konnten in den analysierten Fällen leichte Verletzungen identifiziert werden, die durch die Airbagzündung verursacht wurden. Die festgestellten Verletzungen waren beispielsweise Schürfwunden, Prellungen und Verbrennungen bis maximal 2. Grades. Es wurden 14 Einzelfälle analysiert bei denen die Verletzungsschwere höher war, als es die Unfallschwere erwarten ließ. Davon waren elf Unfälle durch schlechte strukturelle Interaktion gekennzeichnet, beispielsweise Unterfahren, zentraler Stoß oder Stoß außerhalb der Längsträger. Im vorliegenden GIDAS-Datenmaterial und in der Analyse von MHH Patientinnen- und Patientendaten konnten Einzelfälle, bei denen es zu Hörschädigung in Folge einer Airbagzündung kam, identifiziert werden, allerdings konnte keine statistisch signifikante Verbindung zwischen Airbagzündung und einer Hörschädigung festgestellt werden.
Auf Basis der analysierten GIDAS-Fälle wurde eine Versuchsmatrix entwickelt, um die aufgezeigten Probleme mittels experimenteller Unfallrekonstruktion und akustischer Messungen zu adressieren. In der Unfallrekonstruktion mit zentralem Baumaufprall konnte gezeigt werden, dass bei dem vorliegenden Fall eine frühere Airbagzündung das Brustverletzungsrisiko hätte senken können und somit die vorliegende Brustverletzung wahrscheinlich vermieden hätte. In dem analysierten Auffahrunfall mit einer Unterfahrensituation konnte gezeigt werden, dass die Airbagauslösung unnötig war, da das Verletzungsrisiko durch die Airbagzündung nicht reduziert wurde. In diesem Fall hätte eine unterdrückte Airbagzündung die Hörschädigung des Fahrers verhindert.
Im Rahmen der durchgeführten akustischen Messungen wurden systematische Messungen von Schallpegeln in Fahrzeugen während eines Unfalls und im Stand gemessen. Es konnte gezeigt werden, dass die Crashbegleitgeräusche der Fahrzeugdeformation ausreichen, um den Stapediusreflex auszulösen, dadurch ist das Risiko einer Hörschädigung gering – trotz Pegel von über 160 dB. Das Risiko für eine Hörschädigung steigt mit der Anzahl der gezündeten Airbags durch die kurze Aneinanderreihung von Knallereignissen trotz ausgelösten Stapediusreflex. Auch bei frühen Zündzeitpunkten steigt das Risiko einer Hörschädigung, da der Stapediusreflex noch nicht ausgelöst ist oder sich in der Anschwellphase befindet und somit seine Schutzwirkung nicht komplett entfalten kann.
Mit den analysierten Daten konnte gezeigt werden, dass die Schutzwirkung von Airbags unumstritten ist, allerdings wurde Optimierungspotential in den Zündalgorithmen offengelegt. Das gilt für Unfälle mit schlechter struktureller Interaktion und daraus resultierendem nicht optimalen Zündzeitpunkt und für eine unnötige Airbagauslösung bei geringer Unfallschwere. Weiteres Optimierungspotential zur Reduzierung des Verletzungsrisikos besteht bei Airbags hinsichtlich ihres Potentials Schürfwunden, Prellungen, Verbrennungen und Hörschäden zu verursachen.
Durch den Stufenplan Digitales Bauen und Betreiben wird vom Bundesministerium für Verkehr und digitale Infrastruktur (BMVI) die ganzheitliche und flächendeckende Nutzung von Building Information Modeling (BIM) im Straßenbau gefordert. Demnach sollen auch für Infrastrukturprojekte moderne, IT-gestützte Prozesse und Technologien bei Planung, Bau und Betrieb ähnlich den Strukturen im Hochbau verwendet werden. Das Projekt beschäftigt sich mit der Überprüfung der Konformität der Methode BIM mit den Regelwerken der Forschungsgesellschaft für Straßen- und Verkehrswesen (FGSV) und des Gremiums „Koordinierung der Bund/Länder Fachinformationssysteme im Straßenwesen (IT-Ko). Darüber hinaus sollen digitale und datenbanktaugliche Strukturen mit den wesentlichen Inhalten der R1-Regelwerke erstellt werden, anhand derer die Konformitätsprüfung erfolgen kann. Als erste Grundlage für eine einheitliche Anwendung der Methode BIM in Infrastrukturprojekten dient die Entwicklung eines BIM-konformen Objektkataloges für das Verkehrswesen und den Straßenbau. Die Umsetzung erfolgte in Form einer Datenbank, in welcher die wichtigsten Begrifflichkeiten und Definitionen der Regelwerke der FGSV und des IT-Ko als Merkmalsgruppen und Merkmale importiert wurden. Hierbei wurde eine einheitliche Verwendung von den Begrifflichkeiten innerhalb eines Regelwerkes als auch zwischen verschiedenen Regelwerken untersucht. Zusätzlich wurden den einzelnen Merkmalen nach Möglichkeit Definitionen, Beschreibungen, Beispiele, Wertebereiche, physikalische Größen sowie Dimensionen zugewiesen. Der Informationsgehalt in der Datenbank ist stark von der Detailtiefe im jeweiligen Regelwerk abhängig. Die Analyseergebnisse und die Hinweise zu nicht harmonisierten Bereichen der einzelnen Regelwerke werden für die weitere Gremienarbeit und gegebenenfalls erforderliche Abstimmungen zwischen verschiedenen Gremien zur Verfügung gestellt. Zusätzliche Hinweise zu abbildbaren und nicht abbildbaren Informationen in digitalen Modellen wurden ebenfalls herausgearbeitet. Eine Liste mit weiteren BIM-relevanten Regelwerken sowie erwartete Neuerungen in bereits analysierten Regelwerken ist diesem Bericht beigefügt. Eine Anleitung für die systematische Analyse weiterer Regelwerke zur Ergänzung der Datenbank für die zukünftige Fortentwicklung und Datenpflege wurde verfasst. Ein Umsetzungsbeispiel der Datenbank in Form eines dreidimensionalen Datenmodells wurde erzeugt. Prüfungen hinsichtlich der Merkmalsabhängigkeiten können in Zukunft durch gezielte Abfragen innerhalb eines Modells ergänzt werden. Durch die beispielhafte Analyse ausgewählter Regelwerke und die Entwicklung einer geeigneten Datenbankstruktur kann dieses Projekt als erster Schritt zu einer einheitlichen BIM-Struktur für den Infrastrukturbau dienen.
Ziel des Projektes war es, systematische Untersuchungen zum Abriebverhalten und damit zur Partikelemission verschiedener Fahrbahnoberflächen durchzuführen, die Ergebnisse zu quantifizieren und eine Empfehlung für die Berücksichtigung abgeleiteter Emissionsfaktoren in den FGSV-Richtlinien RLuS „Richtlinien zur Ermittlung der Luftqualität an Straßen ohne oder mit lockerer Randbebauung“ zu geben. Dazu wurden
• eine umfassende Literaturrecherche und Auswertung zum Thema durchgeführt,
• abriebrelevante Kenngrößen für 27 typische in Deutschland eingesetzte Fahrbahnbeläge bestimmt,
• Laborversuche zum Abriebverhalten von 21 dieser Fahrbahnbeläge durchgeführt,
• Emissionsberechnungen für nicht motorbedingte Partikel (AWAR) mit dem Modell NORTRIP (Non-exhaust road traffic induced particle emission modelling) in seiner Version 3.2 durchgeführt und auch die resultierenden PM10-Straßenabriebemissionsfaktoren ausgewiesen.
• diese Berechnungsergebnisse mit AWAR-Emissionsfaktoren nach DÜRING et al. (2011) bzw. HBEFA4.1 verglichen.
• die NORTRIP-Berechnungsergebnisse des dort integrierten NOx-Tracermodells mit Immissionsmessungen an der Frankfurter Allee in Berlin und Am Neckartor in Stuttgart verglichen,
• Empfehlungen zur Anwendung von NORTRIP gegeben sowie
• aus den NORTRIP-Berechnungen erzeugte PM10-AWAR- und -Straßenabriebemissionsfaktoren für die Anwendung in RLuS abgeleitet.
Folgende in Deutschland am häufigsten eingesetzte Fahrbahnbeläge wurden untersucht:
• Asphaltbeton,
• Offenporiger Asphalt (OPA),
• Gussasphalt,
• DSH (Dünne Asphaltdeckschicht in Heißbauweise),
• Waschbeton und
• Splittmastix-Asphalt (SMA).
Folgende wesentliche Ergebnisse wurden abgeleitet:
• Quantifizierung der Abriebmaße
Abgesehen von der Art des Reifens (insbesondere der Einsatz von Spikereifen), dem Fahrverhalten (Beschleunigungsanteile) und der Fahrgeschwindigkeit (höhere Geschwindigkeiten führen zu höheren Abriebraten) sind weitere wesentliche Faktoren, die sich auf die Partikelerzeugung aus dem Abrieb der Fahrbahn auswirken,
– die Art/Festigkeit und die Korngröße des in der Fahrbahn verwendeten Gesteinmaterials
– eventuell auch die Art des Bindemittels (polymer modifiziertes Bindemittel scheinen positiv zu wirken)
– eventuell bewirkt eine starke Modifizierung des Bindemittels (z. B. Gummimodifizierung) und die sich dadurch einstellenden dickeren Bindemittelfilme eine Verminderung der PM10-Fahrbahnabriebemissionen. Die Höhe der Reduktion hängt hier wahrscheinlich von der Ausbildung der Oberfläche ab.
...
Das vorliegende Dokument stellt eine Handlungsempfehlung zur Nutzung des C2X-Kommunikationsstandards IEEE 802.11p für die ÖV-Priorisierung an signalisierten Knotenpunkten zur Verfügung. Die erstellte Roadmap baut auf die Systeme im Status quo auf und zeigt Wege für ein sukzessives Upgrade hin zur C2X-basierten ÖV-Priorisierung. Die Priorisierung des Öffentlichen Verkehrs ist eine seit den 1980er Jahren angewendete Praxis zur Verbesserung der Reisezeiten der Öffentlichen Verkehrsmittel und der Stärkung des Umweltverbundes auf Basis der Steigerung der Attraktivität des Öffentlichen Verkehrs. Signalisierte Knotenpunkte sind unerlässliche Bestandteile des innerstädtischen Hauptstraßennetzes. Sie beeinflussen maßgeblich die Qualität des Verkehrsablaufs und sind damit von besonderer Bedeutung in Bezug auf die verkehrliche Steuerung und die mitunter verkehrspolitisch motivierte Lenkung des Verkehrsgeschehens. Seit geraumer Zeit rücken die Potenziale der C2X-Kommunikation aus der theoretischen Forschung hin zur praktischen Erprobung und nähern sich kontinuierlich einer Marktreife an. Kooperative Intelligente Verkehrssysteme (C-ITS) wurden bereits in mehreren urbanen Testfeldern erfolgreich implementiert und getestet. Die Grundidee der Kooperation zwischen der Lichtsignalanlage (LSA) als infrastrukturseitige Einrichtung und dem Fahrzeug inklusive der fahrzeugführenden Person besteht im gegenseitigen Informationsaustausch zur Verbesserung der Qualität des Verkehrsablaufs und zur Erhöhung der Verkehrssicherheit. Infolge der hohen zu erwartenden Potenziale, welche durch Vernetzung erschlossen werden können, hat sich die Bundesrepublik Deutschland mit dem „IVS-Aktionsplan Straße“ zur koordinierten Weiterentwicklung bestehender und zur beschleunigten Einführung neuer Intelligenter Verkehrssysteme in Deutschland bekannt. Da sich das bestehende System der ÖPNV-Priorisierung bereits seit Jahrzehnten bewährt hat, ist ein Umstieg auf ein neues C2X-basiertes System nicht einfach. Umstrukturierungen im Frequenzbereich des Analog-Funks geben in vielen Städten jedoch Anlass für eine Änderung der Bestandssysteme. Die Nutzung der C2X-Kommunikation ermöglicht zum einen die Modernisierung des Datenübertragungssystems und zum anderen ein Optimierungspotenzial für die ÖPNV-Priorisierung sowie weitere Synergien. Ausgehend von einer Bestandsaufnahme zu gegenwärtig genutzten Verfahren zur ÖPNV-Priorisierung (Kapitel 1) und zu ersten C2X-Erprobungsprojekten (Kapitel 2) erfolgt die Ableitung eines Rahmenkonzeptes zur Migration der konventionellen Technik hin zu einer C2X-basierten Priorisierung (Kapitel 3). Die Aspekte der kommunalen Seite – als Anbieter der streckenseitigen Infrastruktureinrichtungen – und der Verkehrsunternehmen – als Betreiber des Öffentlichen Verkehrs – werden speziell betrachtet. Aufbauend auf den Aspekten von Planung, Umsetzung und Betrieb der ÖPNV-Priorisierung sowie der C2X-Nachrichten und Nachrichteninhalte wird ein Leitfaden zum schrittweisen Übergang der Priorisierung vom Status quo hin zur C2X-basierten ÖPNV-Priorisierung vorgestellt. Die C2X-basierte Priorisierung bietet völlig neue Möglichkeiten zur Optimierung der Verkehrssteuerung. Dabei werden in Kapitel 4 die Wechselwirkungen zwischen den unterschiedlichen Verkehrsarten auf der einen Seite sowie die Wechselwirkungen zwischen den verschiedenen C-ITS Services auf der anderen Seite dargestellt. Als Ergebnis des Dokuments werden in Kapitel 5 ein Pilotierungskonzept sowie eine Handlungsempfehlung/Roadmap zur gezielten Umrüstung hin zur C2X-Infrastruktur für die ÖPNV-Priorisierung, wie sie zielführend von Städten/Kommunen sowie Verkehrsunternehmen umgesetzt werden sollte, aufgezeigt. Dabei wird einerseits auf den stufenweisen Ausbau der Hard- und Softwarekomponenten fokussiert und andererseits die zeitliche Komponente der Realisierung thematisiert. Das beispielhafte Pilotierungskonzept berücksichtigt die spezifischen Anforderungen der Städte und Kommunen sowie die Anforderungen und Wünsche der Verkehrsunternehmen an eine ÖPNV-Priorisierung. In einem abschließenden Ausblick wird die Schnelllebigkeit der Informationstechnik als Motivation aufgegriffen, frühzeitig die erforderlichen Entwicklungsschritte anzustoßen.
Veränderungen im Mobilitätsverhalten hin zu einer umweltfreundlichen Fortbewegung führen in der Regel auch zu einer Steigerung der Attraktivität des Radverkehrs. Um diesen Trend zu unterstützen wurde die Frage aufgeworfen, ob und unter welchen Bedingungen Rad Fahrenden das Rechtsabbiegen bei Rot erlaubt werden kann. Der Pilotversuch des erlaubten Rechtsabbiegens von Rad Fahrenden bei Rot durch die Anordnung eines Grünpfeils für Rad Fahrende umfasste 43 Pilotstellen in neun Städten. Die Pilotstellen weisen unterschiedliche Kombinationen der Radverkehrsführung in den betroffenen Zu- und Ausfahrten der untersuchten Knotenpunkte auf. Untersucht wurden sowohl Stellen mit Mischverkehr als auch Stellen mit Radfahrstreifen oder Radwegen in der Zu- und/oder der Ausfahrt. Bei der Auswahl der Pilotstellen wurden die Ausschlusskriterien aus bisher geltenden gesetzlichen Regelungen zur Anordnung des Grünpfeils (VwV-StVO zu § 37 Abs. 2 StVO, Nr. XI) berücksichtigt. Die Untersuchung umfasst eine Darstellung der rechtlichen und entwurfstechnischen Rahmenbedingungen, einen internationalen Vergleich von Pilotversuchen und Regelungen zum Rechtsabbiegen von Rad Fahrenden bei Rot, die Konzeption des Verkehrszeichens, die Typisierung der Infrastruktur an Knotenpunkten, die Auswahl der Pilotstellen und einen Vorher-Nachher-Vergleich zur Evaluation möglicher Veränderungen im Verhalten der betroffenen Verkehrsteilnehmenden. Im Pilotversuch wurden Verkehrsstärken von konfligierenden Rad Fahrenden, Kfz Führenden und zu Fuß Gehenden erhoben und Auswertungen zu Verhaltensweisen wie Rotlichtakzeptanz und Einhaltung der Anhaltepflicht, Wartezeiten, Abbiegegeschwindigkeiten, Interaktionen und Konfliktkenngrößen, Bewegungslinien und eine Analyse des Unfallgeschehens der Pilotstellen für rechtsabbiegende Rad Fahrende durchgeführt. Die Ergebnisse zeigten vor Anbringung der Verkehrszeichen einen hohen Anteil an Rotlicht-Missachtungen rechts abbiegender Rad Fahrender. Nach Anbringung der Zeichen blieb dies dahingehend unverändert, dass ein Großteil der Rad Fahrenden ohne vorheriges Anhalten bei Rot nach rechts abbog. Systematische zusätzliche Behinderungen bzw. Gefährdungen der insgesamt betroffenen Verkehrsteilnehmer konnten nach Anbringung der Zeichen jedoch nicht nachgewiesen werden. Es lässt sich somit schlussfolgern, dass eine Anordnung des Rechtsabbiegens bei Rot für Rad Fahrende an lichtsignalgeregelten Knotenpunkten ohne eine Gefährdung der Verkehrssicherheit grundsätzlich möglich ist. Hierbei ist jedoch in hohem Maße eine Missachtung des Gebots des Anhaltens vor dem Abbiegevorgang bei Rot zu erwarten. Voraussetzung für eine verkehrssichere Umsetzung ist stets die Einhaltung der gemäß Empfehlungen aus dem Pilotversuch zu ergänzenden Kriterien nach VwV-StVO zu § 37 Abs. 2. Nr. XI durch die Straßenverkehrsbehörde.
Um den Substanzwert einer Verkehrsbefestigung in-situ zu bestimmen, wurden im Rahmen dieses Forschungsvorhabens Sensoren entwickelt, die den jeweils aktuellen strukturellen Zustand der Befestigung messen sollen. Als zielführender, leicht zu messender Parameter wurde dabei die Vertikalbeschleunigung gewählt.
Für die Umsetzung wurden verkabelte und autonome Sensoren verwendet. Als Sensortyp wurden MEMS-Sensoren gewählt, da diese vglw. preisgünstig sind und wenig Strom verbrauchen. Durch die verkabelten Sensoren war eine größere Anzahl an Messungen zur Parameterstudie und Validierung des Messverfahrens möglich. Die kabellosen Sensoren stellen Prototypen für spätere Anwendungen dar.
Im Rahmen des Forschungsvorhabens wurden Versuchsfelder errichtet, um die Praxistauglichkeit und die Genauigkeit der Beschleunigungssensoren zu überprüfen sowie den Umgang mit der großen Datenmenge zu erlernen. Bei den ersten Versuchsfeldern (Campus TU-Lichtwiese, BAB 9 bei Feucht) wurden die Beschleunigungssensoren in Ø50mm-Bohrlöcher an bestehenden Befestigungen eingesetzt und verfüllt. Dabei wurde mithilfe von Vorher-Nachher-Messungen mittels Falling Weight Deflectometer (FWD) festgestellt, dass die hervorgerufene Substanzstörung durch den Einbau vernachlässigbar klein ist. Für die Auswertung der gewonnenen Messdaten wurde ein Scilab-Skript geschrieben, welches die Rohdaten aufbereitete und erste Auswertungen ermöglichte. Mehrere Auswertungsansätze wurden dabei verfolgt: z.B. doppelte Integration der Beschleunigung (Vergleich mit FWD-Daten), Inkrementierung von Achszahlen oder Generierung von Achsmustern. Hervorzuheben sind dabei die Vergleiche mit den FWD-Daten, die eine sehr gute Übereinstimmung im Deflexionsverlauf zwischen Beschleunigungssensor und Time History des FWD aufwiesen.
Im Versuchsfeld auf dem Campus TU-Lichtwiese in Darmstadt wurde abschließend die Einbaubarkeit der autonomen Sensoren (Ablegeautomat, Wiederfinden mittels RFID-Antenne) nachgewiesen.
Die im Straßenbau verwendeten Ausgangsstoffe unterliegen hohen Standards, welche in den europäischen Normen bzw. den nationalen Umsetzungen z.B. in der TL Bitumen-StB oder der TL Gestein-StB festgehalten sind. Die Anforderungen der HANV-Schicht an das verwendete Gestein, die das Traggerüst beeinflussen, sind mit den halbstarren Deckschichten bereits hinreichend im M HD optimiert worden. Ebenso wurden die Bindemittel größtenteils aus der Bauweise übernommen. Für Reaktionsharze gibt es kein Regelwerk auf diesem Rechtsniveau, welches die Eigenschaften genau spezifiziert. Dabei steht bei der HANV-Bauweise ausgehend von der volumetrischen Betrachtung dem konventionell verwendeten bitumenhaltigen Bindemittel bzw. Bitumen nur eine sekundäre Aufgabe im viskoelastischen Verhalten zu. Primär wird die Schicht von den Eigenschaften des Verfüllbaustoffes geprägt, eine Vermutung, die bisher nur auf Erfahrungen und nicht auf quantitativen Nachweisen beruht.
Durch Untersuchungen an unterschiedlichen Reaktionsharzen und resultierenden HANV-Systemen konnte der Einfluss der Verfüllbaustoffe im ausgehärteten als auch im aushärtenden Zustand auf die Performanceeigenschaften der Abdichtungsschicht bzw. das Zusammenspiel mit dem Asphalttraggerüst quantifiziert werden.
Dementsprechend können je nach zu erwartender Beanspruchungsart (hohe Verformungen oder mittragender Wirkung) die Verfüllbaustoffe optimiert werden. Dies erlaubt eine nachhaltige Qualität der Abdichtungsschicht auf Stahlbeton und Stahlbrücken.
Das Thema der Radverkehrssicherheit wurde bereits in Forschungsprojekten verschiedener Fachdisziplinen fachspezifisch betrachtet. In diesem Projekt wurde ein interdisziplinärer Ansatz verfolgt, um Radverkehrsunfälle aus Sicht der drei Fachdisziplinen Infrastrukturplanung, Verkehrspsychologie und Fahrzeugtechnik zu analysieren und zu bewerten.
In einer Grundlagenanalyse wurden zunächst wissenschaftliche Erkenntnisse zur Radverkehrssicherheit aus Sicht der drei Fachdisziplinen zusammengetragen. Darauf aufbauend wurden Konstellationen erarbeitet, mit denen eine Fokussierung auf Unfälle ausgewählter Merkmale erfolgen konnte. Es wurden fünf relevante Konstellationen abgeleitet. Diesen konnten aus der Datenbank der German In-Depth Accident Study (GIDAS) insgesamt 1.125 Unfälle der Jahre 2005 bis 2018 zugeordnet werden. Davon wurden 40 ausgewählte Unfälle einer interdisziplinären Betrachtung unterzogen. Im Ergebnis wurde u. a. festgestellt, dass oftmals Wahrnehmungsfehler unfallursächliche Einflussfaktoren sind. Wahrnehmungsfehler sind beim Informationszugang (objektive Verfügbarkeit der notwendigen Informationen) und bei der Informationsaufnahme (aufmerksames Beobachten und Erkennen aller relevanten Informationen) zu finden.
Es wurde eine Anleitung zur interdisziplinären Analyse von Radverkehrsunfällen auf Grundlage eines Phasenmodells der Einflussfaktoren und Randbedingungen entwickelt. In diesem Modell werden den Prozessphasen (Informationsbereitstellung, Informationszugang, -aufnahme, -verarbeitung, Entscheidung, Verhalten und Verhaltensfolge) Einflussfaktoren des Menschen, der Infrastruktur oder des Fahrzeugs auf Radverkehrsunfälle zugeordnet.
Die Analyseanleitung zeigt auf, welche Fragen gestellt werden müssen, um Defizite im Zusammenhang mit Radverkehrsunfällen zu identifizieren und geeignete Handlungsmaßnahmen auszuwählen. Mit einer beispielhaften Darstellung des Analysevorgehens wurde demonstriert, wie für Wirkungszusammenhänge sensibilisiert wird. Die entwickelte Anleitung zur Analyse von Radverkehrsunfällen kann ein anlassbezogenes Verfahren darstellen, das u. a. zum Einsatz kommt, wenn das Unfallgeschehen durch die gängigen Methoden der Verkehrssicherheitsarbeit nicht plausibel erklärbar ist.
Die hohe Bedeutung einer dauerhaften Adhäsion zwischen Bindemittel und Gestein liegt darin begründet, dass die Verdrängung des Bindemittelfilms von der Gesteinskörnung zu irreparablen Schäden mit progressiver Schadensentwicklung führt. In der Literatur finden sich bereits zahlreiche Prüfverfahren zur Quantifizierung der Adhäsion, im Wesentlichen wird jedoch speziell das Haftverhalten in Form von bitumenumhüllter Gesteinskörnung erfasst. Ein hinreichend geeignetes Verfahren zur gezielten Ansprache des Haftverhaltens von Asphalt besteht aktuell nicht. In diesem Forschungsvorhaben wurden vier Prüfverfahren hinsichtlich der Eignung zur Bewertung des Haftverhaltens von Asphalt untersucht. Die mod. Schüttelabrieb-Prüfung, der Stripping-Test im Spurbildungsgerät und der einaxiale Zugversuch ermöglichten unter den betrachteten Randbedingungen keinen zielführenden Ansatz. Es konnte jedoch erfolgreich herausgestellt werden, welchen signifikanten Einfluss die Art der Vorkonditionierung auf das Haftverhalten bewirkt und welche umfassenden Ansätze für eine zielorientierte Quantifizierung notwendig sind. Erste positive Erkenntnisse konnten darüber hinaus durch die Modifizierung der SATS-Prüfung gewonnen werden. Durch eine Veränderung der kombinierten Temperatur- und Druckbeanspruchung, wurde das Verfahren an die nationalen Mischgutkonzepte angepasst. Mit dieser Prüfung wurden 48 Asphaltkonzepte untersucht und abschließend die Auswirkung verschiedener Einflussfaktoren auf das Haftverhalten eruiert. Grundlegend ließ sich eine Abhängigkeit des Steifigkeitsverhältnisses nach der Konditionierung zum Hohlraumgehalt nachweisen, eine Charakterisierung einzelner Einflussparameter konnte jedoch nicht erfolgen. Die reine Druckbeanspruchung ohne Wasser hat darüber hinaus offensichtlich auch einen Einfluss auf die Mikrostrukturen im Prüfkörper. Es handelt sich somit nicht um eine reine Adhäsionsprüfung, sondern um eine kombinierte Prüfung, welche einen weiteren Forschungsbedarf implementiert.
Die Änderung des Arbeitsschutzes, in Form der [Expositionsbeschreibung, 2008], schreibt die Absenkung der Einbautemperaturen von Gussasphalt auf unter 230 °C vor. Eine Möglichkeit zur Verringerung der Einbautemperatur liegt in der Verwendung von viskositätsverändernden Zusätzen. In den [ZTV Asphalt-StB 07/13] wird auf die Notwendigkeit zur Verwendung viskositätsveränderter Bindemittel hingewiesen, ohne dass es hierzu bisher eindeutige Bindemittelspezifikationen gibt. Der Verformungswiderstand erhöht sich durch die Verwendung meist erheblich, sodass zunehmend über eine hinreichende Kälteflexibilität diskutiert wird. Mit diesem Forschungsvorhaben wurden Gussasphalte mit möglichst vielen am Markt vorhandenen viskositätsveränderten Bindemitteln bezüglich ihrer Kälteeigenschaften untersucht. Dafür wurde in einem ersten Schritt die Kälteempfindlichkeit der Bindemittel anhand von drei ausgewählten Prüfverfahren untersucht. Die Asphaltuntersuchungen zur Ansprache des Kälteverhaltens wurden primär mit dem Dreipunkt-Biegezugversuch bei drei Temperaturen durchgeführt. Zur Validierung der Ergebnisse wurden vergleichende Untersuchungen mittels einaxialer Zug- und Abkühlversuche durchgeführt. Eine Abhängigkeit zwischen der Kälteflexibilität der Asphalte und der Bindemittelhärte wurde analysiert. Der Einfluss der granulometrischen Eigenschaften der Gesteinskörnung auf die Kälteflexibilität wurde systematisch geprüft. Hierbei wurden Gesteinsgemischkonzepte festgestellt, die das Kälteverhalten verschlechtern können. Eine Überlagerung der Einflüsse aus den Gemischkomponenten führte erwartungsgemäß zu Gussasphalten mit hoher Kälteempfindlichkeit. Die vergleichende Betrachtung der kälteorientierten Prüfverfahren zeigte einen brauchbaren mathematischen Zusammenhang zwischen dem Verhältniswert QII aus dem Dreipunkt-Biegezugversuch zu der gemessenen Bruchtemperatur im Abkühlversuch. Für den Dreipunkt-Biegezugversuch wurde darüber hinaus eine hohe Messpräzision festgestellt.
Da Polymer-, Gummi-, wachs- und mehrfachmodifizierte Bitumen seit Jahren im Asphaltstraßenbau eigesetzt werden, kommen diese vermehrt im Ausbauasphalt vor. Zur Bewertung des Ausbauasphalts ist es daher notwendig, die Modifizierungen an der Mischanlage zu identifizieren. Die Ausbildung des Bindemittelsacks beim Erweichungspunkt Ring und Kugel ist charakteristisch für die Modifizierung. Hierdurch können wachsmodifizierte Bitumen (WmB) recht präzise und Polymermodifizierten Bitumen (PmB) teilweise identifiziert werden. Mittels Differential Scanning Calorimetry (DSC) werden die Schmelztemperaturen der Wachse erfasst. Hierdurch können WmB identifiziert und die Wachsarten unterschieden werden. Die Analytik mittels Dynamischem Scherrheometer (DSR) startet mit der Bestimmung der Äquisteifigkeitstemperatur EG*T. Bei EG*T werden Frequenz-, Amplituden- und MSCR-Tests durchgeführt. Die Grenze des LVE-Bereichs dient der Identifizierung von WmB. Anhand der Kennwerte bei 0,1 Hz können PmB erkannt werden. Die Rückformung (MSCRT) dient der Identifizierung von Mehrfachmodifizierungen. Da Gummimodifizierte Bitumen (GmB) bei der Extraktion erkannt werden, können alle Modifizierungsarten identifiziert werden. In den FTIR-Spektren (Fourier-Transformations-Infrarotspektroskopie) der modifizierten Bitumen verursachen einige Polymere und Wachse charakteristische Banden, wodurch diese erkannt werden. Die Identifizierung der übrigen Additive erfolgt mithilfe einer multivariaten Auswertung, wodurch mit Ausnahme der GmB (nicht erforderlich) alle Additive erkannt werden. An Stichproben konnte zudem eine Abgrenzung von Mehrfachmodifizierungen sowie eine Abschätzung der Zugabemenge erreicht werden. DSR und FTIR ermöglichen beide eine schnelle, einfache und zielsichere Identifizierung der Bitumenmodifizierungen. Durch die FTIR-Analytik können die Modifizierungen mit der größtmöglichen Präzision bestimmt werden. Die DSR-Analytik erlaubt dafür zusätzlich eine baupraktische Bewertung der Bindemittel.
Die Verkehrsbelastung ist einer der maßgebenden Einflussfaktoren für Straßenkonstruktionen. In diesem Bericht werden detaillierte und aktuelle Achslastverteilungen für die Dimensionierung von Straßenoberbauten zur Verfügung gestellt. Grundlage sind Messdaten der Achslastwaagen im deutschen Autobahnnetz. Diese sind nicht flächendeckend vorhanden. Es wird eine Methode zur flächendeckenden Projektion der Achslastmessstellendaten vorgestellt, die die nahezu flächendeckend vorhandenen Daten der Dauerzählstellen nutzt. Mit dieser Methode können bei vorhandenen Dauerzählstelldaten streckenspezifische Verkehrsbelastungskollektive in Form von B-Zahl und Achslastverteilungen bei semiprobabilistischer bzw. Achslastverteilungsfunktionen für probabilistische Dimensionierungs- und Substanzbewertungsverfahren bereitgestellt werden. Des Weiteren werden repräsentative Achslastverteilungen für Autobahnen des Fern-, Misch- und Nahverkehrs sowie für Straßen des nachgeordneten Netzes vorgestellt.
In Deutschland ist zur Bestimmung der Referenzdichte ungebundener Baustoffgemische der Proctorversuch nach DIN EN 13286-2 [1] festgelegt. Die Laborpraxis hat gezeigt, dass der Proctorversuch für dränierende Baustoffgemische, die für ungebundene Schichten verwendet werden, nicht optimal geeignet ist. Im Forschungsvorhaben FE-Nr. 06.099/2012/EGB [2] wurde die Eignung des Vibrationshammerverfahrens nach DIN EN 13286-4 [3] als alternatives Laborverdichtungsverfahren untersucht und festgehalten, dass dieses Laborverdichtungsverfahren in-situ konform verdichtet und sehr vergleichbare Ergebnisse zum Proctorverfahren unter Verwendung eines festgelegten Wassergehaltes erzielt. Hinzu kommt eine leichtere Handhabung, kostengünstigere Anschaffung und eine Prüfdurchführung, die deutlich weniger zeitintensiv ist. Ein weiterer Vorteil dieses Verdichtungsverfahren ist, dass es wahrscheinlich zu einer geringeren Kornverfeinerung während der Probenverdichtung neigt [4]. Weiterhin wurde festgestellt, dass der optimale Wassergehalt des Vibrationshammerverfahrens etwa 5 bis 10 Prozent unterhalb dem des Standard-Proctorversuches lag [5] und somit etwa dem optimalen Wassergehalt eines modifizierten Proctorversuches (nahezu in-situ konform) entspricht. Seit vielen Jahren wird die Wasserdurchlässigkeit von SoB-Gemischen im Labor mit einer in der DIN 18130-1 [6] beschriebenen Methode bestimmt, bei denen die Wasserdurchlässigkeit im gesättigten Probenzustand ermittelt wird. Während der Herstellung und der Nutzungsphase einer SoB hingegen werden immer ungesättigte Zustände vorliegen, weshalb die Ergebnisse des Laborversuches nach DIN 18130-1 [6], nicht der in-situ Wasserdurchlässigkeit entsprechen. Durch die Entwicklung des Standrohr-Infiltrometerverfahrens nach TP Gestein-StB, Teil 8.3.1 [7], wurde versucht, die in-situ Wasserdurchlässigkeit im Labor besser abzubilden, beispielsweise, indem zum einen Probekörper mit modifizierter Proctorenergie hergestellt werden und zum anderen Wassergehalte während der Probenherstellung zum Einsatz kommen, die unterhalb des optimalen modifizierten Wassergehaltes (0,8 · mod. wPr < w < mod. wPr) liegen. In-situ konforme Prüfbedingungen auf Laborebene sind notwendige Voraussetzungen, um hier Messergebnisse zu generieren, die mit Feldergebnisse vergleichbar sind. Sowohl für die Referenzdichte (Proctordichte) des Verdichtungsgrades, der einen Rückschluss auf die geleistete Verdichtungsarbeit ermöglicht, als auch für die Wasserdurchlässigkeit stehen bis dato Prüfmethoden im Labor zur Verfügung, die aufgrund ihrer Verfahrensparameter nicht den Feldbedingungen entsprechen und häufig nicht vergleichbare Ergebnisse liefern. Entsprechend ist es notwendig mit performance orientierten Prüfverfahren diesen Umstand zu optimieren. Bzgl. der Verdichtung von ungebundenen Baustoffgemischen bietet sich womöglich das Verdichtungsverfahren nach DIN EN 13286-4 [3] als zukunftsweisendes Laborprüfverfahren an, das nach ersten Erkenntnissen besser zur Verdichtung von ungebundenen Gemischen geeignet ist. Zur Weiterentwicklung des Kenntnisstandes zum Vibrationshammer war zu untersuchen, welchen Einfluss die Verwendung eines Vibrationshammers auf die Kornzertrümmerung hat und wie eine Probenherstellung im Verdichtungstopf C (250 mm) mittels Vibrationshammer zur Messung des Infiltrationsbei-wertes ki(10) erfolgen kann, da dies bis dato nicht in der DIN EN 13286-4 [3] beschrieben wird. Ergänzend sollten diese beiden Aspekte auch unter Verwendung unterschiedlicher Vibrationshämmer mit unterschiedlicher Schlagenergie untersucht und bewertet werden. Zu Beginn des Forschungsvorhabens wurde eine Literaturstudie durchgeführt, über die dargelegt werden konnte, dass die Fragestellungen des Forschungsvorhabens bzgl. der Kornzertrümmerung und Verdichtung von Baustoffen im Verdichtungstopf C unter Verwendung eines Vibrationshammers teils, wenn auch thematisch anders gelagert, behandelt wurden und gute Ansätze für das weitere Vorgehen innerhalb des vorliegenden Forschungsprojektes lieferten. Primäre Elemente dabei waren die Verdichtung in einem elf inch (279 mm) Probentopf mittels Vibrationshammer nach DRENEVICH, EVANS und PROCHASKA [15] und der Verfeinerungsgrad nach SCHREIBER [25]. Entsprechend wurden diese Ansätze in das Forschungsvorhaben integriert, um die Eignung des Vibrationshammerverfahrens als zukunftsorientiertes Laborverdichtungsverfahren von ungebundenen Gemischen weiter zu belegen. In das Forschungsvorhaben wurden vierzehn ungebundene Baustoffgemische eingebunden, an denen eine Materialcharakterisierung durchgeführt wurde. Aus dieser ging hervor, dass die Baustoffgemische anforderungsgerechte Eigenschaften entsprechend dem nationalen Regelwerk aufwiesen und aufgrund ihrer variablen technischen Bandbreite als charakteristische Stellvertreter handelsüblicher Baustoffgemische eingestuft werden konnten. Erste Laborversuche zur Fragestellung der erzielbaren Trockendichten durch Proctorverdichter und Vibrationshammer und zur Kornzertrümmerung erfolgten an 0/32 mm Korngemischen ohne Überkorn. Über diese Versuche konnte gezeigt werden, dass der Einsatz eines Vibrationshammers mit einer Schlagenergie von 8,3 Joule zu einer leichten Trockendichtezunahme (2 bis 15 %) für rezyklierte und industrielle Baustoffgemische im Vergleich zum Proctorergebnis führte und sich eine Ergebniszunahme unter Verwendung eines Vibrationshammers mit nahezu doppelter Schlagenergie (16,8 Joule) für alle untersuchten Baustoffgemische einstellte (natürliche Baustoffgemische: 2 bis 7 %, rezyklierte und industrielle Baustoffgemische: 16 bis 31 %). Bzgl. der bestimmten optimalen Wassergehalte zeigten rezyklierte und industrielle Baustoffgemische unter Einsatz eines Vibrationshammers tendenziell eine leichte Reduktion und natürliche Gesteinskörnungen einen nahezu gleichen Ergebniswert wie beim Proctorverfahren. Im Folgenden wurde die im FE-Nr.06.0099/2012/EGB [2] aufgestellte These, dass Baustoffgemische mit einem festgelegten Wassergehalt von 3 M.-% bzw. 5 M.-% verdichtet werden können und dennoch gleichwertige Trockendichten, wie bei einer Verdichtung mit einem optimalen Wassergehalt, erzielen, überprüft. Vorteil bei dieser Vorgehensweise wäre für viele Baustoffgemische die Vermeidung einer Wasserdränage während des Verdichtungsversuches und eine Reduktion der Einzelprobenanzahl. Zwischen der Vorgehensweise einer Verdichtung mit optimalen Wassergehalt und eines festgelegten Wassergehaltes konnten sowohl für das Proctorverfahren als auch für das Vibrationshammerverfahren Korrelationskoeffizienten minimal kleiner 1 bestimmt werden. Die Trockendichtekorrelationen zwischen den Vibrationshammerergebnissen (fester Wassergehalt) und den Proctorergebnissen (optimaler Wassergehalt) ergaben Korrelationskoeffizienten oberhalb von 0,8. Bei der Verwendung eines festgelegten Wassergehaltes für das Vibrationshammerverfahren wurde eine Ergebniszunahme bei der Trockendichte von gemittelt ca. 6,5 % (Vibrationshammervariante A mit 8,3 Joule) bzw. ca. 11,5 % (Vibrationshammervariante B mit 16,8 Joule) festgestellt. Anhand von Siebanalysen, die nach der Probenherstellung mittels Vibrationshammervariante A durchgeführt wurden, konnte gezeigt werden, dass ein festgelegter Wassergehalt zu einer vermehrten Kornzertrümmerung für industrielle und RC-Baustoffgemische, im Vergleich zu einer Verdichtung mit einem optimalen Wassergehalt, führt. Für die untersuchten natürlichen Baustoffgemische stellte sich eher ein konstantes bis gegenläufiges Ergebnisbild bzgl. der Kornzertrümmerung ein. Beim Einsatz der Vibrationshammervariante B mit einer Schlagenergie von 16,8 Joule wurde nahezu durchweg eine stärkere Zunahme der Kornzertrümmerung unter Verwendung eines festgelegten Wassergehaltes belegt. Abschließend wurde untersucht, wie eine Baustoffgemischverdichtung mit einem Vibrationshammer in einem 250 mm Verdichtungstopf durchgeführt werden kann, welche Trockendichten erzielt werden, welche Kornzertrümmerung dabei auftritt, welche Infiltrationsbeiwerte ki(10) mit derart hergestellten Probekörpern erzielt werden und ob die potenziell auftretende Kornzertrümmerung evtl. einen Einfluss auf den Infiltrationsbeiwert hat. Die Ergebnisse der dazu durchgeführten Untersuchungen wurden im Vergleich zu Proctorversuchen bewertet. Die Trockendichten der für die Infiltrationsmessungen hergestellten Probekörper zeigten, auf das jeweilige Verdichtungsverfahren und ungebundene Baustoffgemisch bezogen, sehr geringe Standardabweichungen. Entsprechend lieferten die Verdichtungsverfahren reproduzierbare Trockendichten. Für das Vorgehen mittels Proctorverfahren konnte eine Trockendichtezunahme zwischen ca. 4 und 25 % (im Mittel ca. 12 %) beim Wechsel von Verdichtungstopf B (Ø 150 mm) zu C (Ø 250 mm) bestimmt werden, wobei hierbei beachtet werden muss, dass die Probeherstellung im Verdichtungstopf C mit modifizierter Proctorenergie erfolgte. Eine ähnliche Tendenz zeigte sich beim Wechsel von Verdichtungstopf B zu Verdichtungstopf C unter Einsatz des Vibrationshammers A mit 8,3 Joule Schlagenergie. Hier lag die Ergebniszunahme bzgl. der Trockendichte zwischen ca. 2 und 14 % (im Mittel bei ca. 6 %). Konträr dazu zeigte sich das Ergebnisbild durch den Wechsel von Verdichtungstopf B zu Verdichtungstopf C unter Verwendung des Vibrationshammers B mit 16,8 Joule Schlagenergie. Hier kam es zu einer Abnahme der Trockendichteergebnisse zwischen ca. 1 und 7 % (im Mittel bei ca. 4 %). Die mit dem Proctor- bzw. Vibrationshammer hergestellten Probekörper zeigten überwiegend einen Infilrationsbeiwert oberhalb, zum Teil weit oberhalb, von 10-6 m/s. Da die Ergebnisschwankungen der Infiltrationsresultate, die mit Proctor- bzw Vibrationshämmern hergestellt wurden, relativ gering ausfielen, konnte mit Ausnahme weniger Messwerte kein verdichtungsverfahrensabhängiger Einfluss auf das Infiltrationsergebnis aufgezeigt werden. Ergänzend wurden auch Siebanalysen nach der Probenherstellung zur Bestimmung der auftretenden Kornzertrümmerung vorgenommen, die die folgenden Interpretationen zu-ließen. Das modifizierte Proctorverfahren bedingt während der Probekörperherstellung im 250 mm Verdichtungstopf C den größten und der Vibrationshammer A mit einer Schlagenergie von 8,3 Joule den geringsten Einfuss auf die Kornzertrümmerung. Verfahrensunabhängig zeigten industrielle und RC-Baustoffgemische eine größere Tendenz zur Kornzertrümmerung als natürliche Baustoffgemische. Anhand der Nachsiebungen bzw. berechneten Verfeinerungsgrade konnte kein direkter mathematischer Zusammenhang zwischen An- oder Abstieg des Infiltrationsbeiwertes und An- oder Abstieg an Kornzertrümmerung nachgewiesen werden. Das Forschungsvorhaben konnte weiterführend die Eignung des Vibrationshammerverfahrens als Alternative zum Proctorverfahren aufzeigen und ermöglichte die Abfassung eines Entwurfs einer TP Gestein-StB zur Herstellung von Prüfkörpern mit einem Vibrationshammer für Infiltrationsversuche im 250 mm Verdichtungstopf. Auch die These einer Verdichtung mit einem festgelegten Wassergehalt konnte weiter ausgebaut werden. Damit verbunden sind eine leichte Zunahme an Trockendichte und Kornzertrümmerung. Infiltrationsversuche an Proben, die mit ähnlichen Wassergehalten hergestellt wurden und eine ähnliche Kornzertrümmerung aufwiesen, zeigten jedoch, dass die Kornzertrümmerung keinen Einfluss auf den Infiltrationsbeiwert der untersuchten Proben hatte.
Im Pkw-Sektor wird bereits eine Vielzahl sicherheitsrelevanter Forschungsfragen mit Hilfe von Fahrsimulatoren untersucht. Zudem liegen viele Studien zur Übertragbarkeit der in Simulatoren gewonnenen Erkenntnisse auf den realen Straßenverkehr vor. Im Vergleich dazu befindet sich der Einsatz der Motorradsimulation in einem sehr frühen Stadium. Die langjährigen Erfahrungen im Pkw-Sektor zeigen, dass Fahrsimulatoren einen wesentlichen Beitrag zur Verkehrssicherheit leisten können. Dieses Potenzial gilt es für Motorradsimulatoren ebenfalls zu überprüfen. Motorradsimulatoren – insbesondere mit einem komplexen technischen Aufbau für Forschungs- und Entwicklungsfragestellungen – wurden bislang nur in sehr wenigen Forschungseinrichtungen aufgebaut. Wissenschaftliche Studien zur Anwendbarkeit bzw. Übertragbarkeit der mit Motorradsimulatoren erzielten Ergebnisse liegen kaum vor. Darüber hinaus ist nicht geklärt, welche Ausbaustufen der Motorradsimulation für die Beantwortung spezifischer Fragestellungen hinreichend oder notwendig sind. Dies stellt insbesondere vor dem Hintergrund der hohen Zahl schwerer und tödlicher Unfälle von Motorradfahren ein erhebliches Defizit dar (DESTATIS; 2020a). Die Durchführung sicherheitsrelevanter Studien an Motorradsimulatoren könnte – wie im Pkw-Bereich auch – als wichtiges Werkzeug zur gefahrlosen und effizienten Untersuchung z.B. von eingreifenden Assistenzsystemen wie automatischen Notbrems- oder Ausweichsystemen beitragen, oder als gefahrenfreies Werkzeug für Fahrtrainings genutzt werden und damit einen positiven Effekt auf die Sicherheit von Motorradfahrern haben. Um sich diesem Ziel zu nähern, müssen jedoch Erkenntnisse hinsichtlich der Eignung von Motorradsimulatoren vorliegen. Entsprechend verfolgt das vorliegende Projekt zwei Ziele: Erstens sollen Erkenntnisse über Einsatzmöglichkeiten von Motorradsimulatoren unterschiedlicher Ausbaustufen generiert werden. Daraus soll eine Entscheidungshilfe erarbeitet werden, die Anwendern aufzeigt, bei welcher Art von Fragestellung Motorradsimulatoren (in unterschiedlichen Ausbaustufen) eingesetzt werden können. Zweitens soll im Rahmen des Projekts eine Methodik zur Validierung von Motorradsimulatoren entwickelt werden, die mit einer definierten Anzahl an Untersuchungen Aussagen hinsichtlich der Validität für die im ersten Teil ermittelten Einsatzmöglichkeiten erlauben soll. Kern der entwickelten Methodik ist die Annahme, dass sich komplexe Fahraufgaben in kleinere, fahrhandlungsunterscheidende Einheiten, die sogenannten Minimalszenarien, unterteilen lassen. Hierbei handelt es sich um Aufgaben wie beispielsweise Anfahren aus dem Stand, Einleiten einer Kurve mit konstanter Geschwindigkeit oder Bremsung in den Stand. Des Weiteren wird angenommen, dass sich Minimalszenarien im Nachgang zu komplexen Fahraufgaben zusammenführen lassen. Hierdurch soll die Vielzahl möglicher Anwendungsfelder auf den kleinsten Satz gemeinsamer elementarer Aufgaben gebracht werden, um den Validierungsaufwand zu reduzieren. Um neben dem Vergleich zwischen Realfahrzeug und Motorradsimulation eine erste Abschätzung hinsichtlich der benötigten Ausbaustufe eines Simulators treffen zu können, wurde die Untersuchung mit einem Messmotorrad des Typs Honda NC 700 X, dem dynamischen „DESMORI“ Motorradsimulator und dem statischen Motorradsimulator der WIVW GmbH durchgeführt und die Ergebnisse miteinander verglichen. Zur umfassenden Betrachtung wurden neben fahrdynamischen Parametern Kenngrößen zum Fahrerverhalten sowie der messbaren und subjektiv erlebten Beanspruchung einbezogen. Auf Basis einer großen Anzahl potenzieller Anwendungsfelder wurden Minimalszenarien abgeleitet, die eine Beschreibung dieser zulassen. Mit einer Teilauswahl der relevantesten Minimalszenarien wurde eine Verifikationsstudie mit N = 6 Fahrern durchgeführt, in der Sequenzen (Aneinanderreihungen von Minimalszenarien) in unterschiedlichen Dynamikabstufungen untersucht wurden. Im Rahmen der Verifikationsstudie konnten anhand der unterschiedlichen Minimalszenarien stabile Eigenschaften der Simulatoren beobachtet werden, die sich auf Ebene von Geschwindigkeitseffekten, Stabilitätseffekten und Effekten auf Ebene der Regelung und Beanspruchung beschreiben lassen. Insgesamt zeigten sich Indizien für größere Potenziale des dynamischen Simulators für Fragestellungen, die eine Rückmeldung des „Fahrgefühls“ erfordern, wohin eine bessere Eignung des statischen Simulators für Fragestellungen indiziert ist, die ein Beanspruchungsniveau erfordern, wie es in der Realfahrt vorliegt. In einer anschließenden Probandenstudie mit N = 15 Normalfahrern wurde untersucht, inwiefern die in den Minimalszenarien beobachtbaren Fahreigenschaften der Simulatoren auch in dynamischeren Fahrsituationen auftreten. Zu diesem Zweck wurden die Minimalszenarien zu komplexen Fahraufgaben zusammengeführt. Dabei wurde der sogenannte Rapid Serial Visual Presentation Task (RSVP), ein Ausweich- bzw. Ausweich-Brems-Manöver und eine Fahrt im öffentlichen Straßenverkehr untersucht. Hierbei konnten die generellen Eigenschaften der zwei Simulatoren bzw. des Messmotorrads aus der Verifikationsstudie repliziert werden. Mit dem vorliegenden Projekt konnten erste Anwendungserfahrungen für eine neuartige Validierungsmethodik für Fahrsimulatoren gesammelt und dokumentiert werden. Darüber hinaus wurde auf Basis der gewonnenen Daten eine Entscheidungshilfe entwickelt, die Anwender dabei unterstützt in Abhängigkeit von der vorliegenden Fragestellung die richtige Versuchsumgebung auszuwählen.
Schräglagenangst
(2021)
Ziel des Projektes FE 82.0710/2018 „Schräglagen¬angst“, bearbeitet durch das Fachgebiet Fahrzeugtechnik (FZD) der Technischen Universität Darmstadt (TUDA), das Würzburger Institut für Verkehrswissenschaften GmbH (WIVW) und Auto Mobil Forschung Dresden GmbH (AMFD), ist die Analyse gefahrener Schräglagen von Motorradfahrenden. Hierbei werden sowohl Alltags- wie auch Gefahrensituationen eines möglichst breiten Fahrendenkollektivs untersucht.
Zum einen soll projektseitig untersucht werden, ob ein schräglagenängstlicher Fahrendentyp existiert, der unabhängig von der Fahrsituation ein Überschreiten einer Rollwinkelschwelle vermeidet. Dieses Verhalten kann zu gefährlichen Situationen aufgrund zu hoher Kurvengeschwindigkeiten führen, obwohl diese durch größere Schräglagen vermieden werden könnten. Zum anderen soll in dem Projekt das Fahrendenverhalten bei situationsbedingtem Nichtausnutzen des möglichen Schräglagen¬potenzials analysiert werden.
Im Rahmen dessen werden Methodiken zur Ermittlung des Fahrendenverhaltens in schräglagenängstlichen Situationen sowie zur Ermittlung eines schräglagenängstlichen Fahrendentyps entwickelt. Dazu gehören die Auslegung pseudo-kritischer Manöver zur Untersuchung des Fahrendenverhaltens im Teststreckenversuch sowie ein Fragebogen zur Ermittlung schräglagenängstlicher Fahrendentypen.
Ein weiteres Ziel dieses Projekts ist die breite Erfassung gefahrener Schräglagen von Motorradfahrenden im Straßenverkehr. Insgesamt werden drei verschiedene Messtechnikkonzepte umgesetzt. Das erste basiert auf einem Messmotorrad für Probandenfahrten im Straßenverkehr. Das zweite auf einer Smartphone-Application (App), die im Rahmen des Projekts entwickelt wurde. Bei der Smartphone-Application wird dabei auf die im Smartphone integrierten Sensoren zurückgegriffen. Das dritte Konzept zielt auf eine Stationärmesstechnik, die für einen Zeitraum von mindestens einem Tag oder länger in Kurvenbereichen aufgestellt werden kann, um dort ein möglichst großes Fahrendenkollektiv beobachten zu können, wenn auch mit Einbußen bei den Kenntnissen über den jeweiligen Fahren¬dentyp bzw. das individuelle Fahrkönnen.
Im nächsten Schritt wird auf die Umsetzung der erarbeiteten Konzepte in Fahrversuchen eingegangen. Hier werden zwei verschiedene vordefinierte Streckenabschnitte im Dresdener Umkreis und in der Nähe von Würzburg beschrieben. Zudem wird die Umsetzung der pseudokritischen Manöver bei Teststreckenversuchen in Darmstadt dargelegt.
Im Rahmen der Fahrstudien in Würzburg und Dresden konnte aufgezeigt werden, dass sich im Alltag 75 % aller gefahrenen Schräglagen unter einem Schwellwert von 25° befinden. Hierbei weisen Fahrende mit höherer berichteter Schräglagenangst durchschnittlich geringere maximale Rollwinkel und Rollwinkelspektra auf. Weiterhin konnten erste alters- und fahrleistungsbedingte Abhängigkeiten der Schräglagen beobachtet werden.
In den Fahrversuchen auf abgesperrtem Gelände konnte eine Eignung der Manöver zur Untersuchung von Schräglagenangst-Phänomenen bestätigt werden. Eine allgemein gültige Reaktion auf eine bestimmte Situation konnte nicht nachgewiesen werden. Die Reaktionen sind sehr individuell und abhängig von dem sonstigen Fahrstil. Das plötzliche Auftauchen eines Hindernisses in einer nicht einsehbaren Kurve zeigte bei den meisten Fahrenden starke Reaktionen im Fahrverhalten.
Zusammenfassend wird innerhalb des Projekts die Hypothese der Existenz einer Schräglagenschwelle bestätigt. Diese ist jedoch nicht wie ursprünglich vermutet auf einen bestimmten Rollwinkelwert fixiert, sondern vielmehr eine persönliche und individuelle Schwelle. Sie wird weder in Normalsituatio¬nen noch in Schrecksituationen unterschritten, aber auch nicht deutlich überschritten. Dies bedeutet, dass bei der Notwendigkeit eines größeren Rollwinkels als des persönlich Maximalen ein Verlassen des eigenen Fahrstreifens und ein Unfall droht.
Hier wird als mögliche Weiterarbeit eine flächendeckende Studie zur Untersuchung der Steigerungs-möglichkeiten der eigenen Schräglagenschwelle empfohlen. Dies könnte zum Beispiel mit neuartigen Trainingskonzepten möglich sein.
Ziel des Forschungsvorhabens war die Herstellung von „Nanoasphalt“ aus mit polymerbeschichteten, plättchenförmigen Nanopartikeln dotierten Bitumenbindemitteln und die Untersuchung des Alterungsverhaltens der neuen Materialklasse.
Theoretische Voruntersuchungen zeigten, dass statistisch im Volumen verteilte, mplättchenförmige Partikel mit Aspekverhältnissn D/H > 100 als effektive Diffusionsbarrieren wirken und sowohl die oxidative Alterung als auch den Verlust weichmachender Bestandteile aus Bitumenbindemitteln um den Faktor 2 - 3 verlangsamen können.
Es wurde eine lösemittelfreie Synthese für Alkyl-Quat-Primer-Polymere entwickelt und ein Verfahren ausgearbeitet, um Natrium-Montmorillonit (NaMMT) in einem einstufigen Verfahren zu exfoliieren und die entstehenden Silikatblättchen mit den Polymeren zu beschichten. Hochverzweigte Polymere auf Basis von Polyethylenimin mit einem Quarternisierungsgrad von ca. 5 mol% und einem Alkylierungsgrad von 80 mol% unter Verwendung von C12-Substituenten adsorbieren irreversibel auf Montmorrilonit und wirken zugleich als Dispergiermittel. Es konnten Nanopartikel-Bitumen-Komposite (NPBK) hergestellt werden, die bis zu 10 M.-% Nanopartikel mit Dicken von 10-50 nm und Durchmessern von ca. 1-10 μm enthielten. Zur Herstellung eines Demonstrators wurden die Synthesen in den Halbtechnikumsmaßstab hochskaliert (11 kg Polymer → 22 kg modifizierte Nanopartikel → 440 kg Nano-Bitumen → 6.200 kg Nano-Asphalt).
Die Einmischung der Nanopartikel in das Bitumen erfolgte einmal mit dem bereits in der Pilotstudie eingesetzten Schnecken-Extruder und mit Blick auf eine spätere Hochskalierung des Herstellungsprozesses mittels Hochschermischer. Die auf diese Weise hergestellten NPBKs wurden in unterschiedlichen Alterungsstufen (frisch, kurz- und langzeitgealtert) anhand von konventionellen und rheologischen Prüfungen beurteilt.
Mit ausgewählten NPBK-Varianten wurden auf Laborebene Asphalte hergestellt, die ebenfalls umfangreichen Testreihen unterzogen wurden. Den Projektabschluss bildete die großmaßstäbliche Mischgutherstellung in einer Asphaltmischanlage sowie das Anlegen und Beproben einer Demonstratorfläche.
Fahrräder sind weit verbreitet und beliebt zur Freizeitgestaltung sowie als günstiges und umweltfreundliches Transportmittel (VON BELOW, 2016). Zunehmend verbreiten sich auch in Deutschland Fahrräder mit elektrischer Tretunterstützung, wie z. B. Pedelecs (ZIV, 2018). Im Rahmen dieses Projektes wurde eine Methodik entwickelt, mit der man die Routenwahl von Fahrrad- und Pedelecfahrern besonders in Deutschland untersuchen kann. Vorbereitend wurden verschiedene Untersuchungsmethoden betrachtet sowie aktuelle Erkenntnisse zur Routenwahl identifiziert. Der gewählte Ansatz besteht aus einem Zwischengruppen-Design, das eine Kombination aus Revealed-Preference-Ansatz (dem Schließen der Routenwahl aus realen Fahrten) und verschiedenen Befragungsformen beinhaltet. Er wurde mit 14 Probanden (8 Fahrrad- und 6 Pedelecfahrern) in einer naturalistischen Fahrradpilotstudie in Chemnitz getestet. Sie zeichneten über 3 Tage hinweg jede ihrer Routen mit einem Datenaufzeichnungsgerät auf, das Video- und GPS-Daten lieferte und so Rückschlüsse über die tatsächliche Nutzung verschiedener Routenwahldeterminanten zuließ. Zudem wurden Begleitumstände und Informationen zu Präferenzen der aktuell gewählten Route in einem Wegetagebuch erfasst, während Fragebögen Informationen zu Einstellungen und fahrtübergreifenden Präferenzen verschiedener Determinanten lieferten. Eingeschlossen, aufbereitet und ausgewertet wurden 81 Fahrten mit einer Gesamtlänge von 440 km. Die Auswertung zeigte oft Übereinstimmungen von angegebenen Präferenzen in der Befragung und tatsächlichen Routen in den Videos. Die Ergebnisse sollten jedoch vor dem Hintergrund der geringen Probandenzahl und der örtlichen Beschränkung nur mit Einschränkungen interpretiert werden. Der Fokus des Projektes lag auf der Testung und Diskussion der gewählten Methodik, welche sich in den meisten Punkten bewährt hat. Stärken und Verbesserungsmöglichkeiten werden ausführlich diskutiert. Auf Basis der Erfahrungen wurde ein Manual für die Nutzung bei Folgestudien erarbeitet.
Im Rahmen des Forschungsvorhabens sollten auf der Basis bekannter Zusammenhänge sowie ergänzend durchzuführender Untersuchungen vor Ort und im Labor Grundlagen zur Abschätzung der Chlorideindringung in Tunnelinnenschalenbeton geschaffen werden. Hierfür standen Fragebogen zu Chloridbelastungen in Straßentunneln zur Verfügung.
Im Ergebnis der 2013 initiierten Länderabfrage gingen Rückmeldungen zu insgesamt 53 Bauwerken ein, was etwa 13 % des gesamten Straßentunnelbestandes entspricht. Als ein wesentliches Ergebnis der Länderabfrage ist festzustellen, dass in allen untersuchten Tunneln auch Chloride nachgewiesen wurden.
Zum Studium von Materialeigenschaften, die für das Eindringen und die Ausbreitung von Chloriden maßgebend sind, wurden eigene Laborprüfkörper hergestellt. Außerdem wurden Untersuchungen an drei bayrischen Tunnelbauwerken durchgeführt. Zur Untersuchung wurden grundsätzlich in jedem Tunnel mindestens 2 Blöcke ausgewählt.
Als Grundlage für die Modellierung der Chlorid-Eindringvorgänge wurde ein semi-probabilistische Ansatz gewählt. Das Ziel der hier ausgeführten Berechnungen bestand nicht in der Dauerhaftigkeitsbemessung neu zu errichtender Bauteile, sondern in der Prognose der weiteren Entwicklung des Chloridgehaltes in einem bestehenden Bauwerk, für das Chloridprofile aus Bauwerksuntersuchungen vorliegen.
Im Ergebnis der semi-probabilistischen Modellierung der Chlorid-Eindringvorgänge konnte eine praktikable Prognose für einen wählbaren Zeitraum erstellt werden und mit den auf Basis der experimentell ermittelten Chloridprofile validiert werden.
Mit den Erkenntnissen des Forschungsvorhabens bzw. mit der darin beschriebenen Herangehensweise ist es möglich, Bestands-Tunnelbauwerk hinsichtlich der Gefahr einer chloridinduzierten Korrosion zu charakterisieren und eine Prognose für den tiefen- und zeitabhängigen Chloridgehalt im Beton für die geplante (Rest-) Nutzungsdauer abzuschätzen.
Hintergrund der Studie war die Harmonisierung des europäischen Rechts zur Fahrerlaubnis-Verordnung (FeV) bezüglich der Anforderungen an das Farbsehvermögen von Berufskraftfahrern und Berufskraftfahrerinnen. Mit der Umsetzung in deutsches Recht können seit dem 01.07.2011 Personen mit einer vorliegenden Rotblindheit oder Rotsehschwäche in Deutschland auch sämtliche Fahrerlaubnisse der Gruppe 2 (C1, C1E, C, CE, D1, D1E, D, DE, FzF) erwerben (zuvor nur C1, C1E, C, CE), bei Rotblindheit oder Rotschwäche mit einem Anomalquotienten unter 0,5 ist jetzt lediglich eine Aufklärung der betroffenen Person über die mögliche Gefährdung erforderlich. Gegen diese gelockerte Regelung werden von der Deutschen Ophthalmologischen Gesellschaft und anderen Fachleuten Bedenken geäußert.
Um eine Grundlage in der Argumentation zu zukünftigen oder bestehenden gesetzlichen Regelungen zu schaffen, sollten in der vorliegenden Studie belastbare epidemiologische Daten, die Rückschlüsse auf das Ausmaß und die Relevanz von Protanopie und Protanomalie bei Berufskraftfahrern und Berufskraftfahrerinnen für die Verkehrssicherheit zulassen, recherchiert werden.
Die Datengewinnung erfolgte auf zwei Wegen. Zum einen fand eine systematische Literaturrecherche zur Identifizierung von Studien statt, wobei die Studien nach bestimmten Kriterien ausgewählt und anschließend die jeweiligen Daten extrahiert wurden. Zum anderen erfolgte eine Datenrecherche bei Behörden, Fachgesellschaften, Versicherern und Berufsgenossenschaften. In der Datenrecherche wurden veröffentlichte Zahlen recherchiert sowie Institutionen, Arbeits-/Betriebsmedizinpraxen und weitere Fachleute nach Daten befragt.
Eine Datengrundlage zur Schätzung der aktuellen Prävalenz speziell unter Berufskraftfahrern und Berufskraftfahrerinnen konnte weder über die Daten- noch über die Literaturrecherche geschaffen werden. Bei keiner der kontaktierten Institutionen liegen strukturierte personenbezogene Daten zur Diagnose von Farbsinnstörungen vor. In der Literaturrecherche konnten jedoch Prävalenzen für die Gesamtbevölkerung in Europa ermittelt und in einer Metaanalyse zusammengefasst werden. Die ermittelten Werte bestätigen die allgemein verwendeten Werte. Innerhalb der männlichen Bevölkerung sind ca. 1 % protanop und ca. 2 % protogestört, wohingegen die Prävalenzen beider Protostörungen bei Frauen deutlich unter 0,1 % liegen.
Eine Datengrundlage zur Schätzung des Unfallrisikos unter protogestörten Berufskraftfahrern und Berufskraftfahrerinnen konnte ausschließlich über die Literaturrecherche und lediglich in begrenztem Umfang geschaffen werden. Bis auf eine Studie, die 1996 veröffentlicht wurde, wurden die identifizierten Studien vor 1980 publiziert und es ist zweifelhaft, ob die damaligen Bedingungen (Straßenverhältnisse, Verkehrsaufkommen, lichttechnische Ausstattung der Kraftfahrzeuge, technische Anforderungen an die Verkehrszeichen usw.) mit heutigen Verhältnissen vergleichbar sind. Hinsichtlich des Unfallrisikos lässt sich übergreifend aus den identifizierten und eingeschlossenen Studien keine statistische Erhöhung des Unfallrisikos bei oder durch protanope, protanomale oder protogestörte Kraftfahrzeugführende nachweisen, sodass die auf Basis dieser Studie ermittelten Daten keine Grundlage für eine Rücknahme der im Rahmen der Harmonisierung des europäischen Rechts zum 01.07.2011 erfolgten Änderung der Anlage 6 FeV bieten.
Schwerpunkt des Vorhabens waren Untersuchungen an bisher ungeschädigten Betonfahrbahndecken im Bundesfernstraßennetz, in denen vor rund 30 Jahren Gesteinskörnungen zur Anwendung kamen, die nach Auskunft der BASt gemäß den heutigen Bestimmungen nach dem ARS Nr. 04/2013 teilweise als alkaliempfindlich einzustufen sind.
In Abstimmung mit der BASt wurden insgesamt fünf Streckenabschnitte auf den Bundesautobahnen A7, A92 und A93 in Bayern für die Untersuchungen ausgewählt. Im ersten Bearbeitungsschritt erfolgte eine visuelle Begutachtung der Betondecken und eine Zuordnung zu AKR-Schadenskategorien. Des Weiteren wurden AKR-relevante Kennwerte der verwendeten Betonzusammensetzungen anhand der verfügbaren Bestandsunterlagen zusammengestellt. Im Anschluss erfolgte die Entnahme von Bohrkernen aus den Betondecken und die Präparation von Probekörpern für weitere Untersuchungen. Untersucht wurden die mechanischen Eigenschaften (Druck- und Spaltzugfestigkeit), der vorhandene Schädigungsgrad infolge AKR (Dünnschliffmikroskopie) sowie das Restdehnungspotential infolge AKR (Dehnung im 60 °C Betonversuch mit Alkalizufuhr und anschließende Dünnschliffmikroskopie).
Mittels Röntgenbeugungsanalyse und Dünnschliffmikroskopie erfolgten Vergleiche zwischen den im Beton vorhandenen und den aktuell in den Abbaustätten produzierten Gesteinskörnungen, soweit aktuelle Proben der Gesteinskörnungen beschafft werden konnten. Die aktuellen Gesteinskörnungsproben wurden mit dem Schnellprüfverfahren nach Alkali-Richtlinie charakterisiert.
Bei der visuellen Begutachtung der Fahrbahndecken wurden an keinem der fünf Streckenabschnitte AKR-typische Schäden festgestellt. Die Laboruntersuchungen zum Schädigungsgrad und zum Restdehnungspotential infolge AKR bestätigten im Wesentlichen den aufgrund der Begutachtung angenommenen hohen AKR-Widerstand der Betone.
Überquerungsanlagen sollen mögliche Gefährdungen und Konfliktsituationen entschärfen, die beim Überqueren von Fahrbahnen durch Fußgänger entstehen können. § 45 Abs. 9 S. 1 und S. 3 StVO verlangen bei Anordnung eines FGÜ eine Einzelfallprüfung. Die Richtlinien für die Anlage und Ausstattung von Fußgängerüberwegen (R-FGÜ 2001) präzisieren die Einsatzbereiche von FGÜ. Nach den Richtlinien zur Anlage von Stadtstraßen (RASt 06) und dem Merkblatt für die Anlage von Kreisverkehren (2006) sollen FGÜ an den Überquerungsstellen an Kreisverkehren eingerichtet werden. Dies steht zu den straßenverkehrsrechtlichen Vorgaben in Widerspruch.
Die Untersuchung umfasste
• Unfallanalysen bei Überquerungsstellen an Kreisverkehren mit FGÜ und ohne FGÜ sowie bei FGÜ an Streckenabschnitten,
• Verhaltensbeobachtungen, insbesondere zur Akzeptanz der Verhaltensregelungen, und
• Befragungen zur Regelkenntnis.
Bei insgesamt sehr wenigen Unfällen Überquerender an Kreisverkehren können für keinen der Regelungstypen generelle Sicherheitsvorteile aufgezeigt werden. Viele abbiegende Fahrzeuge an Kreisausfahrten ohne FGÜ fahren vor wartenden Fußgängern durch. Bei FGÜ besteht eine hohe Akzeptanz der Regelungen.
Im Rahmen der Untersuchung wurden Geschwindigkeiten ausfahrender Fahrzeuge ohne Interaktionen mit Überquerenden an Überquerungsstellen gemessen. Für die Überquerungsstellen ohne FGÜ zeigte sich ein deutlicher Einfluss des Durchmessers der Kreisinsel – zzgl. eines Innenringes – auf die Geschwindigkeit ausfahrender Kfz. Bei Durchmessern der Kreisinsel zuzüglich eines Innenringes um 15 m liegen die mittleren Geschwindigkeiten bei 28 bis 35 km/h, bei Durchmessern um 25 m bei 22 bis 32 km/h. Auch für die v85 zeigten sich diese Einflüsse.
Die Kenntnis der Verkehrsregeln beim Abbiegen aus und beim Einbiegen in einen Kreisverkehr ist bei Fußgängern und bei Kfz-Führern generell ungenügend.
FGÜ an Streckenabschnitten und Hauptarmen unsignalisierter Knoten, die aus 100 m Entfernung erkennbar sind und deren Warteflächen aus beiden Richtungen aus 50 m Entfernung sichtbar sind, erwiesen sich als sicherer als FGÜ mit eingeschränkter Erkennbarkeit und eingeschränkten Sichtbeziehungen.
• Folgerungen und Empfehlungen
Für Kreisverkehre wird empfohlen, FGÜ stets nach einer Einzelfallprüfung nach den R-FGÜ anzuordnen. Die R-FGÜ könnte aus Gründen der Klarstellung entsprechend angepasst werden. Bei Gefährdung besonders schutzbedürftiger Personen wie Kindern, älteren Menschen und Blinden und Sehbehinderten, die einen Kreisverkehrsarm regelmäßig überqueren, kann ein FGÜ auch bei niedrigeren Stärken des Fußgängerverkehrs als nach den geltenden R-FGÜ geprüft werden.
Die Anforderungen an die Sichtweite auf Warteflächen sollte für die Ausfahrt von Kreisverkehren auf 10 – 15 m präzisiert werden. FGÜ sollten in der Zu- wie in der Ausfahrt beleuchtet werden. Bei ausreichender Flächenverfügbarkeit sollten Durchmessern der Kreisinsel einschließlich eines Innenringes um 25 m gegenüber kleineren Durchmessern bevorzugt werden.
Es besteht Bedarf an einer Verkehrsaufklärung, um die Regelkenntnis für Interaktionen zwischen abbiegenden Fahrzeugen und überquerenden Fußgängern an Überquerungsstellen ohne FGÜ zu verbessern. Die Kenntnis soll dabei sowohl bei Fußgängern als auch bei Kfz-Führern verbessert werden.
Der Bestand an Pkw mit alternativem Antrieb stieg von rund 704.000 Fahrzeugen im Jahr 2015 auf rund 900.000 Pkw im Jahr 2019 (ein Plus von etwa 28 %). Pkw, die mit Erdgas (CNG) oder Autogas (LPG) fahren, stellen im aktuellen Fahrzeugbestand die größte Gruppe mit alternativem Antrieb (2019 rund 476.000 Pkw). Danach folgen die Hybridfahrzeuge mit mehr als 340.000 Pkw, dessen Bestand sich seit 2015 verdreifacht hat. Die Entwicklung des Plug-In-Hybrid-Bestandes ist noch deutlicher: im Zeitraum von 2015 bis 2019 stieg der Wert auf das 13-fache. Bei reinen Elektro-Pkw stieg der Bestand auf 83.175 Fahrzeuge im Jahre 2019. Dieser Trend setzt sich bei allen alternativen Antriebsarten – außer bei den Gasfahrzeugen – fort.
Im Januar 2020 wurden bereits 136.617 Pkw mit reinem Elektroantrieb registriert; ein weiterer Zuwachs gegenüber 2019 um 64 %.
Um die zukünftige Entwicklung von Fahrzeugen mit alternativem Antrieb in Deutschland beurteilen zu können, initiierte die Bundesanstalt für Straßenwesen (BASt) im Auftrag des Bundesministeriums für Verkehr und digitale Infrastruktur (BMVI) schon im Jahr 2010 die Einrichtung einer langfristigen Beobachtung des Fahrzeugmarktes und des Unfallgeschehens von Fahrzeugen mit alternativen Antriebsarten mit dem Ziel, die tatsächliche Umsetzung des technologischen Fortschritts in marktgängige Produkte zu verfolgen, frühzeitig Kenntnis über die Bestandsentwicklung zu erhalten sowie mögliche Fehlentwicklungen – insbesondere mit Blick auf die Verkehrssicherheit – zu identifizieren. Vor allem die Betrachtung des letzten Punktes soll die Möglichkeit schaffen, Vorschläge für eine sinnvolle Steuerung der Entwicklung leisten zu können.
Nachfolgend werden in Kapitel 2 die technischen Entwicklungslinien des Marktes für Fahrzeuge mit alternativem Antrieb dargestellt. In den Kapiteln 3 und 4 werden der Bestand sowie das Unfallgeschehen näher betrachtet.
Bauwerke der modernen Infrastruktur sind über die gesamte Lebensdauer kontinuierlich hohen Beanspruchungen ausgesetzt. Die Sicherstellung von Standsicherheit und Gebrauchstauglichkeit von Infrastrukturbauwerken hat im Kontext der Bauwerkserhaltung oberste Priorität, um Gefahren für Leib und Leben und wirtschaftliche Verluste zu vermeiden. Der aktuelle Bauwerkszustand wird durch regelmäßige Inspektionen ermittelt, wobei klassische Verfahren wie die handnahe Prüfung in der DIN 1076 geregelt sind. Diese sind bei großen Bauwerken wie Brücken infolge des Geräteeinsatzes für die Zugänglichkeit, notwendiger Sperrungen und spezialisierten Personals sehr zeit- und kostenintensiv. Gegenstand dieses Vorhabens ist die Konzeption und Evaluierung einer Verarbeitungskette zur signifikanten Beschleunigung und Unterstützung der visuellen Prüfung von Bauwerken. Die zentrale Datenquelle bilden dabei digitale Bilder der Bauwerksoberfläche, die mittels Unbemannter Flugsysteme (UAS) automatisiert aufgenommen werden. Mithilfe moderner Methoden und Algorithmen werden aus den Bilddaten sowohl quantitative als auch georeferenzierte (verortete) Zustandsinformationen bezüglich der Schädigung der betrachteten Struktur gewonnen. Für die bildbasierte Detektion von Anomalien an Bauwerksoberflächen steht bisher noch keine einheitliche Methodik zur Verfügung. Im Mittelpunkt dieses Vorhabens steht der Einsatz von Methoden des maschinellen Lernens wie CNNs (Convolutional Neural Networks), um eine Methodik zur automatisierten Detektion von Rissen auf Betonoberflächen zu entwickeln. Anhand ausgewählter Referenzbauwerke wird evaluiert, wie zuverlässig und robust potenziell geschädigte Bereiche automatisiert in Bildern detektiert und verortet werden können. Diese Ergebnisse bilden die Entwicklungsgrundlage für ein zukünftiges Unterstützungssystem, das die Prozesskette von der Planung der Datenaufnahme bis zur zuverlässigen Verortung potenzieller Schäden bei der Prüfung von Infrastrukturbauwerken umfasst.
Brückenbauwerke sind unverzichtbarer Bestandteil unseres Straßennetzes. Sie ermöglichen die Überwindung von Tälern, Gewässern oder anderer Verkehrswege und stellen somit die eigentliche Funktion der überführten Straße sicher. Allein im Netz der Bundesfernstraßen gibt es derzeit 39.928 Brückenbauwerke(Stand 09/2020). Die meisten dieser Bauwerke sind bereits viele Jahrzehnte unter Verkehr. Ein großer Teil der bestehenden Spannbetonbrücken ist bereits 40 bis 60 Jahre alt. Die im Netz noch vorhandenen Gewölbebrücken aus Mauerwerk werden vielfach bereits deutlich über 100 Jahre genutzt.
Seither hat sich die Beanspruchung der Bauwerke durch drastisch gestiegene Fahrzeuggewichte und
Schwerverkehrsmengen im Vergleich zur ursprünglichen Planung grundlegend geändert. Gleichzeitig haben sich das Wissen um die Bauweisen, die Regeln zur Bemessung und konstruktiven Durchbildung und die Möglichkeiten zur Nutzung genauerer Berechnungsverfahren stark weiterentwickelt.
Mit der Nachrechnungsrichtlinie wird das Ziel verfolgt, Beanspruchungen und Tragwiderstände älterer Bauwerke möglichst wirklichkeitsnah zu ermitteln. Hierfür eröffnet die Richtlinie verschiedene Anpassungsmöglichkeiten bei den Einwirkungen, den Teilsicherheitsbeiwerten und den Bemessungsmodellen in Abhängigkeit der örtlichen und baulichen Gegebenheiten beziehungsweise unter Berücksichtigung kompensierender Maßnahmen.
In den letzten Jahren sind wesentliche Bausteine zur Ermittlung der Tragfähigkeit bestehender Massivbrücken unter Berücksichtigung der seinerzeit vorherrschenden Konstruktionsprinzipien weiterentwickelt worden. Darüber hinaus wurden die Nachrechnungslastmodelle vereinheitlicht und verfeinert.
Mit diesem Tagungsband sollen die neusten Entwicklungen, die die Basis für die 2. Auflage der Nachrechnungsrichtlinie
darstellen, und deren Mehrwert für die Anwendung in der Praxis nähergebracht werden. Nach einem allgemeinen Überblick zur Erhaltungsstrategie des Bundes werden zunächst die neusten Entwicklungen für die Nachrechnung bestehender Massivbrücken in sechs Beiträgen dargestellt. Die Themen reichen von Berechnungsansätzen für Querkraft und Torsion, über die rechnerische Berücksichtigung veralteter Bügelformen bei der Tragfähigkeitsbeurteilung von Spannbetonbrücken bis hin zu Nachrechnungsregeln für bestehende Gewölbebrücken aus Mauerwerk. In einem weiteren Themenblock werden in drei
Beiträgen künftige Neuerungen für Nachrechnungslastmodelle sowohl für die Berechnung im GZT als auch für die Nachweisführung gegen Ermüdung vorgestellt. Abschließend wird in zwei Beiträgen auf ausgewählte laufende Forschungsaktivitäten eingegangen.
An dieser Stelle sei allen Autoren gedankt, die mit ihren Vorträgen und ihren schriftlichen Beiträgen zum
Gelingen der Veranstaltung beigetragen haben.
Annual Report 2020
(2021)
The focus of the Annual Report 2020 is on selected research results from all fields of activity of the BASt.
Among the topics are for example the re-evaluation of the alcohol ban for novice drivers, the effectiveness of emergency braking systems for trucks or risk factors in motorbike traffic. ‘Talking’ workplaces will be discussed as well as the communication of automated vehicles with non-automated road users and airbag safety systems for cyclists.
The traffic barometer shows how traffic developed during the Corona pandemic. Also presented are technical developments to avoid road closures, the RITUN guide for resilient road tunnels, concrete roadway 4.0, how occupational safety demands and promotes innovation, and cross-national research cooperation in road construction.
Results on safe rural roads through suitable protective devices, on the use of digital technologies in engineering structures, on sustainable innovative replacement of concrete bridges as well as BASt activities in the BMVI Network of Experts are also presented.
Highlights as well as facts and figures complete the report.
In den letzten Jahren zeigte sich die Verfügbarkeit und reale Lebensdauer von Betonfahrbahndecken, insbesondere im BAB-Netz, im Vergleich zur designten Lebensdauer in zunehmendem Maße als unbefriedigend. Dies ist sicherlich auf die stetige Zunahme des Schwerverkehrs zurückzuführen, die eine höhere Belastung der Konstruktion nach sich zieht, nicht zuletzt aber auch auf die mangelnde Funktionsfähigkeit und Dauerhaftigkeit der Fugen- und Fugenfüllungssysteme zwischen benachbarten Betonfahrbahnplatten. Fugenkonstruktionen und darin angeordnete Fugenfüllsysteme müssen dauerhaft flexibel, lagestabil und robust gegenüber den maßgebenden äußeren Einwirkungen und Beanspruchungen sein und den Fugenspalt vor dem Eindringen von Wasser, Verschmutzungen, Tausalzbeanspruchungen, Öl und sonstigen Substanzen schützen. Es ist nunmehr Stand der Erkenntnisse, dass mangelhafte Fugen-Performance und unzureichendes Gebrauchsverhalten sowie Dauerhaftigkeit von Fugenfüllsystemen direkt mit beeinträchtigter Fahrbahn-Performance und Lebensdauer des Beton-Fahrbahnbelages einhergehen. Geschädigte Betonautobahnen zeigen oftmals Anzeichen einer zuvor eingeschränkten bzw. mangelhaften Funktionalität und Dauerhaftigkeit der Fugenkonstruktion und Fugenfüllung. Eine wesentliche Ursache für diese Erscheinungsbilder sind in den veralteten Dimensionierungs- und Bemessungsregelungen sowie den zu erbringenden Eignungsnachweisen für Fugenkonstruktionen zu suchen. So beruhen die derzeitigen Konstruktions- und Validierungsgrundsätze auf Erkenntnissen, die auf den Wissenstand vergangener Jahrzehnte zurückzuführen sind. Sind spiegeln nicht in ausreichendem Maße den aktuellen Stand der Beton- und Straßenbautechnologie wider. Um diese Wissenslücke zu überbrücken, müssen auf dem Weg zu dauerhaft leistungsfähigen Fugen und Fugenfüllsystemen zunächst die realen Einwirkungen im Bereich der Fugen von hoch beanspruchten Betonfahrbahndecken unter den aktuellen Straßenbaubedingungen und Nutzungsbedingungen aufgeklärt werden. Neben klimatischen und straßentypischen Einwirkungen stellen insbesondere quasistatische saisonale und verkehrsinduzierte dynamische Fugenbewegungen wesentliche Beanspruchungen dar. Voraussetzung zur Aufklärung dieser Fugenbewegungen ist ein neues, innovatives und sensitives Sensorsystem, welches unter den Bedingungen der Autobahnpraxis schnell und sicher in entsprechend beanspruchte Bereiche installiert werden kann und in der Lage ist, stabile und hochaufgelöste Bewegungen in mehrere Raumrichtungen zu erfassen. Das durch die BAM neu entwickelte Sensorsystem ist geeignet, um direkt in die Betonfahrbahndecke integriert zu werden und sowohl über saisonale Messbereiche als auch in hoher Auflösung entsprechende Messwerte online zu erfassen und bereit zu stellen. Das für diesen Zweck entwickelte innovative Sensorsystem kann direkt in die Rollspur auf beiden Seiten der Fuge eingebaut werden und ist dafür ausgelegt, Lkw-Überfahrungen zu widerstehen. Es ist schnell und präzise genug, um die realen Bewegungen in allen drei Raumachsen in Echtzeit erfassen zu können. Die wesentlichen technischen Eigenschaften sind eine Messfrequenz von bis zu 2000 Hz, eine Auflösung von bis zu einem Mikrometer und eine widerstandsfähige Sensorumhausung, die der direkten Überrollung durch Lkw sowie allen chemischen und klimatischen Beanspruchungen in der Praxis standhalten kann. Dieser Forschungsbericht beschreibt das Funktions- und Wirkschema des Sensorsystems und seine Validierung im Labor- und Feldmaßstab. Die mit dem Sensorsystem gewonnenen Daten können eine Grundlage für die Konzeption einer performance-basierten Bewertung von Fugenfüllsystemen in Betondecken von Bundesautobahnen bieten. Sie sind geeignet, die Funktionsmechanismen der verschiedenen Betonfahrbahnkonstruktionen besser zu verstehen und zielgerichtet konstruktive und materialtechnische Optimierungen und Fortentwicklungen von Fugenkonstruktionen und Fugenfüllsystemen in gebrauchsbezogener Weise zu entwickeln. Durch weitere Datenerhebung, -fusion und -analyse können Instandsetzungsintervalle und Lebensdauerzyklen besser abgeschätzt und geplant werden.
Ziel des Forschungsvorhabens war die Entwicklung einer Methodik zur Identifizierung und Parametrisierung von Einzelbäumen entlang des Bundesfernstraßennetzes auf Basis frei verfügbarer Datengrundlagen sowie die Bereitstellung und technische Umsetzung der Prozesse in Form geeigneter Werkzeuge für das Geoinformationssystem Esri ArcGIS. Zur Erfüllung dieses Ziels wurde zunächst eine Literaturanalyse durchgeführt und darauf aufbauend die grundlegende Herangehensweise abgeleitet.
Auf Basis der vom Land Nordrhein-Westfalen bereitgestellten hochauflösenden LiDAR-Daten wurde anschließend ein Kronenhöhenmodell abgeleitet und dieses zur Ermittlung der potenziellen Baum-kandidaten genutzt. Weiterhin konnte auf Grundlage der digitalen 4-Kanal-Orthofotos der Normalized Difference Vegetation Index berechnet und eine Unterscheidung vegetationsloser sowie -bedeckter Flächen durchgeführt werden, um so die Anzahl von Fehlklassifikationen zu reduzieren.
Zur Ermittlung einer geeigneten Methodik wurden verschiedene Modelle mit unterschiedlich aufbereiteten Ausgangsdaten berechnet, validiert und anschließend iterativ angepasst. Dabei konnte festgestellt werden, dass unter den vorherrschenden heterogenen Vegetationsbedingungen mit dem gewählten Ansatz kein allgemein gültiges Verfahren existiert, welches alle Rahmenbedingungen gleichermaßen abdeckt. Insgesamt besitzt die entwickelte Methodik bezüglich der Einzelbaumerkennung eine Wiedererkennungsrate von ca. 65 – 75 % bei Laub- und ca. 60 – 65 % bei Nadelhölzern. Da Strukturen, wie z. B. dichte Nadelwälder, jedoch erheblich unterschätzt werden, wurde ein weiterer, für diesen Typ besser angepasster Ansatz ausgewählt und die Ergebnisse kombiniert.
Nach Durchführung der Berechnungen erfolgte die Attributierung der Punkte hinsichtlich Lage, Höhe und Entfernung zum Straßenrand, die Ausweisung der für das Bundesfernstraßennetz relevanten Baumkandidaten sowie daran anknüpfend die Zuweisung der Summe aller potentiell gefährlichen Bäume an den jeweiligen Straßenabschnitt.
Analysen von Klimasimulationen des Deutschen Wetterdienstes zur Ableitung zukünftiger Klimarandbedingungen haben gezeigt, dass es in Deutschland bereits in naher Zukunft zu einer Erwärmung kommen wird. Die Intensität der Zunahme ist dabei regional unterschiedlich und nimmt in ferner Zukunft noch einmal zu.
Um negativen Folgen der klimatischen Änderungen entgegenzuwirken, wurden Materialanpassungen hinsichtlich der thermophysikalischen und lichttechnischen Materialeigenschaften bei der Konzeption und Herstellung klimaoptimierter Asphalte umgesetzt. Eine Optimierung der lichttechnischen Eigenschaften wurde durch die Verwendung heller Gesteinskörnungen (Quarzit) und von synthetischem Bindemittel mit Pigmenten erzielt. Bezüglich der thermophysikalischen Eigenschaften wurden Asphaltmischgüter mit erhöhter (Quarzit, Kalkstein) und verringerter Wärmeleitfähigkeit (EO-Schlacke) für alle Asphaltschichten konzipiert.
An Probekörpern der konzipierten Asphaltmischgüter wurden die Strahlungsreflexionsgrade sowie die thermophysikalischen Materialeigenschaften messtechnisch ermittelt. Anschließend fand eine praxisgerechte thermische Beanspruchung im Laboratorium an 24 cm dicken Asphaltaufbauten in einer Versuchsanlage zur Simulation der Globalstrahlung statt. Hierbei wurden Temperaturgradienten durch Messungen in verschiedenen Tiefen ermittelt. Zusätzlich wurde ein vereinfachtes eindimensionales Finite-Elemente-Modell erstellt, an dem Sensitivitätsanalysen zu thermophysikalischen Eigenschaften sowie Vergleiche zu den Laborergebnissen durchgeführt wurden.
Erwartungsgemäß erreichten die Varianten mit heller Deckschicht und Gesteinskörnung mit höherer Wärmeleitfähigkeit die geringsten Erwärmungen im Asphaltoberbau. Der Temperaturanstieg in der ATS ist dabei abhängig von den Wärmeleitfähigkeiten der ABS und ATS.
Abschließend wurden Asphalt- und Bindemittelprüfungen zur Bestimmung und Beurteilung der Performance der konzipierten Asphalte durchgeführt.
KiST-Zonen sind klimainduzierte Straßentemperaturzonen, die Deutschland in Zonen einteilen, in denen die dargestellte Größe ähnliche Werte annimmt. Bei den Größen, für die KiST-Zonen bestimmt werden, handelt es sich um Größen, die für die Dimensionierung und die Substanzbewertung des Oberbaus benötigt werden und deren räumliche Verteilung von Klimafaktoren dominiert wird.
Auf der Basis stündlicher meteorologischer Daten von 328 Messstationen des Deutschen Wetterdienstes der letzten 15 Jahre wurden Temperatursimulationen für typische Straßenbefestigungen mit Betondecke gerechnet. An 50 dieser Stationen sind die Temperaturverläufe in den Betondecken für unterschiedliche Deckendicken ermittelt worden. Für alle berechneten Temperaturverläufe wurden die Temperaturanteile berechnet, welche eine Plattenbiegung (mechanisch äquivalenter Temperaturgradient) bzw. Plattendehnung (mittlere Plattentemperatur) bewirken.
Auf der Grundlage statistischer Auswertungen wurden die maßgebenden Temperaturgradienten für die Dimensionierung und Substanzbewertung mit ihren Häufigkeitsverteilungen für unterschiedliche Deckendicken ermittelt. Jeweils ein maßgebender Gradient und ein Verteilungsparameter ist dann für Deutschland auf ein 1 x 1 km – Raster umgerechnet worden.
Im Ergebnis entstanden eine KiST-Zonen-Karte für die semiprobabilistische und die probabilistische Verfahrensweise, die als Entscheidungsgrundlage für die RDO Beton und RSO Beton vorliegen. Darüber hinaus wurde ein Vorschlag für die Änderung und Ergänzung der derzeit gültigen RDO Beton 09 mit ihrer semiprobabilistischen Verfahrensweise aufgestellt.