620 Ingenieurwissenschaften und zugeordnete Tätigkeiten
Filtern
Erscheinungsjahr
Dokumenttyp
- Buch (Monographie) (789)
- Konferenzveröffentlichung (383)
- Wissenschaftlicher Artikel (340)
- Bericht (63)
- Teil eines Buches (Kapitel) (25)
- Arbeitspapier (23)
- Sonstiges (1)
Sprache
- Deutsch (1319)
- Englisch (302)
- Mehrsprachig (3)
Schlagworte
- Deutschland (620)
- Germany (616)
- Forschungsbericht (470)
- Research report (459)
- Bewertung (297)
- Sicherheit (284)
- Safety (282)
- Versuch (253)
- Test (251)
- Evaluation (assessment) (242)
Institut
- Sonstige (712)
- Abteilung Straßenverkehrstechnik (267)
- Abteilung Straßenbautechnik (244)
- Abteilung Fahrzeugtechnik (229)
- Abteilung Brücken- und Ingenieurbau (218)
- Abteilung Verhalten und Sicherheit im Verkehr (55)
- Stabstelle Presse und Öffentlichkeitsarbeit (16)
- Präsident (11)
- Stabstelle Forschungscontrolling, Qualitätsmanagement (2)
- Zentralabteilung (1)
In diesem Forschungsprojekt FE 04.0316/2018/ORB „Entwicklung eines aktuellen Verfahrens zur rechnerischen Dimensionierung gemäß den RDO Beton“ werden die RDO Beton quelloffen und zukunftssicher implementiert. Grundlage sind die RDO Beton 09 in der Entwurfsfassung vom 7. Mai 2018, welche im Folgenden nur noch RDO Beton genannt werden. Das Programm wird in JavaScript unter Verwendung gängiger Standards und Praktiken implementiert und soll unter der freien Software-Lizenz GPLv3 veröffentlicht werden. Besonderes Augenmerk liegt auf der guten Dokumentation und Modularität, was allen interessierten Fachleuten die einfache Benutzung, Wartung und Erweiterung der Software ermöglicht.
Das Projekt gliedert sich dabei in Literaturrecherche zu den RDO Beton, Definition und Dokumentation von Anforderungen, Implementierung von Rechenkern und grafischer Benutzeroberfläche (GUI) sowie die Erstellung der Dokumentation für die Anwender.
Eine ausführliche Recherche zu den Hintergründen der für die Nachweisführung verwendeten Momente in den RDO Beton verbessert die Dokumentation des Verfahrens. Insbesondere wird die Formel für das Moment aus Verkehrsbelastung auf seine korrekte Herkunft zurückgeführt. Zur Herkunft der verwendeten Anpassungsfaktoren wird nicht recherchiert. Die Literaturrecherche liefert damit die Grundlage zur verfahrenssicheren Implementierung der RDO Beton.
Die Zusammenstellung der Anforderungen an die Software erfolgt im Lastenheft, das sowohl die Grundlage für dieses Projekt als auch eine Vorlage für ähnliche Vorhaben darstellen soll. Es besteht daher aus einem allgemeinen Teil, der Rahmenbedingungen der Software-Entwicklung beschreibt, und einem spezifischen Teil, der sich mit der Implementierung der RDO Beton befasst. Beide Teile sind darüber hinaus modular aufgebaut, damit der Auftraggeber in zukünftigen Ausschreibungen für Softwareprojekte die Erstellung eines Lastenhefts einfacher und zielsicher selber leisten kann. Das Lastenheft wurde durch Erstellung eines darauf basierenden Pflichtenhefts validiert.
Die Implementierung wurde modular realisiert, sodass der eigentliche Rechenkern und die Benutzeroberfläche eigenständige Teile sind und nur über einheitlich strukturierte Datenobjekte kommunizieren. Die Daten können im textbasierten, kompakten und menschenlesbaren JSON-Datenformat eingelesen und gespeichert werden. Durch ein ebenfalls umgesetztes Kommandozeilen-Interface kann der Rechenkern ohne GUI verwendet werden, um eine einfache Einbindung in andere Software zu ermöglichen, oder direkt über die Kommandozeile ausgeführt zu werden.
Der Quellcode des Rechenkerns ist derart konzipiert und dokumentiert, dass Fachleute mit rudimentären Programmierkenntnissen sich schnell im Code zurechtfinden können.
Die Kompilierung des Quellcodes des Rechenkerns ist nicht nötig. Damit sind kleinere Änderungen am Quellcode, wie beispielsweise die Aktualisierung von Faktoren aus den Tabellen der RDO Beton, in wenigen Sekunden durchgeführt. Weiterhin ist der Rechenkern so modularisiert, dass bspw. die Berechnung eines einzelnen Momentes durch eine andere Funktion ersetzt werden kann. Wartungsarbeiten und Erweiterungen gestalten sich dementsprechend einfach. In Kombination mit einer Versionsverwaltungssoftware bleiben jegliche Änderungen am Quellcode transparent und alte Versionen wiederherstellbar. Auch die Vorhaltung verschiedener Softwareversionen, etwa für unterschiedliche Fassungen der RDO Beton, ist somit leicht realisierbar.
Ein wesentlicher Bestandteil der entwickelten Software ist die grafische Oberfläche, die unter Nutzung moderner Technologien und Erkenntnisse im Bereich Benutzerschnittstellen entworfen wurde. Die Oberfläche wird im Webbrowser dargestellt, wodurch die Anwendung über Intra- oder Internet angeboten werden kann. Dadurch arbeiten alle Benutzer stets mit einer einheitlichen, aktuellen Version. Das Programm kann aber auch ohne Administrator-Rechte auf Arbeitsplatzrechnern installiert und ausgeführt werden. Die Verwendung des gängigen Material Designs stellt sicher, dass Nutzer bekannte Bedienelemente und -symbole erkennen und diese intuitiv nutzen können.
Die Funktionsfähigkeit der einzelnen Bestandteile sowie ihr Zusammenspiel werden mithilfe einer automatisierten Testumgebung sichergestellt. Hierdurch lassen sich auch bei zukünftigen Änderungen mögliche unerwünschte Seiteneffekte schnell fest-stellen.
Eine Bereitstellung für weite Nutzerkreise erhöht die Wahrscheinlichkeit, dass Inkompatibilitäten, Programmfehler und/oder Fehler in der zugrundeliegenden Methodik aufgedeckt werden. Bei Bereitstellung des Quellcodes können Benutzer sich direkt an der Weiterentwicklung beteiligen.
Die strikte Trennung zwischen Eingabe und Berechnung ermöglicht die Erweiterung zu einer Client-Server-Architektur. Damit könnten offizielle Referenzimplementierungen angeboten und deren Nutzung sichergestellt werden.
Mit der Einführung der RABT 2006 bzw. der Veröffentlichung der EABT 2019 werden die Vorgaben in der EU-Richtlinie 2004/54/EG zur Anwendung von Risikoanalysen bei der Bewertung der Sicherheit von Straßentunneln in das nationale Regelwerk überführt. Danach werden Risikoanalysen erforderlich, wenn ein Straßentunnel entweder eine besondere Charakteristik aufweist oder in seiner geometrischen Ausbildung bzw. sicherheitstechnischen Ausstattung von den Vorgaben im Regelwerk abweicht.
Seit der Veröffentlichung der aktuellen Methodik zur Sicherheitsbewertung von Straßentunneln gemäß BASt-Heft B66 „Sicherheitsbewertung von Straßentunneln“ im Jahr 2009 liegen zwischenzeitlich umfangreiche Erkenntnisse bei der Umsetzung des Verfahrens und der praktischen Anwendung in risikoanalytischen Untersuchungen vor. Des Weiteren wurden in dem Fachbereich zahlreiche Forschungsprojekte zu speziellen Fragestellungen durchgeführt und wesentliche neue Erkenntnisse zu bisher unberücksichtigten Parametern gewonnen. Sowohl das methodische Vorgehen als auch grundlegende Parameter und Annahmen der Methodik entsprechen daher nicht mehr dem aktuellen Stand der Technik. Aus den oben genannten Gründen ist es erforderlich, die Bewertungsmethodik zu analysieren und zweckmäßige Adaptierungsvorschläge festzulegen.
Der entwickelte Adaptierungsvorschlag für die Bewertungsmethodik behandelt die folgenden Anpassungen im Zuge der Risikobewertung, der Häufigkeitsermittlung, sowie der Schadensausmaßermittlung für Kollisionen und Brände im Tunnel.
Zur Risikobewertung wurde anstelle des absoluten Bewertungskriteriums innerhalb von Summenkurven im Häufigkeits-Ausmaßdiagramm ein relativer Ansatz implementiert, bei dem ein zu untersuchen-der Tunnel einem richtlinienkonformen theoretischen Tunnel gegenübergestellt wird. Dafür war es erforderlich die Rahmenbedingungen für die Festlegung eines solchen Referenztunnels für wesentliche Tunnelparameter zu definieren.
Der Adaptierungsvorschlag in der Häufigkeitsanalyse beinhaltet die Aktualisierung von Ereignisraten (Unfallrate, Brandrate) aufgrund von aktuellen Auswertungen der bundesweiten Ereignisdatenbank, der Festlegung von Einflussfaktoren auf die Unfallhäufigkeit im Tunnel, sowie eines Vorschlages zur Aktualisierung der Struktur des Ereignisbaumes inklusive dessen relativen Häufigkeiten.
Der Adaptierungsvorschlag für das Schadensausmaßmodell beinhaltet Neuerungen sowohl bei der Analyse der Auswirkungen von Kollisionen, als auch von Bränden im Tunnel. Mit Hilfe des Nilsson Power Modells kann fortan der Einfluss der Geschwindigkeit auf das Schadenausmaß nach Kollisionen abgebildet werden. Außerdem wurden für Wirkungsmodelle zur Abschätzung von Brandfolgen entsprechende Parameter und Randbedingungen festgelegt. Fokus dabei war die Festlegung von detaillierten Brandkurven und der zugehörigen Zeitschiene, die Implementierung eines akkumulations-basierten Fluchtmodells sowie Ansätze zur realitätsnahen Abbildung von Selbst- und Fremdrettungsvorgängen.
Der ganzheitliche Adaptierungsvorschlag basiert auf einer aktuellen Auswertung der Tunnelereignisse in Deutschland sowie dem Stand der Wissenschaft und Technik bei der Bewertung von Personenrisiken im Tunnel. Durch Implementierung der vorgeschlagenen Anpassungen ist es fortan möglich, die Risiken im Tunnel realitätsnaher zu analysieren und eine Vielzahl von Sicherheitsmaßnahmen besser zu bewerten.
Im Rahmen des von der Bundesanstalt für Straßenwesen durchgeführten Forschungsvorhabens „Fahrleistungserhebung 2014“ wurden differenzierte Datensätze zur Fahrleistung der verschiedenen Fahrzeugsegmente und Straßenkategorien gewonnen, die zur Abbildung der aktuellen Verkehrsbelastung in Deutschland mit TREMOD herangezogen werden können. Für das Gesamtvorhaben ergeben sich zwei Datensätze: die durch Halterbefragung erhobene Inländerfahrleistung und die durch Verkehrszählung ermittelte Inlandsfahrleistung. Hervorzuheben ist hierbei insbesondere der neue Ansatz zur Ermittlung der Inlandsfahrleistungen auf den verschiedenen Straßenkategorien in Deutschland. Damit liegt zum ersten Mal seit 1993 wieder eine differenzierte Datengrundlage für die Inlandsfahrleistung in Deutschland vor. Im Rahmen dieses Vorhabens wurden die Fahrleistungsdaten aus der „Fahrleistungserhebung 2014“ so aufbereitet, dass sie zur Berechnung der verkehrsbedingten Emissionen in TREMOD genutzt werden können. Weitere aktuelle Quellen wurden berücksichtigt, so dass insgesamt ein aktuelles konsistentes Gesamtbild der Fahrleistungen in Deutschland entsteht. Wesentliche weitere Quellen waren die jährliche Fahrleistungsermittlung des Kraftfahrt-Bundesamtes („Verkehr in Kilometern“), die Straßenverkehrszählungen sowie die Auswertungen der automatischen Dauerzählstellen der BASt. Das aktualisierte Fahrleistungsgerüst für 2014 wurde anschließend in der Zeitreihe angepasst. Diese Anpassung umfasst den Zeitraum 1994 bis 2014, damit ein konsistenter Anschluss an die Fahrleistungserhebungen 1993 und 2002 hergestellt werden konnte. Schließlich wurden aus der Halterbefragung Kennwerte für die jährliche Fahrleistung der Fahrzeuge nach Antrieb, Größenklasse und Alter ermittelt. Die aktualisierten Kennzahlen fließen in die TREMOD-Version 6 ein, die außerdem eine umfassende Aktualisierung der Emissionsfaktoren auf Basis des HBEFA 4.1 (Handbuch Emissionsfaktoren des Straßenverkehrs) enthält.
Für die Beurteilung der Frostsicherheit von ungebundenen Schichten im Straßenbau werden je nach Anwendungsgebiet die Kriterien aus unterschiedlichen Regelwerken herangezogen. Die diesen Kriterien hinterlegten Prüfmethoden sind auf Erfahrungen mit natürlichen Baustoffen abgestimmt und korrelieren nicht hinreichend mit den Materialveränderungen von Recycling-Baustoffen und industriellen Nebenprodukten in der Praxis. Daher wurde eine realitätsnahe Prüfmethode auf Basis österreichischer Erfahrungen entwickelt. Im Rahmen dieses Forschungsprojektes wurden nun Bewertungskriterien für diese Prüfmethode erarbeitet. Zunächst wurden die in der Literatur als maßgeblich definierten Einflussgrößen auf die Frosthebung gezielt untersucht. Daraus ergab sich, dass der Frosthebungsparameter Maximale Frosthebung besonders für die Bewertung geeignet und die Parameter Bleibende Hebung und Hebungsgeschwindigkeit jeweils geeignet sind. Für die Entwicklung eines Bewertungskriteriums wurden zwei Ansätze verfolgt, von denen nur Ansatz A sich als zielführend herausstellte. Bei Bewertungsansatz A wurden die Flächen unter der Hebungskurve und die über der Kühlkopf-Temperaturkurve je Probe ermittelt und in Bezug gesetzt. Bewertungsansatz B wurde ursprünglich konzipiert, um Kennwerte aus dem Frosthebungsversuch und Materialkennwerte miteinander zu verknüpfen. Dieser Ansatz hat sich als nicht zielführend herausgestellt. Schlussendlich erzeugen die Überlagerungen der unterschiedlichen materialspezifischen Einflussfaktoren zu hohe Streuungen. Werden jedoch Materialgemische in Abhängigkeit ihrer Eigenschaften, z. B. hoher Feinanteil, im Labor gezielt zusammengesetzt, lässt sich dieser materialspezifische Einflussfaktor auf die Frosthebung überwiegend korrelieren. Eine Übertragung dieser Korrelationen auf heterogene Baustoffgemische aus der Praxis ist nicht möglich. Die Validierung des Bewertungskriteriums nach Ansatz A erfolgte mittels Frosthebungsdaten von RC-Baustoffgemischen aus der Praxis. Grundsätzlich liegt mit dem Frosthebungsversuch nun ein prozesssicheres Verfahren vor, mit dem das Frostverhalten von RC-Baustoffgemischen und industriellen Nebenprodukten praxisgerecht geprüft und bewertet werden kann. Damit ist eine Möglichkeit geschaffen, die Gebrauchseigenschaft Frostempfindlichkeit der Materialien besser zu beurteilen.
Analyse glättebedingter Unfälle von Güterkraftfahrzeugen mit mehr als 12 t zulässigem Gesamtgewicht
(2022)
Die Überschreitung des möglichen Reibwertpotenzials zwischen Fahrbahn und Reifen stellt nach wie vor ein großes Sicherheitsrisiko dar. Während sich mittlerweile Systeme in der Entwicklung befinden, die das aktuelle Reibwertpotenzial recht verlässlich schätzen können, stellt sich die Frage, auf welche Weise diese Information am besten dem Fahrer* zu übermitteln ist. Diese und weitere Fragen bezüglich des Nutzens einer Reibwertwarnung werden in diesem Projekt beantwortet. Im Laufe dieses Projektes wurde untersucht, welcher Nutzen eine Reibwertwarnung für Güterkraftfahrzeuge darstellt. Mittels einer Probandenstudie im Fahrsimulator der technischen Universität Berlin ließen sich Fahrverhalten feststellen, welche positive Auswirkungen im Falle eines glättebedingten Unfalles hätten. Die Grundlage bildete zunächst die Literaturrecherche, die sowohl Erkenntnisse über den Stand der Technik von Fahrerassistenzsystemen sowie auch Einblicke in die Forschung zur Gestaltung von Warnungen aufzeigte. Zahlreiche Details über das Sicherheitspotenzial, das Angebot der verschiedenen Hersteller, die Gesetzgebung und weiteres hinsichtlich der Fahrerassistenzsysteme wurden ergründet, während zur Gestaltung von Warnungen kognitive Modelle und die Auswirkungen von Warnungen auf einen Probanden untersucht wurden. Folglich war es möglich, zusammen mit einer Expertenrunde und Vorstudien zur Gestaltung der unterschiedlichen Glätte-Icons, eine wissenschaftlich fundierte Warnstrategie herauszuarbeiten, die aus akustischen Signalen, Sprachangaben und grafischen Anzeigen auf einem Head-Up-Display besteht. Parallel dazu wurde mittels einer Analyse von Unfällen von schweren Lkw mit vermindertem Kraftschluss ein Überblick über die Unfallsituation von N3-Lkw verschafft. Dazu wurden die Daten der GIDAS-Unfalldatenbank untersucht und eine repräsentative Zufallsstichprobe der Unfälle, bei denen Kraftschlussminderung eine Rolle gespielt haben könnte, erstellt. Zwei Szenarien wurden hierbei betrachtet: Auffahrunfälle, bei denen der Lkw auf ein weiteres Fahrzeug auffährt, sowie Fahrunfälle, bei denen der Lkw-Fahrer die Kontrolle über sein Fahrzeug verliert. Diese Unfallanalyse bildete dann die Basis für die Szenariengestaltung der Probandenstudie im Fahrsimulator. Kritische Fahrszenarien, unübersichtliche Kurven- und Bergfahrten und ein Stauende hinter einer Kuppe, jeweils gepaart mit Regen, Starkregen oder Nebel und den dazu variierenden Reibwert der Straße, wurden samt der Warnstrategie im Fahrsimulator dargestellt. In der Probandenstudie durchfuhren Kraftfahrzeugfahrer die präparierten Simulationen, wobei die Experimentalgruppe die Glättewarnung erhielt und die Kontrollgruppe die gleiche Simulation ohne Warnung durchfuhr. Die Hauptfragestellungen, die sich stellten, waren, ob die Fahrer mit Warnsystem ihr Verhalten (insbesondere ihre Geschwindigkeit) an den Zustand der Fahrbahn anpassten und ob die Fahrer mit Warnsystem eine bessere Fahrleistung in Gefahrensituationen im Vergleich zu Fahrern ohne Warnsystem zeigen. Außerdem wurde untersucht, wie die Fahrer die Kritikalität der Fahrsituationen einschätzen und wie die Fahrerbewertung bezüglich der Warnstrategie ausfallen. Zusammenfassend zeigte die Studie, dass die Probanden mit Warnung ihr Fahrverhalten besser an die Glättesituation anpassten als Probanden ohne Warnung. Erstere reduzierten ihre Geschwindigkeit deutlich früher und stärker. Die entwickelte Warnstrategie wurde als positiv und hilfreich bewertet und wurde mit einer hohen Akzeptanz von den Probanden angenommen. Durch die Corona-Pandemie fiel die Stichprobengröße der Probanden geringer aus als ursprünglich geplant, was für die Ergebnisse miteinzuberechnen ist. Im Schlussteil dieses Projektes wurde der konkrete Nutzen von Glättewarnsystem bei Lkw in Bezug auf das Unfallgeschehen analysiert. Mit der Kenntnis der Auswirkung eines Glättewarnsystems auf das Fahrverhalten der Lkw-Fahrer konnten die Lkw-Unfälle aus der GIDAS-Datenbank durch eine Vorwärtsrekonstruktion neu simuliert werden, um zu ermitteln, welchen Einfluss das Glättewarnsystem auf den Unfall gehabt hätte. Die Analyse zeigte unter anderem, dass eine Glättewarnung für Lkw bei 12 % aller Unfälle zum Einsatz kommen könnte. Bei einer angenommenen mittleren Reduktion der Fahrgeschwindigkeit der Lkw-Fahrer um 9,6 km/h bei Tempo 80 aufgrund der Glättewarnung wären nahezu 30 % der Kollisionen bei Alleinunfällen oder Unfällen mit Beteiligung eines anderen Fahrzeugs sowohl bei den Lkw als auch bei den Kollisionsgegnern vermieden worden. Ferner hätten mehr als die Hälfte der Lkw und der Kollisionsgegner geringere Kollisionsschweren gehabt. Mittels Verletzungsrisikokurven konnte gezeigt werden, dass durch die geringeren Kollisionsschweren das Risiko, ernsthafte oder schwerere Verletzungen zu erleiden, deutlich gesunken ist. Bei den Lkw-Unfällen mit Fußgängern wären von neun analysierten Unfällen zwei vermieden worden und sieben Unfälle hätten aufgrund der geringeren Kollisionsgeschwindigkeit des Lkws das Potenzial die Verletzungsschwere der Fußgänger zu verringern. * Gender Disclaimer: In diesem Bericht wird aus Gründen der besseren Lesbarkeit das generische Maskulinum verwendet. Dabei werden weibliche und anderweitige Geschlechteridentitäten ausdrücklich mitgemeint, soweit es für die Aussage erforderlich ist.
Um die BIM-Methode im Erhaltungsmanagement von Brückenbauwerken anzuwenden und die BIM-Modelle über die Lebenszyklusphasen Planung und Bau auch im Betrieb durchgehend nutzen zu können, müssen frühzeitig Definitionen und Anforderungen festgelegt werden, die an die BIM-Methodik für das Erhaltungsmanagement gestellt werden. Das Ziel des Projektes ist es, den gesamten Informationslebenszyklus eines Brückenbauwerkes zu untersuchen und dabei insbesondere die für das Betriebs- und Erhaltungsmanagement notwendigen Informationen zu berücksichtigen. Wesentlich dabei ist es, zu identifizieren, welche Informationen relevant für die gängigen Anwendungsfälle und Szenarien im Erhaltungsmanagement sind. Die relevanten Informationen werden dann den möglichen Datenquellen zugeordnet. Der Fokus liegt dabei auf der Praxistauglichkeit sowohl beim Erhaltungsmanagement, das üblicherweise von Behörden verantwortet wird, als auch im Informationsbeschaffungsprozess, bei dem verschiedene Beteiligte involviert sind. In den vergangenen 15 Jahren wurden im Rahmen verschiedener Projekte umfangreiche Untersuchungen zur Anwendung von BIM im Brückenbau durchgeführt. Dabei stellt vor allem die Veröffentlichung des IFC-Bridge Standards einen wesentlichen Fortschritt dar. Dennoch fehlen weiterhin konkrete Prozesse, Standards sowie Umsetzungsstrategien des Bundes. Expertenbefragungen hinsichtlich der Informationsanforderungen und der Umsetzung von Anwendungsfällen im Erhaltungsmanagement haben zu den Ergebnissen geführt, dass der Umfang der in den bestehenden Regelwerken geforderten Informationen ausreichend ist, die Informationsquellen und die Form der Information selbst jedoch nicht einheitlich und eindeutig sind. Aus den Befragungen und Analysen des Status quo im Erhaltungsmanagement hat sich ein Konzept entwickelt, welches aus einem Frontend, also der Benutzeroberfläche eines BIM-Bestandsmanagementsystems, und aus einem Backend mit den verschiedenen Datenquellen besteht. Die Grundprinzipien des Konzeptes sind, dass alle Informationen im Backend vorhanden sein sollen und dass alle Informationen in einer auswertbaren Form zur Verfügung stehen müssen. Hinsichtlich der Zuordnung zwischen Dokumenten und Modelelementen wurde eine Verknüpfung über ein Metadatenkonzept oder das Hinterlegen von Links hinsichtlich der Handhabung als sinnvoll erachtet. Dabei werden die Daten in ihrer ursprünglichen Form beibehalten und so eine langfristige Archivierung sichergestellt. Um die als notwendig identifizierten Informationen möglichst aufwandsarm zu erheben und für den Betrieb bereitzustellen, wurden zunächst die Begriffe As-built Modell und Digitale Bauwerksakte definiert. Im Rahmen einer BIM-gestützten Planung ist für ein As-built Modell sicherzustellen, dass dieses im Rahmen der Toleranzen dem gebauten Zustand entspricht. Für die Einführung des BIM-gestützten Erhaltungsmanagement bei Bestandsbrücken ergibt sich die große Herausforderung, dass Daten vielfach nur begrenzt digital vorliegen. Für die Erstellung der digitalen Bauwerksakte wurden die Ansätze Fusion-Data und Linked-Data un-tersucht und der Linked-Data Ansatz weiterverfolgt. Für die Verwaltung von As-built Modellen wird das IFC 4x2 Format empfohlen. Für die Anwendungsfälle Bauwerksprüfung, Nachrechnung, Schwertransporte, Durchführung von Erhaltungsmaßnahmen, Erweiterung des Bauwerks in Form von Um- und Ausbau sowie die Auswertung von Netzstatistiken wurde der Einfluss von BIM, die Nutzung der Informationen sowie die daraus entstehenden Soll-Prozesse im Betrieb konzipiert. Dafür wurde anhand eines praxisgerechten Konzepts die Umsetzung der Anwendungsfälle über das Frontend dargestellt. Das Konzept verfolgt die Voraussetzungen einer webbasierten Software als Frontend, welche als Zugang zur digitalen Bauwerksakte dient. Zur Demonstration der entwickelten Konzepte werden anhand des realen Projektes BW 27/1 der A99 die BIM-Anwendungsfälle des Erhaltungsmanagements implementiert. Auf Grundlage der in den AIA ergänzten Attributtabellen wurden die Attribuierung der BIM-Modelle sowie die Prüfung der Attribute durchgeführt. Weiterhin wurden die Dokumente auf Grundlage der entwickelten Konvention parametrisiert und regelbasiert mit den Daten verlinkt. Auf Grundlage der daraus erstellten digitalen Bauwerksakte wurde für die Umsetzung der Anwendungsfälle eine softwarespezifische Demo erstellt. Auf Grundlage der im Projekt begegneten Technologien wird ein Ausblick in künftige Trends und Entwicklungen gegeben. Laut einer Studie von Roland Berger werden Trends wie Cloud-Computing, Big Data, Internet of Things, Künstliche Intelligenz, Blockchain, Virtual und Augmented Reality, Robotik, Sensorik oder Smart Buildings und Smart Cities auch maßgebenden Einfluss auf das Planen, Bauen und Betreiben der Bauwerke von morgen haben.
Aufgrund der Verschiebung der SVZ 2020 in das Jahr 2021 wurde eine alternative Methode zur Bereitstellung von Verkehrsdaten für die Bundesfernstraßen (Autobahnen und Bundesstraßen) erarbei¬tet, sodass diese Daten für die Lärmkartierung bis Juni 2022 genutzt werden können. Es wurde eine Fortschreibung und Hochrechnung der Ergebnisse der SVZ 2015 in Verbindung mit den automatischen Dauerzählstellendaten sowie den TM-Zählungen der Jahre 2016 – 2019 auf das Jahr 2019 durchgeführt. Im Ergebnis liegen die Verkehrskenngrößen gemäß der SVZ-Schnellübersicht für das Jahr 2019 vor, dies sind die durchschnittlichen täglichen Verkehrsstärken, die Bemessungsverkehrsstärken und die Lärmkennwerte. Die Lärmkennwerte werden sowohl nach RLS-90 als auch nach RLS-19 ausgewiesen.
Die wirtschaftliche Entwicklung in Deutschland ist von einer funktionierenden, leistungsfähigen und sicheren Infrastruktur abhängig. Ein mittlerweile gealtertes Verkehrswegenetz auf der einen und ein stetig steigendes Verkehrsaufkommen – speziell durch den LKW-Verkehr – auf der anderen Seite machen Investitionen zum Erhalt und Ausbau der Infrastruktur in den kommenden Jahren in Deutschland erforderlich. Hierzu zählt es auch, die zugehörigen Brückenbauwerke entsprechend zu ertüchtigen. Oftmals stellen aber die Bestandsbrücken einen Engpass dar, weil einfache Verbreiterungen nicht möglich oder sie für die heutigen Belastungen nicht hinreichend ausgelegt sind. In diesen Fällen wird ein Ersatzneubau erforderlich, welcher einen Rückbau des Bestandes nach sich zieht. Erschwerend kommt meist hinzu, dass Rück- und Neubau mit einem Minimum an Verkehrseinschränkungen auszuführen sind, sodass häufig unter laufendem Verkehr gearbeitet werden muss. Im Gegensatz zum Brückenneubau und zur Brückenertüchtigung ist der Rückbau von Bestandsbrücken ein noch weitestgehend ungeregelter Bereich. Analog zum Neubau müssen auch Rückbauzustände ingenieurmäßig untersucht und die Standsicherheit nachgewiesen werden. Geeignete Nachweisgrundlagen hierfür fehlen leider bisher noch. Mit der vorliegenden Erfahrungssammlung sollen die bisher gesammelten praktischen Erfahrungen beim Rückbau von Brücken zusammengetragen werden und so einen ersten Grundstock für eine Regelwerkssetzung bilden.
Motorradfahrer zählen zu den besonders gefährdeten Verkehrsteilnehmern. Trotzdem werden – im Gegensatz zu Systemen wie ABS und Traktionskontrolle – Assistenzsysteme wie die automatische Notbremse bislang nicht im Zweiradbereich eingesetzt. Grund hierfür ist unter anderem die motorradspezifische Fahrdynamik, die z. B. durch instabiles Systemverhalten besondere Herausforderungen für die Umsetzung solcher Systeme bietet. Ziel des Projekts FE 82.0661/2015 „Automatische Notbremssysteme für Motorräder“ war es, die Grenzen zu ermitteln, innerhalb derer ein Einsatz entsprechender Systeme im Motorrad möglich ist. Neben den fahrdynamischen Grenzen zählen hierzu auch Grenzen, die der Fahrer der Anwendbarkeit setzt. Als integraler Bestandteil des Fahrer-Fahrzeug-Systems muss er in der Lage sein einen Eingriff eines Notbremssystems zu kontrollieren, da es sonst zur Destabilisierung des Fahrzeugs bis hin zum Sturz kommen kann. Zunächst wurde in einer Expertenstudie untersucht, welche Verzögerungen Normalfahrern zugemutet werden können. Die Experten waren Fahrlehrer und -trainer, die besonders geeignet sind, die Fähigkeiten ungeübter Fahrer einzuschätzen. Mit der Erkenntnis, welche Verzögerungen Normalfahrern zuzumuten sind, wurde anschließend eine Probandenstudie durchgeführt, in der untersucht wurde, inwiefern verschiedene Arten von Eingriffen geeignet sind, den Fahrer in einer Notbremssituation zu unterstützen und welche Verbesserung damit im Vergleich zu durch den Fahrer selbst durchgeführten Notbremsmanövern erzielt wird. Die Realfahrversuche mit Probanden fanden ausschließlich in Geradeausfahrt mit voller Konzentration auf die Fahraufgabe statt. Um zu untersuchen, wie sich Notbremsmanöver in anderen Situationen (z. B. ein- oder freihändige Fahrt) auswirken, wurde zusätzlich eine Studie auf dem dynamischen Motorrad-Fahrsimulator des Würzburger Instituts für Verkehrswissenschaften durchgeführt (WIVW). Hier wurde zudem der Einfluss von Warnelementen untersucht. Die Studien zeigen, dass durch den Einsatz geeigneter automatischer Bremseingriffe bereits nahezu die Hälfte der Ausgangsgeschwindigkeit abgebaut werden kann, bevor der Fahrer selbst überhaupt eingreift. Die Simulatorversuche zeigen außerdem, dass eine Warnung vor dem automatischen Bremseingriff die Fahrerreaktion positiv beeinflusst.
MICHAEL DERES, der Referatsleiter Personal der Stabsstelle Autobahn / Fernstraßen-Bundesamt im Bundesministerium für Verkehr, beschreibt in einer Momentaufnahme aus der Sicht der Praxis des Jahres 2019 den damaligen Umsetzungsstand der Reform der Auftragsverwaltung im Bereich der Bundesautobahnen und anderer Bundesfernstraßen. Die Reform der Bundesfernstraßenverwaltung führte zu einem umfangreichen Personalübergang der Länder zum Bund und stelle eine gewaltige Herausforderung dar. Dennoch habe die Autobahnverwaltung als Arbeitgeber Zukunft. Die Autobahnreform habe daher das Potenzial, sich als Modellprojekt für zentrale Aufgabenerledigungen durch den Bund zu erweisen. Zwei Jahre später berichtet die heutige amtierende Präsidentin des Fernstraßen-Bundesamtes Leipzig DORIS DRESCHER über die neue Autobahnverwaltung des Bundes, die ihre Tätigkeit mit Beginn des Jahres 2021 aufnahm. Sie beschreibt die Aufgabenverteilung zwischen der Autobahn GmbH des Bundes und dem Fernstraßen-Bundesamt im operativen Betrieb, die sich daraus ergebenden Aufgaben und Ziele sowie die praktisch drängende Frage der zukünftigen Zuständigkeitsverteilung für bereits eingeleitete und neue Verwaltungsverfahren. Zudem werden planungsrechtliche Grundsätze und Beschleunigungsmöglichkeiten bei der Beseitigung von Hochwasserschäden erläutert. Mit dem Werkstattbericht über den Aufbau eines Rechtsbereichs in Corona-Zeiten behandelt MARTIN REGNATH – auf der Grundlage eines zusammen mit ROLF ROCKITT gehaltenen Vortrags – den Aufbau des zentralen Rechtsbereichs in der Autobahn GmbH des Bundes, der bei der Gründung 2018 noch gar nicht vorgesehen war. Als dann die Schaffung einer zentralen Rechtsabteilung und deren Vernetzung mit den Niederlassungen in der Fläche in Angriff genommen wurden, mussten diese Schritte unter den Bedingungen der Pandemie stattfinden. Als Hauptziele stellten sich nunmehr die Etablierung von Vergabeverfahren dar, in denen nicht die billigsten, sondern die bestgeeigneten Vertragspartner gewonnen werden können, sowie die umfassende Digitalisierung aller Arbeitsabläufe. Der abschließende, ebenfalls als Werkstattbericht überschriebene Beitrag von MAX SEIBERT Luftreinhaltepläne vor Gericht behandelt in 40 deutschen Städten erhobenen Verbandsklagen wegen der Überschreitung des Luftqualitätsgrenzwerts für Stickstoffdioxid (NO2) nach der Luftqualitätsrichtlinie. Der Referent hatte in seiner Funktion als Vorsitzender Richter am Oberverwaltungsgericht Nordrhein-Westfalen letztlich sämtliche Verfahren in diesem Bundesland verhandelt. Sie wurden schlussendlich zu einem Ergebnis geführt, das einerseits Dieselfahrverbote vermeiden konnte, andererseits aber die Weichen für eine langfristige Verbesserung der Luftqualität gestellt hat.
Annual Report 2021
(2022)
In the Annual Report 2021, the BASt presents a selection of research activities of the year 2021.
In almost 40 contributions, projects from 5 specialist areas are presented. The spectrum of topics ranges from digital transformations in bridges and structural technology to sustainable, climate-resistant highway construction, efficient, ecological and digital traffic engineering, automated, environmentally conscious automotive engineering and the safety of all who participate in traffic.
Highlights as well as facts and figures in short and concise form complete the report.
Für den Nachweis der Querkrafttragfähigkeit von Fahrbahnplatten ohne Querkraftbewehrung gibt es nach derzeitiger Bemessungspraxis keine einheitliche Vorgehensweise. Die bisherigen Erfahrungen zeigen, dass die Ergebnisse der Berechnungen sowohl bei der Ermittlung der Beanspruchungen als auch bei der Interpretation der Bemessungsverfahren nach DIN EN 1992-2 und zugehörigem Nationalen Anhang in einer erheblichen Bandbreite voneinander abweichen können, ohne dass immer eindeutig beurteilt werden kann was richtig oder falsch ist. Die Schnittgrößenermittlung und Bemessung entscheidet aber darüber, ob Querkraftbewehrung erforderlich ist oder nicht. Besonders wenn es dadurch im Zuge der Ausführungsplanung zu anderen Ergebnissen kommt als bei der Entwurfsplanung, führt dies auch zu vertraglichen Problemen für den Bauherrn. Ein weiteres Problemfeld kann die Nachrechnung bestehender Bauwerke darstellen, da die Fahrbahnplatten des Bestands in der Regel ohne Querkraftbewehrung ausgeführt wurden.
Vor diesem Hintergrund besteht aus Bauherrensicht die Notwendigkeit, eine einheitliche Vorgehensweise für die Berechnung und Bemessung von Fahrbahnplatten ohne Querkraftbewehrung bei Querkraftbeanspruchung auf Grundlage des aktuellen Stands von Wissenschaft und Technik zu entwickeln, um eine sichere und wirtschaftliche Bemessung zugleich mit eindeutigen Vorgaben zu gewährleisten.
Ziel des Forschungsvorhabens ist die Erarbeitung einer einheitlichen Vorgehensweise für den Nachweis von Fahrbahnplatten ohne Querkraftbewehrung. Dabei werden Vorschläge erarbeitet, die mechanisch begründet und für die Bemessungspraxis geeignet sind. Zudem werden entsprechende Textvorschläge zur Aufnahme in Bauherrenregelungen formuliert.
Das Problem umfasst sowohl die Ermittlung der Beanspruchungen als auch des Tragwiderstands bei Querkraft von Fahrbahnplatten ohne Querkraftbewehrung. Beide Seiten, die Beanspruchung vEd und der Tragwiderstand vRd, stehen dabei in einer gewissen Abhängigkeit zueinander (z. B. auflagernahe Einzellasten, Interaktion Biegung/Querkraft, Kalibrierung des Bemessungsmodells, Betontraganteil Vccd).
Zur Einhaltung der Partikelemissionsgrenzwerte für Kraftfahrzeuge im Rahmen der Typprüfung nach Europäischer Verordnung (EG) 715/2007 werden von den Fahrzeugherstellern Partikelfilter (Dieselpartikelfilter (DPF)/Ottopartikelfilter (engl. Gasoline Particulate Filter = GPF)) ins Abgassystem der Fahrzeuge verbaut. Spätestens bei Erreichen einer kritischen Rußmasse im Filter muss eine Regeneration eingeleitet werden. Die Regeneration erfolgt durch Abbrennen des im Filter eingelagerten Rußes. Der Kohlenstoffanteil der Partikel oxidiert hierbei mit Sauerstoff oberhalb von ca. 600 °C zu Kohlendioxid. Die Regenerationsstrategie der Fahrzeuge variiert. Grundsätzlich wird zwischen periodischer (aktiver) und kontinuierlicher (passiver) Regeneration unterschieden. Bei Dieselkraftfahrzeugen wird fast ausschließlich die periodische Regeneration eingesetzt, bei Fahrzeugen mit Benzinmotor die kontinuierliche Regeneration.
Ziel des Forschungsprojektes ist es, die Fahrzeugemissionen während einer Partikelfilterregeneration zu messen und hinsichtlich ihrer Veränderung gegenüber eines Fahrbetriebs ohne Regeneration zu bewerten. Dazu werden von drei Diesel- und zwei Benzinfahrzeugen die Partikelfilter beladen und im Anschluss daran eine Regeneration durchgeführt, bei der sowohl die festen als auch die gasförmigen Abgasemissionen gemessen werden. Die festen Bestandteile des Abgases werden im Nachgang auf ihre ehemischen Elemente untersucht.
Bei den drei Dieselkraftfahrzeugen erfolgt die Beladung des DPF bis ca. 80 % bei einer Straßenfahrt. Im Anschluss wird das Fahrzeug auf dem Rollenprüfstand installiert und die Messtechnik angeschlossen. Die Messung der Emissionen während der DPF-Regeneration erfolgt in einem konstanten Motorbetriebspunkt bei einer simulierten Fahrt mit 80 km/h in der Ebene.
Die Auswertung der festen Bestandteile des Abgases zeigt, dass die gemittelten Partikelanzahlwerte während und nach einer DPF-Regeneration von ca. 1E+07 #/s um drei Zehnerpotenzen auf 1E+10 #/s steigen. Bei der Analyse der Gaskomponenten fällt auf, dass insbesondere unmittelbar vor der Regeneration die Gaskomponenten CO, THC, NOx, NO, NO2, NH3 und CH4, einen deutlichen Peak aufweisen, welcher dann mit Beginn der Regeneration wieder absinkt. Der Beginn kurz vor der Regeneration ist der Zeitpunkt, in dem das Motorsteuergerät die Abgastemperatur anhebt. In diesem Umschaltpunkt der Motorparameter werden kurzzeitig die deutlich erhöhten Emissionen der genannten Gaskomponenten gemessen. Die Gaskomponenten, welche bei allen Diesel-Prüffahrzeugen während der Regeneration einen signifikanten Anstieg aufwiesen, sind CO, NO und NOx. Der NO- bzw. NOx-Wert erhöht sich während der Regeneration im Mittel um Faktor 67- bzw. 95 zum gewählten Referenzwert. Der NO2-Wert erhöht sich im Mittel um den Faktor 2,5, der THC-Wert um den Faktor 5 und der SO2-Wert ist um Faktor 4 erhöht. Im Vergleich zum Referenzwert sind die Messwerte von NH3 und CH4 während der Regeneration grundsätzlich höher und die N2O-Konzentration niedriger.
Die Beladung des GPF bei den beiden Prüffahrzeugen mit Benzinmotor wird durch wiederholte Kaltstarts bei -15 °C durchgeführt. Die passive Regeneration erfolgt auf dem Rollenprüfstand durch wechselnden Last- und Schubbetrieb. Im Lastbetrieb werden zunächst die erforderlichen Abgastemperaturen von über 600 °C erzeugt, um daran anschließend im Schubbetrieb den erforderlichen Sauerstoffüberschuss sicherzustellen und eine passive Regeneration kontrolliert herbeizuführen.
Die Auswertung der Änderung der Emissionen, welche durch die passive Regeneration an den GPF hervorgerufen werden, wird durch die Anforderung eines dynamischen Messablaufes, welcher in Zyklen bei konstanter Geschwindigkeit mit unterschiedlicher Lastaufbringung erfolgt, erschwert. Bei der Partikelanzahl ist kein eindeutiger Trend erkennbar. Während bei einem Prüffahrzeug kein signifikanter Unterschied zwischen Regeneration und leerem GPF gemessen wurde, sind die PN-Emissionen bei dem zweiten Prüffahrzeug während der Regeneration erhöht. Die Analysen der Verläufe der Abgaskomponenten zeigen, dass alle erhöhten Emissionen außer NH3, HCHO und zum Teil NO während der Aufbringung der Last und nicht während des Schubbetriebes und somit der passiven Regeneration anstiegen. Die Änderungen der Mittelwerte aus der Regeneration sind im Vergleich zum leeren Filter deutlich geringer als die beim DPF der Dieselfahrzeuge.
Die chemische Analyse der festen Bestandteile ergab bei beiden Fahrzeugtypen keine Auffälligkeiten. Der überwiegende Teil der festen Abgasbestandteile ist Kohlenstoff.
Die Messungen der Dieselkraftfahrzeuge zeigten eindeutige und reproduzierbare Ergebnisse. Hier konnten durch die aktive Regeneration, die Phasen; Beladung, Regeneration und Filterkuchenaufbau in einem konstanten Motorbetriebspunkt abgegrenzt und die Veränderungen der Emissionen untersucht werden. Die Analyse der Messungen der Fahrzeuge mit Benzinmotoren zeigten kein eindeutiges Ergebnis. Dies ist zum einen auf die passive Regeneration zurückzuführen, welche keinen konstanten Motorbetriebspunkt ermöglicht. Dadurch überlagern dynamische Einflüsse das Ergebnis. Zum andern ist, bedingt durch die Verbrennung und Abgasnachbehandlung, die Rußmasse in einem GPF deutlich geringer als in einem DPF. Dadurch wird während der Regeneration weniger Ruß verbrannt und die Veränderung der Schadstoffe fällt geringer aus.
Deutschland ist ein Gebiet mit überwiegend niedriger Seismizität. Viele Anforderungen der aktuellen europäischen Erdbebennorm für Brücken DIN EN 1998-2 sind daher für eine sichere Auslegung von Brücken in Deutschland in dieser Art nicht angemessen, sodass deren vollständige Anwendung weder notwendig noch wirtschaftlich ist. In diesem Forschungsvorhaben wurde ein Konzept für eine vereinfachte Erdbebenauslegung für Straßenbrücken in Deutschland entwickelt. Die so ausgelegten Brücken erfüllen bei minimalem Aufwand in der Planungsphase alle notwendigen Anforderungen an Brücken aus DIN EN 1998-2.
Das Konzept ist für die Bemessung von Neubauten gedacht und beinhaltet vier Stufen:
I. keine Erdbebenauslegung notwendig;
II. vereinfachte Auslegungsregeln ohne explizite Erdbebenberechnung;
III. vereinfachte Erdbebenberechnung;
IV. Erdbebenbemessung nach DIN EN 1998-2 + NA.
Für jede Stufe ist in Abhängigkeit vom Brückentyp und der Überbaulänge eine maximal zulässige Erdbebenintensität definiert. Die Erdbebenintensität wird beschrieben als Produkt aus Bemessungs-Bodenbeschleunigung und Bodenfaktor ag·S.
Das Konzept ist ausgearbeitet für ein- und zweifeldrige Plattenbalkenbrücken in Stahlbeton, Spannbeton und Verbundbauweise, für ein- und zweifeldrige Plattenbrücken in Stahlbeton sowie für integrale Rahmenbrücken in Stahlbeton, Spannbeton und Verbundbauweise. Für diese Brückentypen und für verschiedene Parametervariationen wurden numerische Modelle erstellt, diese für gewöhnliche Lasten ausgelegt und anschließend das Tragverhalten unter Erdbeben mittels modalen Antwortspektrenverfahren untersucht. Die Auswertung erfolgte im Hinblick auf die Ausnutzung relevanter Zustandsgrößen unter Erdbeben im Verhältnis zu gewöhnlichen Lasten.
Die Ergebnisse der Untersuchungen wurden in Formulierungsvorschläge für Regelwerke überführt, die den Anwendungsbereich, Anforderungen an die Brückentypen, vereinfachte Auslegungsregeln sowie vereinfachte Berechnungsverfahren für Straßenbrücken in deutschen Erdbebengebieten enthalten.
Das Ziel dieses Projekts war die Konzeptionierung und der Bau abgeschlossener photokatalytischer Reaktoren (Tunnelkassetten), mit denen die Stickoxidbelastung im Tunnel „Rudower Höhe“ in Berlin in einem relevanten Maß von 15 % reduziert werden kann. Grundsätzlich teilte sich das Projekt in zwei Phasen auf, wobei in der Phase 1 ein geschlossenes System mit geeignetem Photokatalysator und Leuchtmittel entwickelt werden sollte. Im Rahmen des Projekts stellte sich heraus, dass sich für diese Fragestellung eine Tunnelkassette mit den Abmessungen 1,5 x 3 x 4 m³ sowie drei Lüftern mit einem Volumenstrom von je 1.500 m³/h geeignet zeigte. Zum photokatalytischen Abbau der Stickoxide dienen 13 mit einem Zement-Photoment-Gemisch beschichtete Schaumstoffmatten. Als Leuchtmittel eignen sich die Leuchtstoffröhren Philips Cleo Performance 80. Anhand von Simulationen zeigte sich, dass für eine Stickoxidreduktion von 15 % jeweils 50 Tunnelkassetten auf beiden Seiten am Ende des Tunnels installiert werden sollten.
Die Umsetzung dieser Ergebnisse war in Phase 2 des Projekts geplant. Aufgrund des Ausfalls eines Unterauftragnehmers, der für die Herstellung, den Einbau und den Betrieb der Tunnelkassetten verantwortlich war, konnte diese Phase jedoch lediglich in Ansätzen verwirklicht werden. So stellte die TU Berlin eigenständig eine Demonstrator-Tunnelkassette her, an der die Funktionalität durch einen längeren Testbetrieb nachgewiesen werden konnte. Bezüglich des Photokatalysators ergab sich jedoch die Problematik, dass diese infolge der Alterung geringere Abbauraten erreicht.
Als Grundlage für die Konzeption der Tunnelkassetten wurden zudem umfangreiche Messungen am Tunnel „Rudower Höhe“ vorgenommen. Labortechnische Bewertungen der photokatalytischen Materialien erfolgte an Messaufbauten nach DIN ISO 22197-1. Zudem wurde ein Reaktor speziell für die Abschätzung der Wirksamkeit der Tunnelmatten erarbeitet, der eine beidseitige Beleuchtung sowie eine Durchströmung erlaubt.
Bei einem Anprall gegen ein ortsfestes Hindernis ist mit tiefen Intrusionen in den Fahrzeuginnenraum zu rechnen, die zu schwersten Verletzungen führen können. Untersuchungen haben gezeigt, dass Kollisionen mit künstlichen Hindernissen an der Fahrbahnseite, wie Gabelständer, Trimasten, zu 80 % frontal angeprallt werden.
Ziel des Forschungsprojektes war die Bewertung der passiven Sicherheit von Gabelständern und Trimasten, um anhand der Ergebnisse Empfehlungen für die Notwendigkeit einer Absicherung durch Schutzeinrichtungen zu erarbeiten.
Als Methode wurde ein Mix aus Realversuchen und Finiten Elemente Simulationen gewählt. Ausgangspunkt bildeten je zwei Validierungsversuche für den Gabelständer und Trimast. Aufbauend auf diesen Versuchen wurden Simulationsmodelle validiert. Die Simulationsmodelle wurden modifiziert und die Insassensicherheit nach Kriterien der EN 12767 bewertet. Wesentliche Kriterien waren der Index für die Schwere der Beschleunigung (ASI: Acceleration Severity Index) und die theoretische Anprallgeschwindigkeit des Kopfes (THIV: Theoretical Head Impact Velocity).
Der wesentliche Faktor zum Erreichen einer passiven Sicherheit wurde im Abreißen der Gurtrohre beim Anprall festgestellt. Ein Abreißen der Gurtrohre führt zum Unterschreiten der Grenzwerte für den ASI und THIV gemäß EN 12767. Von Bedeutung sind in diesem Zusammenhang der Gurtrohrdurchmesser und die Ausführung der Fußplatten. Fixierte Fußplatten begünstigen ein Abreißen der Gurtrohre und ein Unterschreiten der Grenzwerte für den ASI und insbesondere für den THIV.
Die Masthöhe, die Spreizung und das Schild selbst haben nur einen geringen Einfluss auf die beiden Kennwerte. Unterschiedliche Diagonalrohranordnungen, Schwächung der Gurtrohre oder Reduktion des Schweißnahtumfangs wirken sich positiv auf das Abreißen der Gurtrohre aus und führen zum Unterschreiten der Grenzwerte des ASI und THIV
Vorbereitung von Großversuchen an Stützkonstruktionen aus Gabionen – Einzelgabionen mit Steinfüllung
Gabionen haben sich in den letzten Jahren als kostengünstige Bauelemente für Stützkonstruktionen etabliert. Bisher existiert allerdings für Stützkonstruktionen aus Gabionen weder ein realitätsnahes rechnerisches Nachweisverfahren für die innere Standsicherheit eines Einzelelements noch ein definiertes Prüfverfahren für Belastungsversuche. Aus diesem Grund sollen die vorhandenen Regelwerke überarbeitet und angepasst werden.
Im vorliegenden Forschungsprojekt wurden sechs zentrische Belastungsversuche an 3-seitig gelagerten Gabionen durchgeführt. Die Einzelkörbe wurden analog zum häufigen Vorgehen auf einer Baustelle vor Ort befüllt und handgerichtet. Es wurden drei gleiche Versuche mit Lindlarer Grauwacke und 3 unterschiedliche Versuche mit Füllungen aus Granit durchgeführt. In diesem Bericht werden die Belastungsversuche, sowie das Deformationsverhalten der Gabionen beschrieben und analysiert.
Basierend auf den Ergebnissen des vorherigen Projektes F1100.2315000 „Vorbereitung von Großversuchen an Stützkonstruktionen aus Gabionen“ wurden die Erkenntnisse aus den Sandversuchen und die Messtechnik aus den bisherigen Versuchen übernommen.
Die Gabionen reagierten mit großer Verformung des Frontgitters auf die Belastung. Die Distanzhalter wirkten sich positiv auf die Stabilität der Gabione aus. Hohe Zugkräfte in den Distanzhaltern resultierten aus der horizontalen Deformation des Frontgitters und führten zum langsamen Aufbiegen der Distanzhalterhaken, bis diese schließlich versagten.
Eine höhere Steifigkeit der Gabione und somit niedrigere Verformungsraten lassen sich durch die Wahl eines festen, homogenen Füllmaterials mit hohem Reibungswinkel erzielen. Eine Verdichtung des Füllmaterials trägt ebenso dazu bei. Eine hohlraumarme Verfüllung, welche Materialumlagerungen in der Gabione unter Belastung verhindert, ist essentiell für die innere Standsicherheit.
Die Gabionen weisen ein plastisches Verformungsverhalten auf, wodurch ein eindeutiger Bruchpunkt in der Regel nicht vorliegt. Aus diesem Grund wurde für jeden Versuch eine Bruchfestigkeit aufgrund von anhaltender Deformation des Frontgitters und Stauchung der Gabione bzw. eines Aufbiegens der Distanzhalterhaken festgelegt. Für alle Gabionen wurden äquivalente Betondruckfestigkeiten ermittelt.
Die hier untersuchten Gabionen zeichneten sich insgesamt durch niedrige Bruchfestigkeiten aus.
Basierend auf den Erfahrungen aus den durchgeführten Belastungsprüfungen in diesem Forschungsprojekt wurden abschließend Empfehlungen zur Durchführung eines Prüfverfahrens für zentrische Belastungsprüfungen an 3-seitig gelagerten einzelnen Gabionen formuliert.
Für einen hoch effizienten, nachhaltigen und kostenminimierten Winterdienst ist der Einsatz von Sole von großer Bedeutung. Frühere Forschungsarbeiten und die praktischen Erfahrungen haben das bestätigt. Damit für die Soleverwendung bei der FS30- oder FS100-Streuung ausreichend Sole, hergestellt aus Natriumchlorid, mit guter Qualität zur Verfügung steht, müssen geeignete Tausalzlöseanlagen beschafft und betrieben werden. Damit kann eine ausreichende Verfügbarkeit von Sole sichergestellt werden. In vielen Fällen ist die Eigenherstellung von Sole auch wirtschaftlicher als eine Fremdbeschaffung.
Erste Anforderungen an Tausalzlöseanlagen wurden in einem aktuellen europäischen Normungsprojekt formuliert. Allerdings wurden die technischen Zusammenhänge bei der Soleherstellung bislang nicht untersucht und es sind verschiedene Probleme bei der Soleherstellung berichtet worden.
Ziel der Forschungsarbeit war die Beurteilung der Leistungsfähigkeit unterschiedlicher technischer Ausführungen von Tausalzlöseanlagen. Dabei wurden die Zusammenhänge zwischen der verfahrenstechnischen und sonstigen technischen Ausführung der Anlagen, den Umfeldbedingungen und der Salzqualität untersucht. Als Nutzen soll zukünftig eine leistungsfähige und zuverlässige Arbeit der Tausalzlöseanlagen erreicht werden, die kostengünstig die ausreichende Bereitstellung von Sole für einen effektiven Winterdienst ermöglichen.
Schwerpunkte der Bearbeitung stellten eine Online-Umfrage bei Straßenbauverwaltungen in Deutschland, Österreich, den Niederlanden und in der Schweiz dar, um deren Erfahrungen und mögliche Optimierungspotenziale bei der Produktion von Sole zu erfassen. Aufbauend auf den Umfrageergebnissen wurden in Deutschland praktische Untersuchungen mit Salzlöseanlagen, die mit aufwärts gerichtetem Wasserdurchfluss oder Zwangsumlauf arbeiteten, durchgeführt. Die Abhängigkeiten der Soleproduktionskapazität und der Solequalität vom Systemdesign, der verwendeten Salzqualität und den Temperaturen des Lösewassers und des Salzes wurden bestimmt. Die Ergebnisse verschiedener Methoden zur Online-Messung und manuellen Messung der Solekonzentration wurden mit Laborergebnissen verglichen.
Alle erzielten Ergebnisse wurden verwendet, um technische Anforderungen an Tausalzlöseanlagen und Empfehlungen für deren Betrieb und für die Beschaffung neuer Anlagen einschließlich der Auswahl der Salzqualität zu formulieren.
Unbedingt notwendige Bestandteile einer Leistungsbeschreibung für Tausalzlöseanlagen wurden identifiziert (u.a. Anforderungen an die Produktionsleistung und Solequalität (Konzentration, Reinheit), Anforderungen der Arbeitssicherheit und des Umweltschutzes, Vorgaben für die Mess-, Steuer- und Regeltechnik, Abnahmekriterien).
Straßenbegleitflächen können wertvolle Lebensräume für eine Vielzahl von Tier- und Pflanzenarten bieten und damit einen Beitrag zum Erhalt und der Förderung der Biodiversität leisten. Gleichzeitig kommen aber auch gebietsfremde Pflanzenarten (Neophyten) auf Straßenbegleitflächen vor und breiten sich bevorzugt entlang dieser aus. Einige dieser Arten können eine Gefahr für die Biodiversität darstellen, hohe ökonomische Kosten verursachen oder die menschliche Gesundheit gefährden.
Ziel der vorliegenden Untersuchung war eine Erhebung der Verbreitung von Neophyten, den auftretenden Problemen und gegebenenfalls bereits ergriffener Maßnahmen zu deren Kontrolle auf Begleitgrün der Bundesfernstraßen in Deutschland. Um eine verlässliche Einschätzung zu erhalten, wurde eine online-Umfrage entwickelt, die an die zuständigen Straßen- und Autobahnmeistereien der Bundesländer gerichtet wurde. Dabei wurden 12 Fragen zu 10 ausgewählten Neophyten gestellt. Die Rücklaufrate betrug über 40 %.
Laut der Angaben der Teilnehmer kommen die meisten der in der Umfrage aufgeführten Neophyten häufig auf Straßenbegleitflächen vor. Die beiden Arten, die laut der Umfrage am häufigsten vorkommen, die Herkulesstaude (Heracleum mantegazzianum) und der japanische Staudenknöterich (Fallopia japonica), verursachen auch die häufigsten Probleme in den Zuständigkeitsbereichen. Die Teilnehmer gaben an, dass die Herkulesstaude zu gesundheitlichen Problemen, der Staudenknöterich zu Sichtbehinderungen und beide Arten zu einem erhöhten Pflegeaufwand führen. Beide Arten werden in einem Großteil der Zuständigkeitsbereiche aktiv bekämpft. Die Herkulesstaude wird relativ erfolgreich durch manuelle oder chemische Maßnahmen beseitigt, während Maßnahmen gegen den Staudenknöterich größtenteils nicht erfolgreich sind. Auch Maßnahmen gegen die anderen aufgeführten Neophyten führen nur selten zu einer vollständigen und dauerhaften Beseitigung der Bestände.
Die Umfrage verdeutlicht, dass ein dringender Bedarf an Maßnahmen zur Kontrolle von Neophyten, vor allem des Staudenknöterichs, besteht. Auf Grundlage dieser Ergebnisse sollen effiziente Bekämpfungsmaßnahmen und Strategien zur Vermeidung der Einbringung und Ausbreitung von Neophyten entwickelt werden. Mittel- bis langfristig sollen diese zur (Kosten-)Entlastung bei der Unterhaltung bestehender und der Planung zukünftiger Infrastruktureinrichtungen führen.
Die Fahrausbildung fungiert als ein zentraler Bezugspunkt für alle anderen Maßnahmen der Fahranfängervorbereitung: Von ihr müssen die Impulse, die fachliche Orientierung und die Koordination für die Weiterentwicklung des Gesamtsystems der Fahranfängervorbereitung ausgehen. Die derzeitige Fahrausbildung kann diesem hohen Anspruch jedoch noch nicht gerecht werden. Ihr fehlen sowohl wichtige pädagogisch-psychologische Steuerungsinstrumente (z. B. Kompetenzrahmen inklusive Mindest-Ausbildungsinhalte, Ausbildungsplan, Evaluationskonzept) zur eigenen Qualitätssicherung als auch fachlich-strukturelle Voraussetzungen für die Realisierung von Aktivitäten zu ihrer Weiterentwicklung im Rahmen des Gesamtsystems der Fahranfängervorbereitung (z. B. eine Fachkommission).
Zur Behebung der genannten Defizite wurde im vorliegenden Projekt ein Konzept für die Optimierung der Fahrausbildung zum Erwerb einer Fahrerlaubnis der Klasse B erarbeitet. Den Kern dieses Konzepts bilden ein Kompetenzrahmen und ein Ausbildungsplan. Im Kompetenzrahmen wurden sowohl die für den Erwerb von Fahr- und Verkehrskompetenz erforderlichen Kompetenzen als auch die zugehörigen Kompetenzstandards und Mindest-Ausbildungsinhalte nach aktuellen wissenschaftlichen Maßstäben festgelegt. Auf dieser Grundlage wurden dann im Ausbildungsplan die zum Erwerb der Kompetenzen zu vermittelnden Mindest-Ausbildungsinhalte den verschiedenen Lehr-Lernformen (Selbständiges Theorielernen, Theorieunterricht, Fahrpraktische Ausbildung) unter inhaltlichen, pädagogisch-psychologischen und fachdidaktischen Gesichtspunkten zugeordnet und mit Blick auf den Lehr-Lernprozess zeitlich angeordnet. Darüber hinaus wurden im Rahmen des vorliegenden Projekts inhaltliche, methodische und mediale Gestaltungsempfehlungen für das Selbständige Theorielernen und den Theorieunterricht bereitgestellt. Schließlich wurden ein belastbarer Implementationsplan und ein geeignetes Evaluationskonzept beschrieben, mit dem die Lern- und Sicherheitswirksamkeit der optimierten Fahrausbildung noch in der Implementationsphase weiter erhöht (Formative Evaluation) und danach summarisch überprüft (Summative Evaluation) werden kann.
Die Anpassung von Bestandsbrücken für zukünftige Verkehrsbelastungen ist häufig mit der Veränderung oder Erneuerung der Fahrbahn verknüpft. Der geänderten Situation entsprechend sind statische Nachweise zur Tragsicherheit erforderlich. Die Nachrechnungsrichtlinie [1] für den Teil Mauerwerk soll mit der Nachrechnung bestehender Gewölbebrücken validiert, sowie auf den aktuellen Stand der computerunterstützten Nachweisführung angepasst werden.
Bei Bogenbrücken aus Mauerwerk und unbewehrtem Beton ist das sogenannte Stützlinienverfahren vorteilhaft anwendbar, da hiermit die Strukturnichtlinearität infolge der belastungsabhängigen Rissbildung mit klaffenden Fugen berücksichtigt wird.
Beim Nachweis von Mauerwerksstrukturen sind im Allgemeinen die drei folgenden Nichtlinearitäten zu berücksichtigen:
• Strukturnichtlinearität (klaffende Fugen)
• Geometrische Nichtlinearität (Knicken)
• Materialnichtlinearität („plastisches“ Verhalten von Mörtel)
Die Analyse nichtlinearer Aufgabenstellungen erfordert deshalb vertiefte Fachkenntnisse des Ingenieurs. Im Gegensatz zur linear-elastischen Berechnung sind hier Sensitivitätsuntersuchungen notwendig, damit sich die Einflüsse bestimmter Eingangswerte besser beurteilen lassen.
Das Baumaterial Mauerwerk lässt sich bei genauerer Analyse nicht mehr als elastisches Kontinuum abbilden, da sich die Struktur entsprechend der Einwirkungskombination durch Rissbildung mit sich öffnenden Fugen verändert. Mithilfe der Methode der finiten Elemente entsteht mit Einbau von Kontaktelementen zwischen den Fugenrändern der Steine das sogenannte Diskontinuumsmodell. Die verknüpften Kontaktelemente übertragen nur Druck- und Reibungskräfte. Dieses wichtige Detail ermöglicht die realitätsnahe Modellierung von Mauerwerk mit Rissbildung unter Laststeigerung.
Die Tragfähigkeit von Mauerwerk wird neben der Steindruckfestigkeit im Besonderen von der Steinzugfestigkeit bestimmt. Bei Bogenbrücken aus quaderförmigem Natursteinmauerwerk spielt wegen der verhältnismäßig geringen Fugendicke die Mörteldruckfestigkeit eine untergeordnete Rolle. In der aktuellen Normung wird vereinfachend auf der Widerstandsseite nur ein einziger Sicherheitsbeiwert Ƴm festgelegt. Zur rechnerischen Erschließung weiterer Tragreserven lassen sich aber auch die Einzelkomponenten auf der Widerstandsseite absichern.
1. Die Teilsicherheitsfaktoren basieren auf folgendem Nachweisprinzip:
Berechnung der Beanspruchung der Konstruktion über Spannungen mit Schnittgrößen (Stützlinie oder Stützfläche); Darstellung als Beanspruchungspfad
2. Ermittlung der Beanspruchbarkeit des Mauerwerks (Darstellung als Bemessungs-Traglastkurve)
3. Vergleich Beanspruchung ≤ Beanspruchbarkeit
Am Beispiel von fünf Gewölbebrücken aus Mauerwerk wird die Nachrechnungsrichtlinie für den Einsatz aktueller Rechentechnik und dem aktuellen Stand der Normung validiert. Im Zuge dieses Forschungsvorhabens sind für die praktikable Nachweisführung Vorschläge zur Aktualisierung der Richtlinie dokumentiert.
Dabei wurden folgende Parameter untersucht:
• Geometrie mit verschiedener Spannweite, Stichhöhe, Bogendicke, Kreisbögen mit konstantem und konischem Querschnittsverlauf vom Scheitel bis zum Kämpfer
• Steifigkeit der Bögen mit E-Modul für Mauerwerk
• Steifigkeit der Aufbauten als Auffüllung (Hinterfüllung)
• Laststellungen mit Lastverteilung in Querrichtung (mitwirkende Breite)
• Einwirkung aus Temperatur
• Mauerwerksart: Ziegel- Natursteinmauerwerk
• Mauerwerk verschiedener Festigkeiten
• Bemessungsfestigkeit aus Sicherheitskonzept
• Bemessungs-Tragfähigkeit unter ausmittiger Beanspruchung (Bemessungs-Traglastkurve)
Die Ausnutzungsgrade für die Nachweise wurden dokumentiert:
1. Grenzzustand der Tragfähigkeit (GZT)
• Ausnutzungsgrad für maßgebende Einwirkungskombination
• Ausweis der Tragreserve für eine mögliche Laststeigerung (faktorisierbare Lastbilder)
2. Grenzzustand der Gebrauchstauglichkeit (GZG)
• Nachweis, dass unter dem 1,0-fachen Lastmodell der Querschnitt rechnerisch nur bis zur Querschnittsmitte aufreißen (klaffen) darf, d.h. Resultierende der Beanspruchung mit Ausmitte bis zur 2. Kernweite (m ≤ 2)
• Nachweis, dass unter ständigen Einwirkungen der Querschnitt rechnerisch überdrückt ist, d. h. Resultierende der Beanspruchung mit Ausmitte bis zur 1. Kernweite (m ≤ 1)
Die Beispielbrücken ließen sich auf Grundlage der ergänzten Nachrechnungsrichtlinie nachweisen, wobei alle geforderten Grenzzustände eingehalten sind.
Jahresbericht 2021
(2022)
Im Jahresbericht 2021 präsentiert die BASt eine Auswahl von Forschungsaktivitäten des Jahres 2021.
In fast 40 Beiträgen werden Projekte aus 5 Fachbereichen vorgestellt. Das Themenspektrum reicht von digitalen Transformationen im Brücken- und Ingenieurbau über nachhaltigen, klimaresistenten Straßenbau, effiziente, ökologische und digitale Verkehrstechnik bis hin zur automatisierten, umweltbewussten Fahrzeugtechnik sowie zur Sicherheit aller, die am Verkehr teilnehmen.
Schlaglichter sowie Zahlen und Fakten in kurzer und knapper Form ergänzen den Bericht.
Intelligente Verkehrssystem-Dienste (IVS-Dienste) bilden heute in den verschiedensten Anwendungsbereichen des Straßenverkehrs eine wichtige technologische und organisatorische Basis. Die durch die zunehmende Bedeutung von Informations- und Kommunikationstechnik getriebene Vernetzung dieser Systeme stellen neue Herausforderungen an die Einführung neuer und Integration bestehender IVS-Dienste. Zur Sicherstellung einer intelligenten Mobilität in Deutschland und Europa ist die Durchgängigkeit von Informationen und eine einhergehende Integration der entsprechenden Systeme eine wichtige Voraussetzung. Neben der oftmals im Vordergrund stehenden technischen Sichtweise sind vor allem auch die inhaltliche und organisatorische Kooperation zwischen den mit der Erbringung von Mobilitätsdienstleistungen befassten Akteuren zu betrachten.
Intelligente Mobilität mit für die Reisenden durchgängigen Angeboten erfordert insbesondere, dass die beteiligten Akteure gemeinsame inhaltliche Zielsetzungen formulieren. Hierzu ist ein gegenseitiges Verständnis der jeweiligen Aufgaben sowie der für die Aufgabenerbringung etablierten Prozesse notwendig. Auf der Basis eines gemeinsamen Verständnisses gilt es dann, die erforderlichen Schnittstellen und Prozesse inhaltlich, organisatorisch und technisch festzulegen und zu implementieren.
Ziel des Projektes ist die Entwicklung einer national verbindlich eingeführten IVS-Referenzarchitektur für zuständigkeitsübergreifendes Verkehrsmanagement zur Sicherstellung eines koordinierten und harmonisierten Vorgehens bei der Einführung und Nutzung neuer und der Vernetzung bestehender IVS-Dienste im zuständigkeitsübergreifenden Verkehrsmanagement.
Dabei werden folgende Erwartungen an die IVS-Referenzarchitektur für zuständigkeitsübergreifendes Verkehrsmanagement gestellt:
• Schaffung eines allseits akzeptierten Verständnisses von Verkehrsmanagement (Semantik) als Voraussetzung für zuständigkeitsübergreifende und für den Verkehrsteilnehmer durchgängige IVS-Verkehrsmanagement-Dienste/Diensteprofile sowie zur Erleichterung der Entwicklung und Einführung von IVS-Diensten im zuständigkeitsübergreifenden Kontext.
• Entwicklung von funktionalen, organisatorischen und technischen Anforderungsprofilen für die Harmonisierung der Kooperation und Kollaboration öffentlicher Straßenbetreiber und Service-Provider und für die Interoperabilität ihrer Systeme.
• Schaffung eines für den Verkehrsteilnehmer wahrnehmbaren zusätzlichen Nutzens durch die Überwindung von zuständigkeitsbedingten Brüchen in der Bereitstellung von IVS-Verkehrsmanagement-Diensten und in deren Wahrnehmung durch den Verkehrsteilnehmer (sog. Common Look & Feel).
Basierend darauf bedeutet eine Verankerung der zuständigkeitsübergreifenden Anforderungen als Bestandteil von Ausschreibungen eine Erhöhung der Planungs- und Investitionssicherheit für Straßenbetreiber und Service-Provider, sowie die Industrie zur Vermeidung technologischer „Insellösungen“. Generell sind alle Stakeholder und Akteure, die am zuständigkeitsübergreifenden Verkehrsmanagement beteiligt sind, die Schnittstellen dazu haben oder sich in sonstiger Weise damit befassen, von der IVS-Referenzarchitektur für zuständigkeitsübergreifendes Verkehrsmanagement betroffen.
Die im Zuge des Nationalen Projekts IVS-Architektur Straße betrachteten IVS-Dienste des zuständigkeitsübergreifenden Verkehrsmanagements wurden aus Sicht des öffentlichen Straßenbetreibers für Stadt- und Fernstraßen betrachtet. So ist das zuständigkeitsübergreifende Verkehrsmanagement die Verkehrsbeeinflussung durch Strategien mit dem Ziel, die Verkehrsnachfrage und das Angebot an Verkehrssystemen über die Grenzen von hoheitlich eigenständigen Baulastträgern und Betreibern hinweg optimal aufeinander abzustimmen.
Im Zuge der Erstellung des Rahmenwerks für Architekturen Intelligenter Mobilitätsdienste (RAIM; auch IVS-Rahmenarchitektur; siehe Projekt FE 03.0483/2011/IRB) wurde ein generelles Modell zur Anpassung des TOGAF-Vorgehensmodells an die Aufgaben zur Erstellung einer IVS-Rahmenarchitektur entwickelt. Dazu wurden die einzelnen Schritte (Steps) jeder ADM-Phase auf den IVS-Bereich zugeschnitten, womit ein methodisches und umfassendes Vorgehen für die Entwicklung einer Architektur sichergestellt wurde.
Im Rahmen der Erstellung der Referenzarchitektur wurden die einzelnen Phasen und Schritte des TOGAF ADM-Vorgehensmodells auf die spezifischen Gegebenheiten des zuständigkeitsübergreifenden Verkehrsmanagements übertragen und angewendet.
Die IVS-Referenzarchitektur für Verkehrsinformation im Individualverkehr konkretisiert das Rahmenwerk für Architekturen intelligenter Mobilitätsdienste (RAIM) für die IVS-Dienstekategorie Verkehrsinformation im Individualverkehr.
Gegenstand der IVS-Referenzarchitektur für Verkehrsinformation im Individualverkehr sind alle auf Straßenverkehrsteilnehmer unmittelbar wirkenden On-Trip-Verkehrsinformationen, unabhängig vom Kommunikationsmedium. Dies umfasst z. B. über Funkkommunikation (Rundfunk, WLAN, Mobilfunk, etc.) in Endgeräte der Verkehrsteilnehmer übertragene Informationen inkl. C2X sowie Informationen auf dynamischer Beschilderung.
Zur Erarbeitung der IVS-Referenzarchitektur wird das IVS-Architektur-Vorgehensmodell des Rahmenwerks für IVS-Architektur in Deutschland – basierend auf dem TOGAF (The Open Group Architecture Framework) -Vorgehensmodell – angewendet.
Folgende Phasen werden dabei durchlaufen:
1) Vorbereitungsphase
2) Phase A: Architekturvision
3) Phase B: Geschäftsarchitektur
4) Phase C: Informationssystemarchitektur bestehend aus Datenarchitektur und Anwendungsarchitektur
In der Vorbereitungsphase wird die Einbindung zugrundeliegender Modelle geklärt, Modellanpassungen definiert sowie wichtige Prinzipien für die Architekturentwicklung festgelegt. In Phase A werden die Ziele der Architekturentwicklung und die daran Beteiligten festgelegt. Die Ergebnisse der Phasen B und C stellen die eigentliche IVS-Architektur dar. In Phase B werden der aktuelle und der gewünschte Zustand der Geschäftsarchitektur beschrieben. Dafür werden die Unterschiede herausgearbeitet und unter anderem mit Hilfe von Geschäftsprozessdiagrammen dokumentiert. In Phase C werden der aktuelle sowie der gewünschte Zustand der Daten- und Anwendungsarchitektur beschrieben.
Jede Phase ist wiederum in mehrere Schritte unterteilt. Damit wird ein methodisches und umfassendes Vorgehen bei der Entwicklung einer IVS-Architektur sichergestellt.
Die IVS-Referenzarchitektur für multimodale Reiseinformation konkretisiert das Rahmenwerk für Architekturen intelligenter Mobilitätsdienste (RAIM) für die IVS-Dienstekategorie multimodale Reiseinformation.
Multimodale Reiseinformationsdienste (MMRI) unterstützen Reisende bei der Planung ihrer Reise von A nach B durch einen Vergleich verschiedener Reiseoptionen unter Kombination verschiedener Beförderungsarten, Preise und folgender Verkehrsträger: Luftverkehr, Schienenverkehr, Straßenverkehr, Schiffsverkehr, Reisebusverkehr, öffentlicher Personenverkehr, bedarfsgesteuerter Verkehr, Fuß und Radverkehr. MMRI bieten dem Reisenden personalisierte Reisewege entsprechend spezifischer Reisepräferenzen an.
Zur Entwicklung der IVS-Referenzarchitektur wurde neben einer Bestandsaufnahme auch eine Analyse der bestehenden Ansätze zur Etablierung der multimodalen Reiseinformation durchgeführt. Die betrachteten Projekte und Initiativen sind hierbei EU Spirit, DELFI sowie die ÖV-IVS-Rahmenarchitektur. Darüber hinaus fand ein stetiger Austausch mit der VAO GmbH aus Österreich statt, die als assoziierter Partner an der Entstehung der IVS-Referenzarchitektur für multimodale Reiseinformation mitgewirkt haben.
Es gibt die Rollen Inhalteanbieter, Dienstbetreiber und Dienstanbieter mit den der jeweiligen Rolle zugeordneten typischen Aktivitäten zur Erzeugung des Wertschöpfungsbeitrags, den die Akteure leisten. Aktivitäten führen zur Erzeugung von Produkten, die als Informationsobjekte in der IVS-Wertschöpfungskette zwischen den Geschäftsprozessen weitergereicht werden. Hierbei wird von den Akteuren ein definiertes politisches (Einhaltung des Rechtsrahmens, der Verhaltensnormen und Gepflogenheiten), wirtschaftliches (Bereitstellung von Personal, Finanzierung und Controlling, Steuerung der eigenen Aktivitäten), und technisches Verhalten (Erfassung und Aufbereitung von Daten und Informationen, Erzeugung, Bereitstellung und Darstellung von IVS-Diensten) erwartet.
Intelligente Verkehrssysteme (IVS) bilden heute in den Anwendungsbereichen des Straßenverkehrs eine wichtige technologische und organisatorische Basis. Zudem nimmt die Bedeutung der Informations- und Kommunikationstechnik für die zunehmende Vernetzung dieser Systeme zu und bringt neue Herausforderungen bei der Einführung und Integration neuer Systeme in bestehende IVS-Landschaften mit sich. Mit dem Projekt „IVS-Rahmenarchitektur“ wurde ein „Rahmenwerk zur Entwicklung von Architekturen intelligenter Mobilitätsdienste“ erstellt.
Neben der bislang im Vordergrund stehenden technischen Sichtweise sind heute vor allem auch die Aspekte der Kooperation zwischen den mit der Erbringung von Mobilitätsdienstleistungen befassten Akteuren zu betrachten.
Die entwickelte IVS-Rahmenarchitektur liefert nun einen ganzheitlichen Umsetzungsrahmen für die Realisierung aller Aspekte von IVS-Architekturen. Es werden grundlegende Festlegungen getroffen, die für die Interoperabilität der auf verschiedenen Ebenen arbeitenden, verteilt kommunizierenden Organisationen und Anwendungen sicherzustellen. Dazu werden formale Definitionen zum gemeinsamen Verständnis sowie die erforderlichen Methoden und Voraussetzungen zur Zielerreichung festgelegt.
Auf der Basis der IVS-Rahmenarchitektur wurden drei IVS-Referenzarchitekturen erarbeitet, von der jede einen spezifischen Anwendungsbereich konkretisiert und so die Grundlage zur Entwicklung einer IVS-Architektur für einen konkreten Anwendungsfall liefert.
Die Entwicklung der IVS-Rahmenarchitektur erfolgte durchgehend in engem Austausch mit den drei Referenzarchitekturen. Zudem brachte ein Betreuerkreis seine Expertise in das Projekt ein. Auf zwei öffentlichen Workshops wurden die Ergebnisse über 40 Organisationen und Unternehmen aus dem Bereich intelligenter Verkehrssysteme vorgestellt.
Die IVS-Architektur-Pyramide dient dem Projekt als geeignetes Metamodell zur Darstellung und Beschreibung von IVS-Diensten. Diese besteht aus fünf Schichten – der Leitbild-/Strategie-Ebene, der Prozessebene, der Informationsstrukturebene, der IT-Dienste und IT-Infrastrukturebene – die alle gemeinsam den potentiell möglichen Betrachtungs- und Darstellungsbereich einer IVS-Architektur aufspannen.
Den methodischen Ausgangspunkt zur Entwicklung der IVS-Rahmenarchitektur bilden der internationale Standard ISO/IEC/IEEE 42010 sowie das etablierte Architekturrahmenwerk The Open Group Architecture Framework (TOGAF). TOGAF ist als weltweit verbreitetes Rahmenwerk zur Entwicklung von Unternehmensarchitekturen angesehen. Es bietet als zentrales Element ein Vorgehensmodell zur Entwicklung von Unternehmensarchitekturen, die so genannte Architecture Development Method (ADM). Aufgrund der Ausrichtung auf ein einzelnes Unternehmen erfolgte eine Anpassung – Tailoring – der ADM zur Entwicklung von IVS-Architekturen. Für die Entwicklung der IVS-Rahmenarchitektur 1.0 wurde der Schwerpunkt auf die Architekturvision, die Geschäfts- und Informationssystemarchitektur gelegt (Phasen A bis C und initiale Phase in der ADM).
In Phase A werden die Ziele der Architekturentwicklung und die daran Beteiligten festgelegt. In Phase B werden der aktuelle und der gewünschte Zielzustand der Geschäftsarchitektur beschrieben, dabei werden die Unterschiede herausgearbeitet und mit Hilfe von Geschäftsprozessdiagrammen dokumentiert. In Phase C werden der aktuelle sowie der gewünschte Zustand der Daten- und Anwendungsarchitektur beschrieben. Dazu werden die konkreten Datenmodelle und Anwendungen verwendet.
Alle erarbeiteten Ergebnisse sind in einem IVS-Wiki festgehalten und damit der Öffentlichkeit zugänglich. Für die Weiterentwicklung der Rahmenarchitektur kann ebenfalls auf das Wiki zurückgegriffen werden.
Die Entwicklung der IVS-Rahmenarchitektur erfolgte durch die Beteiligung von u. a. Unternehmen, öffentlichen Einrichtungen, Softwareentwicklungs- sowie Beratungshäusern – im ständigen Austausch mit der Praxis. Im Rahmen der wissenschaftlichen Auseinandersetzung mit dem Thema IVS-Architektur entstanden während der Projektlaufzeit zwei Veröffentlichungen, die sowohl eine wissenschaftliche Prüfung des Vorgehens und der Ergebnisse ermöglicht haben, als auch die Diffusion der Erkenntnisse in die Wissenschaft und Praxis befördern.
Mit Abschluss des Projekts hat Deutschland nun eine IVS-Rahmen- und drei konforme IVS-Referenzarchitekturen für den Bereich Straße. Durch den holistischen Ansatz nimmt Deutschland dabei in der EU eine Sonderstellung ein und grenzt sich bewusst von verwandten Ansätzen ab.
Mit dem Hilfsmittel der dokumentierten und von vielen Beteiligten empfohlenen IVS-Architekturen können zukünftig IVS-Dienste schneller entwickelt und einfacher betrieben werden, d. h. Unternehmen und weitere Organisationen im Bereich IVS können nun darauf basierende Dienste und Innovationen anbieten.
Eine ständige Anpassung und Weiterentwicklung ist angestrebt und auch erforderlich, damit die IVS-Rahmenarchitektur den Anforderungen aus der Praxis gerecht werden kann.
Intelligente Mobilitätsdienste sind datenbasierte Anwendungen im Bereich von Verkehr und Mobilität, die von Nutzern beansprucht werden können. Aufgrund des Paradigmenwechsels in der Nutzung und im Betrieb von verkehrlicher Infrastruktur stehen nicht lediglich technische Fragestellungen im Fokus. Zunehmend wird eine gesamtheitliche Perspektive auf den Dienst und all seine Facetten eingenommen, was nicht zuletzt am zunehmenden Interesse privatwirtschaftlicher Akteure an der Mobilitätsdomäne liegt.
Der strategische und geschäftliche Teil eines Dienstes inklusive der Ziele und Erwartungshaltung beteiligter Akteure hat zunehmend an Bedeutung gewonnen. Für privatwirtschaftliche Akteure, die in Kooperation mit der öffentlichen Hand Mobilitätsdienste realisieren und betreiben, stellt es ein Hindernis dar, ähnliche Dienste von Fall zu Fall mit starken Abweichungen zu implementieren. Dies verursacht auf Seiten der Unternehmen einen großen Aufwand, einen entsprechenden Beitrag zur Wertschöpfung zu leisten.
Das verstärkte Aufkommen datenbasierter Mobilitätsangebote erfordert neue, ganzheitliche Konzepte und Mechanismen zur effektiven Zusammenarbeit verschiedener Akteure. Der zunehmende Abstimmungsbedarf zwischen privaten und öffentlichen Akteuren erhöht die Komplexität in der Zusammenarbeit zusätzlich.
RAIM – das Rahmenwerk für Architekturen intelligenter Mobilitätsdienste – bietet einen Leitfaden für die gestalterische Planung sowie die funktionale, technische und wirtschaftliche Realisierung intelligenter Mobilitätslösungen. Auf vertraglicher, organisatorischer und technischer Ebene unterstützt RAIM somit die reibungslose Kommunikation zwischen den beteiligten Akteuren.
Anwendung kann RAIM beispielsweise finden, bestehende Dienste im Verkehrssektor nachträglich zu strukturieren oder die Kooperation von privaten und öffentlichen Akteuren bei der Erstellung von intelligenten Mobilitätsdiensten zu ermöglichen. RAIM soll vor allem Mobilitätsdienstleister, ÖPNV-Betriebe, Navigationsdienstleister, App-Betreiber, Regulatoren, Behörden und städtische Akteure ansprechen. Vor allem bei neuen Diensten (Mobilitätsangeboten) ist Dialog und Konsens zwischen den Akteuren zu fördern.
Das Bundesfernstraßennetz ist verschiedenen Herausforderungen wie u.a. das gesteigerte Verkehrsaufkommen und die hohe Altersstruktur der Bauwerke ausgesetzt. Aktuell basiert das Erhaltungsmanagement von Brücken auf regelmäßigen Bauwerksinspektionen, die weitestgehend aus einer visuellen Bewertung bestehen. Um den derzeitigen Herausforderungen adäquat zu begegnen sowie vorausschauend handeln zu können, müssen neue, effektive und effiziente Lösungen gefunden werden. Daher hat die BASt 2011 den Forschungsschwerpunkt „Intelligente Brücke“ ins Leben gerufen. Unter Verwendung digitaler Technologien und Methoden wurde damit eine Grundlage für ein prädiktives Erhaltungsmanagement geschaffen, welches Bauwerkseigentümer bei der Gewährleistung der Sicherheit, Zuverlässigkeit und Verfügbarkeit ihrer Bauwerke unterstützen soll.
Im Rahmen dieses Berichts wurden die relevanten zumeist konzeptionellen Arbeiten aus den Jahren 2011 bis 2020 zusammengestellt. Der Fokus liegt dabei auf den Aspekten Datenerfassung, -aufbereitung, -analyse und -bewertung, -management sowie Qualitätssicherung. Die erfolgten Arbeiten bilden die Grundlage für die Realisierung verschiedener Reallabore, in denen ausgewählte Entwicklungen und Forschungsansätze an Bauwerken unter realen Bedingungen erprobt, bewertet und weiterentwickelt werden.
Das Reallabor „Intelligente Brücke im Digitalen Testfeld Autobahn“ wird in diesem Bericht im Detail vorgestellt und die eingesetzten Systeme hinsichtlich ihrer Praxistauglichkeit und Dauerhaftigkeit beurteilt.
Bei dem Bauwerk handelt es sich um eine vierfeldrige Spannbeton-Hohlkastenbrücke, die mit den vier Messsytemen „Brückenkennwerte“, „drahtloses Sensornetzwerk“, „instrumentierte Lager“ und „instrumentierter Fahrbahnübergang“ ausgestattet ist. Über einen Zeitraum von 5 Jahren erfolgen an dem Reallabor Forschungsprojekte, mit dem Ziel, die Messsysteme im Zusammenhang zu Demonstrieren und Verfahren zur zuverlässigen Erfassung und automatisierten Auswertung sowie eine Webanwendung zur Publikation der Ergebnisse zu entwickeln. Damit stehen Informationen zu Verkehr, Wetter- und Klimaeinflüssen, bauteil- und bauwerksbezogene Kennwerte zur Verfügung.
Durch die kontinuierlichen Erkenntnisse zu Einwirkungen und Status des Bauwerks und der instrumentierten Bauteile kann der Betreiber der Brücke unterstützt werden. Die im Rahmen des Reallabors „Intelligente Brücke im Digitalen Testfeld Autobahn“ gewonnenen Erkenntnisse und Erfahrungen schaffen eine wichtige Grundlage für die Konzeption weiterer Reallabore.
Anhand von Reallaboren werden kontinuierlich Realdaten generiert, die als Grundlage für weitere Forschung dienen können im Hinblick auf u.a. die Verifizierung von Systemannahmen, Überprüfung und Kalibrierung von Ingenieurmodellen sowie die Weiterentwicklung von datenbasierten Algorithmen. Darüber hinaus bieten Reallabore optimale Bedingungen zur Erprobung und Weiterentwicklung von praxistauglichen und zuverlässigen Innovationen.
Deutschland verfügt über eine gut ausgebaute Infrastruktur. Deutschland ist auch ein hochfrequentiertes Transitland. Der Verkehr allgemein und der Straßenverkehr insbesondere sind relevante Wirtschaftsfaktoren.
Die kontinuierliche Schaffung und Erhaltung eines Netzes von Ingenieurbauwerken im Verkehrssystem Straße sind Ziele des verschiedener Management Systeme. Die Systeme leben von den vorhandenen Daten. Hierzu zählen Daten des Verkehrs und Daten des Status des Bauwerkes.
Im Rahmen des Nationalen Innovationsprogramms „Straße im 21. Jahrhundert“ des Bundesministeriums (BMVI) wurden Forschungsvorhaben gefördert, die sich u. a. mit der Entwicklung neuer Konzepte und Technologien zur Bereitstellung solcher Datenbestände befassen.
Alle bisherigen Forschungs- und Praxisprojekte betrafen Bestandsbrücken und verfolgten das Ziel eines objektspezifischen Verkehrslastmodells bzw. einer Überwachung eines vorhandenen Schadens.
Eine Weiterentwicklung des Einsatzes für Brücken von Beginn der Verkehrsfreigabe für einen weiteren Dauerbetrieb fehlt (national und international).
Mit der Pilotstudie „Intelligente Brücke im Digitalen Testfeld Autobahn sollen gemäß einer Konzeption der Bundesanstalt für Straßenwesen (BASt) die bisherigen Entwicklungen des BASt-Forschungscluster „Intelligente Brücke“ umfänglich demonstriert und damit bundesweit zugänglich gemacht werden.
Zu diesem Zweck hat die Bayerische Straßenbauverwaltung im Rahmen des vom Bundesministerium für Verkehr und digitale Infrastruktur (BMVI) geplanten Digitalen Testfeldes Autobahn das Bauwerk BW402e im Bereich des AK Nürnberg, Richtungsfahrbahn Regensburg (Verbindungsrampe A3 zur A9) zum Ausbau zur intelligenten Brücke vorgesehen. Die Brücke ist ein Neubau.
Im Fokus der „Intelligenten Brücke im Digitalen Testfeld Autobahn“ stehen die Schwerpunkte „Einwirkungsüberwachung und Analyse“, „Intelligente Fahrbahnübergänge und Lager“ sowie „Intelligente Sensornetze“.
Den Kern der „Intelligenten Brücke im Digitalen Testfeld Autobahn“ bilden die Messsysteme neben der Datenanalyse, Bewertung und Visualisierung von Ergebnissen sowie dem Datenmanagement.
Im Bauwerk 402e am Autobahnkreuz Nürnberg sind fünf verschiedene Messsysteme installiert. Dabei sind konventionelle Systeme und Systeme in Erprobung kombiniert.
Die unterschiedlichen Systeme, die unabhängig voneinander entwickelt wurden, dienen so einem gemeinsamen Ziel, gestatten Referenzen und einem ganzheitlichen Erfahrungsgewinn.
Der vorliegende Schlussbericht dokumentiert in diesem Gesamtkontext die Bearbeitung des Forschungsprojektes „Digitales Testfeld Autobahn - Intelligente Brücke - Synchronisation von Sensorik und automatisierte Auswertung von Messdaten“.
Im Rahmen der Bearbeitung werden vorhandene Algorithmen und Methoden angewendeten und weiterentwickelt, um aus den Messdaten sowohl die Erkennung von überfahrenden Fahrzeugen zu realisieren als auch Kennwerte des Status des Bauwerkes zu ermitteln. Wesentlicher Projektschwerpunkt ist dabei die Realisierung der vollständig automatisierten Datenauswertung, Datenaufbereitung und Datenpublikation vor Ort.
Die Messdaten für diese Auswertungen stammen dabei aus dem Messsystem an der Brücke, am Lager und am Fahrbahnübergang. Daten aus den anderen Messsystemen werden als Referenzquellen herangezogen. Aus diesem Ansatz heraus ist die zeitliche Synchronisation von Messdaten aus verschiedenen, heterogenen Systemen ein zusätzlicher Schwerpunkt des Projektes.
Ein weiterer Schwerpunkt ist die Erprobung und Weiterentwicklung des drahtlosen Sensornetzes. Auch hieraus können Referenzdaten für die anderen Systeme gewonnen werden.
Alle erfassten und aufbereiteten Daten müssen systematisch gehalten, gesichert und publiziert werden. Diese Anforderungen bilden einen weiteren Schwerpunkt der Projektbearbeitung. Die Entwicklung einer Web-basierten Ergebnispublikation ist dabei eine wesentliche Zielstellung.
Füllsysteme für Fugen in Betonfahrbahnen sind während ihrer Nutzungsdauer vielfältigen Beanspruchungen ausgesetzt. Daraus leiten sich erhöhte Anforderungen an die Dauerhaftigkeit des Gesamtsystems „Fuge“ ab. Neben jahreszeitlich schwankenden klimatischen Änderunge spielen insbesondere zyklische Beanspruchungen durch den überrollenden Verkehr sowie die Alterung der Fugenmassen eine maßgebliche Rolle.
Ziel dieses Forschungsprojekts war es, ein praxisorientiertes Prüfverfahren zu entwickeln, das zum einen das Gesamtsystem „Fuge“ bestehend aus Betonfugenflanke, Voranstrichmittel sowie der Fugenmasse umfasst und andererseits die maßgebenden Szenarien der in-situ-Beanspruchungen realistisch abbildet. Dazu wurden Systemprüfkörper bestehend aus Beton und Fugenfüllstoff definiert, an denen über die herkömmlichen Prüfungen am Füllstoff hinaus, statische Zug-/Scherversuche und zyklische Druck-/Zug-/Scherversuche an neuen und künstlich gealterten Proben vorgenommen wurden. Diese Prüfungen wurden sowohl an Laborproben (Referenz) als auch an Systemprüfkörpern aus Bohrkernen von originären Bestandstrecken durchgeführt.
Die Untersuchungen zeigten u.a., dass die heiß verarbeitbaren Fugenmassen, mit Ausnahme der modifizierten Fugenmasse vom Typ N2+, infolge künstlicher Alterung erheblich versprödeten, d.h. bei deutlich reduziertem Dehnvermögen höhere Maximalspannungen aufwiesen. Dieser Effekt zeichnete sich auch bei den im dynamischen Scherrheometer ermittelten Phasenwinkeln und komplexen Schermoduln ab. Unter der Annahme eines exponentiellen Verlaufs der Alterung von heiß verarbeitbaren Fugenmassen, konnte für die künstliche Laboralterung ein simulierter Nutzungszeitraum von etwa 6 Jahren ermittelt werden. Für die kalt verarbeitbaren Fugenmassen erwies sich die für heiß verarbeitbare Fugenmassen herangezogene künstliche Alterung unter Druck und Temperaturbeanspruchung als nicht zweckmäßiges Verfahren.
Zur ersten Validierung der entwickelten Laborprüfverfahren wurde im BAB-Netz eine heiß und eine kalt verarbeitbare Fugenmasse über die ersten 21 Monate Nutzungsdauer intensiv beobachtet.
Unter Einbeziehung der Systemprüfungen an Labor- und in-situ-Proben wurde ein erster Bewertungsansatz entwickelt, mit dem, anhand wissenschaftlich orientierter Kenn- und Grenzwerte, Fugenmassen im nicht gealterten ebenso wie im künstlich gealterten Zustand bewertet werden können.
Das European New Car Assessment Programme (Euro NCAP) ist ein verbraucherschutzorientiertes Programm zur Bewertung der Sicherheit von – in der Regel – neuen Kraftfahrzeugmodellen. Das Programm gibt es seit 1997, seit 2009 besteht die Bewertung aus 4 Bausteinen (1. Schutz erwachsener Insassen; 2. Schutz von Kindern im Fahrzeug; 3. Schutz schwächerer Verkehrsteilnehmer; 4. Ausstattung mit Fahrerassistenzsystemen).
Das Hauptziel des vorliegenden Projekts bestand darin, die Testergebnisse aus Euro NCAP soweit möglich auf die gesamte Pkw-Flotte zu übertragen und daraus einen Safety Performance Indikator (SPI) für den Pkw-Bestand mehrerer aufeinander folgender Jahre (Zeitreihe) zu bilden. Ein weiteres Ziel war es zu untersuchen, ob ein Zusammenhang zwischen der Euro NCAP-Bewertung von Fahrzeugen und dem Unfallgeschehen existiert. Neben Literaturanalysen wurden hierzu statistische Modelle zum Einfluss der durch den SPI ausgedrückten Fahrzeugsicherheit auf die korrespondierende Zahl der Verunglückten aus der amtlichen Straßenverkehrsunfallstatistik geschätzt.
Ein wesentlicher Schritt bei der Entwicklung eines SPI zur Fahrzeugsicherheit bestand darin, die Euro NCAP-Testergebnisse der verschiedenen Jahre im Hinblick auf die im Zeitverlauf geänderten Testprozeduren soweit als möglich vergleichbar zu machen. Hierfür wurde eine Projektgruppe bestehend aus Experten der BASt in den Bereichen Aktive und Passive Fahrzeugsicherheit gebildet, welche die Aufgabe hatte, je Baustein zu quantifizieren, wie sich diese Veränderungen der Testprozeduren auf die Fahrzeugbewertung auswirken. Dabei wurden die Testrahmenbedingungen des Jahres 2020 als Referenz herangezogen.
Der zweite wesentliche Schritt zur Erzeugung eines Safety Performance Indikators bestand darin, die – neu berechneten – Euro NCAP-Ergebnisdaten für die einzelnen getesteten Marken und Modelle mit den ZFZR-Beständen (1.1.2014 bis 1.1.2020) zu verknüpfen (matching).
Die Verknüpfung der ZFZR-Bestandsdaten mit den Euro NCAP-Bewertungsdaten erfolgte über einen komplexen Algorithmus, der im Kern auf den Merkmalen Fabrikatcode, Modellcode und Jahr der Erstzulassung basiert.
Im Ergebnis konnte im Durchschnitt über die hier betrachteten sieben Bestandsjahre (Stichtage: 1.1.2014 bis 1.1.2020) von den neueren Fahrzeugen (Erstzulassungsjahr ab 2009) rund 70 % eine Euro NCAP-Bewertung zugeordnet werden. Den übrigen Pkw im ZFZR-Bestand wurde die fehlende Bewertung über Imputationsverfahren zugewiesen.
Es wurden insgesamt vier (bausteinspezifische) Safety Performance Indikatoren gebildet, die auf den neu berechneten und vereinheitlichten Fahrzeugbewertungen aus Euro NCAP basieren. Bei den genannten Indikatoren handelt es sich um Durchschnittswerte der Sicherheitsbewertung der im ZFZR erfassten Pkw. Aus diesen vier Indikatoren wurde dann noch ein Safety Performance Gesamtindikator mittels gewichtetem Mittelwert berechnet. Im Ergebnis liegen damit Zeitreihen der vier bausteinspezifischen SPI-Werte sowie des SPI-Gesamtwerts vor.
Das zentrale Ergebnis der Analysen der SPI-Zeitreihen ist, dass alle Indikatoren einen im Zeitverlauf ansteigenden Trend aufweisen. Dies ist ein klares Indiz dafür, dass der Sicherheitsstandard nicht nur bei den Neufahrzeugen, sondern auch bezogen auf den gesamten Pkw-Bestand in den letzten Jahren kontinuierlich gestiegen ist.
Die höchsten Indikatorwerte finden sich beim SPI zum Baustein 2 (Schutz von Kindern im Fahrzeug), am niedrigsten fallen sie hinsichtlich der Ausstattung mit Fahrerassistenzsystemen aus (SPI zum Baustein 4).
Gliedert man die Indikatoren zusätzlich nach Pkw-Segment, so finden sich bei SUV’s, gefolgt von Geländewagen, Großraum-Vans und der Oberklasse die höchsten Werte beim SPI-Gesamtwert. Dass die SUV’s den höchsten SPI aufweisen, hat allerdings auch damit zu tun, dass es sich um ein relativ neues Segment handelt, in dem der Anteil älterer Fahrzeuge vergleichsweise niedrig ist.
Im Rahmen der Unfallanalyse wurden log-lineare Regressionsmodelle gerechnet, um den Einfluss der vier SPI auf die jeweils entsprechenden Unfallmerkmale (verunglückte Pkw-Insassen, Fußgänger und Radfahrer, unfallbeteiligte Pkw) zu ermitteln. Darüber hinaus wurde der Zusammenhang zwischen dem SPI-Gesamtwert und den resultierenden monetären volkswirtschaftlichen Unfallkosten analysiert. Die statistischen Auswertungen zum Zusammenhang zwischen SPI und Unfallgeschehen zeigten in allen Fällen, dass ein höherer Wert des entsprechenden Safety Performance Indikators mit einer geringeren Zahl an verunglückten Personen bzw. unfallbeteiligten Pkw einhergeht. In Bezug auf die Unfallkosten ergab sich, dass bei einer Zunahme des Gesamt-SPI der Pkw-Flotte um 1 % die entsprechenden Unfallkosten ceteris paribus um 0,7 % sinken.
Zudem wurden bei der Konzeption des Projektes bereits die wesentlichen Voraussetzungen für eine kontinuierliche Fortführung der SPI-Zeitreihen in den nächsten Jahren geschaffen.
Bei den abzugsrelevanten Merkmalen - Verdichtungsgrad und Hohlraumgehalt - liegt die Bestimmung der Raumdichte am Ausbaustück oder Marshallprobekörper entsprechend den nationalen Prüfvorschriften zugrunde. Zur Bestimmung der Raumdichte ist bei offenporigen Asphalten das Ausmessverfahren (Verfahren D) anzuwenden und bei allen anderen Walzasphalten das Tauchwägeverfahren mit Ledertuch (Verfahren B). Nur bei lärmtechnisch optimierten Asphaltdeckschichten soll zur Erfahrungssammlung neben dem Verfahren B auch das Verfahren D angewandt werden.
Aus den Erfahrungen mit den Prüfverfahren ist bekannt, dass mit zunehmendem Hohlraumgehalt die Raumdichte an Prüfkörpern mit den standardisierten Verfahren nicht präzise genug erfasst werden kann. Um ein geeignetes Verfahren für primär semiporöse und sekundär offenporige Asphaltdeckschichten zu finden wurden insgesamt 7 zum Teil standardisierte Prüfmethoden zur Bestimmung der Raumdichte an drei Mischgutarten durchgeführt. Dabei wurden die Geometrien und Herstellungsarten der Prüfkörper variiert.
Alle gesammelten Daten der Untersuchungen (Raumdichte und Streuung) wurden hinsichtlich der Einflüsse aus den geometrischen Kennwerten (Prüfkörperhöhe und -durchmesser), Prüfkörpermasse und charakterisierenden Kennwerten wie den Hohlraumgehalt, den Textureigenschaften, der effektiven Fläche der Textur und Körnungsspezifischen Kennwerten analysiert.
Es konnten deutliche Unterschiede zwischen den Verfahren nachgewiesen werden. Hinsichtlich der Eignung für semiporöse und offenporige Asphalte konnte ein Verfahren zur Umhüllung von Prüfkörpern mit einem Vakuumbeutel empfohlen werden, welches in Einklang mit der europäischen Norm steht. Alternativ ist eine Bestimmung des Volumens über eine Laserabtastung der Probekörper zu empfehlen. Diese technisch hochwertige Methodik lässt eine sichere Abgrenzung zwischen der Textur eines Prüfkörpers und den zur Raumdichte zugehörigen Volumen zu.
Analyse der Auswirkungen von Witterungsextremen an bestehenden Straßenbefestigungen in Betonbauweise
(2022)
Aufgrund des Klimawandels muss auch in Deutschland zukünftig damit gerechnet werden, dass Witterungsextreme häufiger und stärker ausfallen. Schon allein durch die prognostizierte Klimaveränderung sind Auswirkungen auf die Nutzungseigenschaften der Betonfahrbahnen zu erwarten. Im Kontext mit einer signifikanten Erhöhung der Belastung durch Schwerverkehr sowie mit erhöhten Anforderungen an die Verfügbarkeit ergibt sich die Notwendigkeit, die Regelbauweise zu überprüfen und ggf. zu modifizieren.
Es hat sich herausgestellt, dass bei der Dimensionierung die Witterungsbelastung von Betondecken mit einer Erhöhung der mittleren Plattentemperatur von 2 K und durch ungünstigere positive Temperaturverläufe bzw. Temperaturgradienten berücksichtigt werden berücksichtigt werden sollte. Zudem muss die Lage der Längsfugen nicht nur in den Kontext zur Markierung gebracht werden sondern auch gewährleisten, dass mit Berücksichtigung neuer Anforderungen eine Aufrechterhaltung des Verkehrs mindestens eines Fahrstreifens im Zuge von Erhaltungsmaßnahmen möglich bleibt. Aus diesem Grund und mit Blick auf die Dauerhaftigkeit ist es sinnvoll, die Plattengeometrien signifikant zu verkleinern, wodurch Plattenverformungen und Spannungen reduziert werden können. Resultat kleinerer Plattengeometrien sind zudem kleinere Fugenöffnungsweiten, was sich einerseits positiv auf die Langlebigkeit der Fugenfüllung auswirkt und andererseits eine deutlich verbesserte Lärmminderung ergibt, wenn gleichzeitig die Fugenausbildung schmaler ausgeführt wird.
Für den Beton selbst, der hinsichtlich der Dauerhaftigkeit der Konstruktion sowie für die Erreichung dauerhafter Gebrauchseigenschaften eine entscheidende Rolle spielt, ist bei der Konzipierung anzustreben, einen geringen E-Modul und eine geringere Wärmedehnzahl zu erhalten, wobei die Festigkeit (Zugfestigkeit) ein gewisses Niveau nicht unterschreiten sollte.
Airbags sind ein wichtiger Bestandteil der passiven Sicherheitsausstattung von Fahrzeugen, haben sich in den letzten 30 Jahren stark weiterentwickelt und somit die Schutzwirkung für die Insassen weiter erhöht. Ziel dieser Arbeit ist es, auf Basis verschiedener Datensätze die Schutzwirkung von modernen Airbagsystemen aufzuzeigen und weiteres Opimtierungspotential offenzulegen. Dabei wurde der Fokus auf die Analyse von Realunfalldaten und Verletzungen durch Airbags und deren Schallpegel gesetzt.
Daten aus dem Unfallgeschehen im Straßenverkehr wurden auf Basis von GIDAS- und NASS-Daten ausgewertet. Mittels der ausgewerteten GIDAS-Daten konnte gezeigt werden, dass bei einem Delta-v von ca. 20 km/h bereits 50 % aller Airbags ausgelöst wurden, welches nicht den Erwartungshorizont der Auslöseschwelle von 25 bis 30 km/h nach KLANNER et al. (2004) entspricht. Außerdem wurde ein Trend erkannt, der zeigt, dass bei neueren Fahrzeugen die Anzahl der Airbagzündungen in einem Unfall steigt. Eine statistische Auswertung von airbaginduzierten Verletzungen ergab, dass keine statistisch signifikanten Ergebnisse in Bezug auf airbaginduzierte Verletzungen entnommen werden konnten, allerdings konnten in den analysierten Fällen leichte Verletzungen identifiziert werden, die durch die Airbagzündung verursacht wurden. Die festgestellten Verletzungen waren beispielsweise Schürfwunden, Prellungen und Verbrennungen bis maximal 2. Grades. Es wurden 14 Einzelfälle analysiert bei denen die Verletzungsschwere höher war, als es die Unfallschwere erwarten ließ. Davon waren elf Unfälle durch schlechte strukturelle Interaktion gekennzeichnet, beispielsweise Unterfahren, zentraler Stoß oder Stoß außerhalb der Längsträger. Im vorliegenden GIDAS-Datenmaterial und in der Analyse von MHH Patientinnen- und Patientendaten konnten Einzelfälle, bei denen es zu Hörschädigung in Folge einer Airbagzündung kam, identifiziert werden, allerdings konnte keine statistisch signifikante Verbindung zwischen Airbagzündung und einer Hörschädigung festgestellt werden.
Auf Basis der analysierten GIDAS-Fälle wurde eine Versuchsmatrix entwickelt, um die aufgezeigten Probleme mittels experimenteller Unfallrekonstruktion und akustischer Messungen zu adressieren. In der Unfallrekonstruktion mit zentralem Baumaufprall konnte gezeigt werden, dass bei dem vorliegenden Fall eine frühere Airbagzündung das Brustverletzungsrisiko hätte senken können und somit die vorliegende Brustverletzung wahrscheinlich vermieden hätte. In dem analysierten Auffahrunfall mit einer Unterfahrensituation konnte gezeigt werden, dass die Airbagauslösung unnötig war, da das Verletzungsrisiko durch die Airbagzündung nicht reduziert wurde. In diesem Fall hätte eine unterdrückte Airbagzündung die Hörschädigung des Fahrers verhindert.
Im Rahmen der durchgeführten akustischen Messungen wurden systematische Messungen von Schallpegeln in Fahrzeugen während eines Unfalls und im Stand gemessen. Es konnte gezeigt werden, dass die Crashbegleitgeräusche der Fahrzeugdeformation ausreichen, um den Stapediusreflex auszulösen, dadurch ist das Risiko einer Hörschädigung gering – trotz Pegel von über 160 dB. Das Risiko für eine Hörschädigung steigt mit der Anzahl der gezündeten Airbags durch die kurze Aneinanderreihung von Knallereignissen trotz ausgelösten Stapediusreflex. Auch bei frühen Zündzeitpunkten steigt das Risiko einer Hörschädigung, da der Stapediusreflex noch nicht ausgelöst ist oder sich in der Anschwellphase befindet und somit seine Schutzwirkung nicht komplett entfalten kann.
Mit den analysierten Daten konnte gezeigt werden, dass die Schutzwirkung von Airbags unumstritten ist, allerdings wurde Optimierungspotential in den Zündalgorithmen offengelegt. Das gilt für Unfälle mit schlechter struktureller Interaktion und daraus resultierendem nicht optimalen Zündzeitpunkt und für eine unnötige Airbagauslösung bei geringer Unfallschwere. Weiteres Optimierungspotential zur Reduzierung des Verletzungsrisikos besteht bei Airbags hinsichtlich ihres Potentials Schürfwunden, Prellungen, Verbrennungen und Hörschäden zu verursachen.
Durch den Stufenplan Digitales Bauen und Betreiben wird vom Bundesministerium für Verkehr und digitale Infrastruktur (BMVI) die ganzheitliche und flächendeckende Nutzung von Building Information Modeling (BIM) im Straßenbau gefordert. Demnach sollen auch für Infrastrukturprojekte moderne, IT-gestützte Prozesse und Technologien bei Planung, Bau und Betrieb ähnlich den Strukturen im Hochbau verwendet werden. Das Projekt beschäftigt sich mit der Überprüfung der Konformität der Methode BIM mit den Regelwerken der Forschungsgesellschaft für Straßen- und Verkehrswesen (FGSV) und des Gremiums „Koordinierung der Bund/Länder Fachinformationssysteme im Straßenwesen (IT-Ko). Darüber hinaus sollen digitale und datenbanktaugliche Strukturen mit den wesentlichen Inhalten der R1-Regelwerke erstellt werden, anhand derer die Konformitätsprüfung erfolgen kann. Als erste Grundlage für eine einheitliche Anwendung der Methode BIM in Infrastrukturprojekten dient die Entwicklung eines BIM-konformen Objektkataloges für das Verkehrswesen und den Straßenbau. Die Umsetzung erfolgte in Form einer Datenbank, in welcher die wichtigsten Begrifflichkeiten und Definitionen der Regelwerke der FGSV und des IT-Ko als Merkmalsgruppen und Merkmale importiert wurden. Hierbei wurde eine einheitliche Verwendung von den Begrifflichkeiten innerhalb eines Regelwerkes als auch zwischen verschiedenen Regelwerken untersucht. Zusätzlich wurden den einzelnen Merkmalen nach Möglichkeit Definitionen, Beschreibungen, Beispiele, Wertebereiche, physikalische Größen sowie Dimensionen zugewiesen. Der Informationsgehalt in der Datenbank ist stark von der Detailtiefe im jeweiligen Regelwerk abhängig. Die Analyseergebnisse und die Hinweise zu nicht harmonisierten Bereichen der einzelnen Regelwerke werden für die weitere Gremienarbeit und gegebenenfalls erforderliche Abstimmungen zwischen verschiedenen Gremien zur Verfügung gestellt. Zusätzliche Hinweise zu abbildbaren und nicht abbildbaren Informationen in digitalen Modellen wurden ebenfalls herausgearbeitet. Eine Liste mit weiteren BIM-relevanten Regelwerken sowie erwartete Neuerungen in bereits analysierten Regelwerken ist diesem Bericht beigefügt. Eine Anleitung für die systematische Analyse weiterer Regelwerke zur Ergänzung der Datenbank für die zukünftige Fortentwicklung und Datenpflege wurde verfasst. Ein Umsetzungsbeispiel der Datenbank in Form eines dreidimensionalen Datenmodells wurde erzeugt. Prüfungen hinsichtlich der Merkmalsabhängigkeiten können in Zukunft durch gezielte Abfragen innerhalb eines Modells ergänzt werden. Durch die beispielhafte Analyse ausgewählter Regelwerke und die Entwicklung einer geeigneten Datenbankstruktur kann dieses Projekt als erster Schritt zu einer einheitlichen BIM-Struktur für den Infrastrukturbau dienen.
Ziel des Projektes war es, systematische Untersuchungen zum Abriebverhalten und damit zur Partikelemission verschiedener Fahrbahnoberflächen durchzuführen, die Ergebnisse zu quantifizieren und eine Empfehlung für die Berücksichtigung abgeleiteter Emissionsfaktoren in den FGSV-Richtlinien RLuS „Richtlinien zur Ermittlung der Luftqualität an Straßen ohne oder mit lockerer Randbebauung“ zu geben. Dazu wurden
• eine umfassende Literaturrecherche und Auswertung zum Thema durchgeführt,
• abriebrelevante Kenngrößen für 27 typische in Deutschland eingesetzte Fahrbahnbeläge bestimmt,
• Laborversuche zum Abriebverhalten von 21 dieser Fahrbahnbeläge durchgeführt,
• Emissionsberechnungen für nicht motorbedingte Partikel (AWAR) mit dem Modell NORTRIP (Non-exhaust road traffic induced particle emission modelling) in seiner Version 3.2 durchgeführt und auch die resultierenden PM10-Straßenabriebemissionsfaktoren ausgewiesen.
• diese Berechnungsergebnisse mit AWAR-Emissionsfaktoren nach DÜRING et al. (2011) bzw. HBEFA4.1 verglichen.
• die NORTRIP-Berechnungsergebnisse des dort integrierten NOx-Tracermodells mit Immissionsmessungen an der Frankfurter Allee in Berlin und Am Neckartor in Stuttgart verglichen,
• Empfehlungen zur Anwendung von NORTRIP gegeben sowie
• aus den NORTRIP-Berechnungen erzeugte PM10-AWAR- und -Straßenabriebemissionsfaktoren für die Anwendung in RLuS abgeleitet.
Folgende in Deutschland am häufigsten eingesetzte Fahrbahnbeläge wurden untersucht:
• Asphaltbeton,
• Offenporiger Asphalt (OPA),
• Gussasphalt,
• DSH (Dünne Asphaltdeckschicht in Heißbauweise),
• Waschbeton und
• Splittmastix-Asphalt (SMA).
Folgende wesentliche Ergebnisse wurden abgeleitet:
• Quantifizierung der Abriebmaße
Abgesehen von der Art des Reifens (insbesondere der Einsatz von Spikereifen), dem Fahrverhalten (Beschleunigungsanteile) und der Fahrgeschwindigkeit (höhere Geschwindigkeiten führen zu höheren Abriebraten) sind weitere wesentliche Faktoren, die sich auf die Partikelerzeugung aus dem Abrieb der Fahrbahn auswirken,
– die Art/Festigkeit und die Korngröße des in der Fahrbahn verwendeten Gesteinmaterials
– eventuell auch die Art des Bindemittels (polymer modifiziertes Bindemittel scheinen positiv zu wirken)
– eventuell bewirkt eine starke Modifizierung des Bindemittels (z. B. Gummimodifizierung) und die sich dadurch einstellenden dickeren Bindemittelfilme eine Verminderung der PM10-Fahrbahnabriebemissionen. Die Höhe der Reduktion hängt hier wahrscheinlich von der Ausbildung der Oberfläche ab.
...
Das vorliegende Dokument stellt eine Handlungsempfehlung zur Nutzung des C2X-Kommunikationsstandards IEEE 802.11p für die ÖV-Priorisierung an signalisierten Knotenpunkten zur Verfügung. Die erstellte Roadmap baut auf die Systeme im Status quo auf und zeigt Wege für ein sukzessives Upgrade hin zur C2X-basierten ÖV-Priorisierung. Die Priorisierung des Öffentlichen Verkehrs ist eine seit den 1980er Jahren angewendete Praxis zur Verbesserung der Reisezeiten der Öffentlichen Verkehrsmittel und der Stärkung des Umweltverbundes auf Basis der Steigerung der Attraktivität des Öffentlichen Verkehrs. Signalisierte Knotenpunkte sind unerlässliche Bestandteile des innerstädtischen Hauptstraßennetzes. Sie beeinflussen maßgeblich die Qualität des Verkehrsablaufs und sind damit von besonderer Bedeutung in Bezug auf die verkehrliche Steuerung und die mitunter verkehrspolitisch motivierte Lenkung des Verkehrsgeschehens. Seit geraumer Zeit rücken die Potenziale der C2X-Kommunikation aus der theoretischen Forschung hin zur praktischen Erprobung und nähern sich kontinuierlich einer Marktreife an. Kooperative Intelligente Verkehrssysteme (C-ITS) wurden bereits in mehreren urbanen Testfeldern erfolgreich implementiert und getestet. Die Grundidee der Kooperation zwischen der Lichtsignalanlage (LSA) als infrastrukturseitige Einrichtung und dem Fahrzeug inklusive der fahrzeugführenden Person besteht im gegenseitigen Informationsaustausch zur Verbesserung der Qualität des Verkehrsablaufs und zur Erhöhung der Verkehrssicherheit. Infolge der hohen zu erwartenden Potenziale, welche durch Vernetzung erschlossen werden können, hat sich die Bundesrepublik Deutschland mit dem „IVS-Aktionsplan Straße“ zur koordinierten Weiterentwicklung bestehender und zur beschleunigten Einführung neuer Intelligenter Verkehrssysteme in Deutschland bekannt. Da sich das bestehende System der ÖPNV-Priorisierung bereits seit Jahrzehnten bewährt hat, ist ein Umstieg auf ein neues C2X-basiertes System nicht einfach. Umstrukturierungen im Frequenzbereich des Analog-Funks geben in vielen Städten jedoch Anlass für eine Änderung der Bestandssysteme. Die Nutzung der C2X-Kommunikation ermöglicht zum einen die Modernisierung des Datenübertragungssystems und zum anderen ein Optimierungspotenzial für die ÖPNV-Priorisierung sowie weitere Synergien. Ausgehend von einer Bestandsaufnahme zu gegenwärtig genutzten Verfahren zur ÖPNV-Priorisierung (Kapitel 1) und zu ersten C2X-Erprobungsprojekten (Kapitel 2) erfolgt die Ableitung eines Rahmenkonzeptes zur Migration der konventionellen Technik hin zu einer C2X-basierten Priorisierung (Kapitel 3). Die Aspekte der kommunalen Seite – als Anbieter der streckenseitigen Infrastruktureinrichtungen – und der Verkehrsunternehmen – als Betreiber des Öffentlichen Verkehrs – werden speziell betrachtet. Aufbauend auf den Aspekten von Planung, Umsetzung und Betrieb der ÖPNV-Priorisierung sowie der C2X-Nachrichten und Nachrichteninhalte wird ein Leitfaden zum schrittweisen Übergang der Priorisierung vom Status quo hin zur C2X-basierten ÖPNV-Priorisierung vorgestellt. Die C2X-basierte Priorisierung bietet völlig neue Möglichkeiten zur Optimierung der Verkehrssteuerung. Dabei werden in Kapitel 4 die Wechselwirkungen zwischen den unterschiedlichen Verkehrsarten auf der einen Seite sowie die Wechselwirkungen zwischen den verschiedenen C-ITS Services auf der anderen Seite dargestellt. Als Ergebnis des Dokuments werden in Kapitel 5 ein Pilotierungskonzept sowie eine Handlungsempfehlung/Roadmap zur gezielten Umrüstung hin zur C2X-Infrastruktur für die ÖPNV-Priorisierung, wie sie zielführend von Städten/Kommunen sowie Verkehrsunternehmen umgesetzt werden sollte, aufgezeigt. Dabei wird einerseits auf den stufenweisen Ausbau der Hard- und Softwarekomponenten fokussiert und andererseits die zeitliche Komponente der Realisierung thematisiert. Das beispielhafte Pilotierungskonzept berücksichtigt die spezifischen Anforderungen der Städte und Kommunen sowie die Anforderungen und Wünsche der Verkehrsunternehmen an eine ÖPNV-Priorisierung. In einem abschließenden Ausblick wird die Schnelllebigkeit der Informationstechnik als Motivation aufgegriffen, frühzeitig die erforderlichen Entwicklungsschritte anzustoßen.
Veränderungen im Mobilitätsverhalten hin zu einer umweltfreundlichen Fortbewegung führen in der Regel auch zu einer Steigerung der Attraktivität des Radverkehrs. Um diesen Trend zu unterstützen wurde die Frage aufgeworfen, ob und unter welchen Bedingungen Rad Fahrenden das Rechtsabbiegen bei Rot erlaubt werden kann. Der Pilotversuch des erlaubten Rechtsabbiegens von Rad Fahrenden bei Rot durch die Anordnung eines Grünpfeils für Rad Fahrende umfasste 43 Pilotstellen in neun Städten. Die Pilotstellen weisen unterschiedliche Kombinationen der Radverkehrsführung in den betroffenen Zu- und Ausfahrten der untersuchten Knotenpunkte auf. Untersucht wurden sowohl Stellen mit Mischverkehr als auch Stellen mit Radfahrstreifen oder Radwegen in der Zu- und/oder der Ausfahrt. Bei der Auswahl der Pilotstellen wurden die Ausschlusskriterien aus bisher geltenden gesetzlichen Regelungen zur Anordnung des Grünpfeils (VwV-StVO zu § 37 Abs. 2 StVO, Nr. XI) berücksichtigt. Die Untersuchung umfasst eine Darstellung der rechtlichen und entwurfstechnischen Rahmenbedingungen, einen internationalen Vergleich von Pilotversuchen und Regelungen zum Rechtsabbiegen von Rad Fahrenden bei Rot, die Konzeption des Verkehrszeichens, die Typisierung der Infrastruktur an Knotenpunkten, die Auswahl der Pilotstellen und einen Vorher-Nachher-Vergleich zur Evaluation möglicher Veränderungen im Verhalten der betroffenen Verkehrsteilnehmenden. Im Pilotversuch wurden Verkehrsstärken von konfligierenden Rad Fahrenden, Kfz Führenden und zu Fuß Gehenden erhoben und Auswertungen zu Verhaltensweisen wie Rotlichtakzeptanz und Einhaltung der Anhaltepflicht, Wartezeiten, Abbiegegeschwindigkeiten, Interaktionen und Konfliktkenngrößen, Bewegungslinien und eine Analyse des Unfallgeschehens der Pilotstellen für rechtsabbiegende Rad Fahrende durchgeführt. Die Ergebnisse zeigten vor Anbringung der Verkehrszeichen einen hohen Anteil an Rotlicht-Missachtungen rechts abbiegender Rad Fahrender. Nach Anbringung der Zeichen blieb dies dahingehend unverändert, dass ein Großteil der Rad Fahrenden ohne vorheriges Anhalten bei Rot nach rechts abbog. Systematische zusätzliche Behinderungen bzw. Gefährdungen der insgesamt betroffenen Verkehrsteilnehmer konnten nach Anbringung der Zeichen jedoch nicht nachgewiesen werden. Es lässt sich somit schlussfolgern, dass eine Anordnung des Rechtsabbiegens bei Rot für Rad Fahrende an lichtsignalgeregelten Knotenpunkten ohne eine Gefährdung der Verkehrssicherheit grundsätzlich möglich ist. Hierbei ist jedoch in hohem Maße eine Missachtung des Gebots des Anhaltens vor dem Abbiegevorgang bei Rot zu erwarten. Voraussetzung für eine verkehrssichere Umsetzung ist stets die Einhaltung der gemäß Empfehlungen aus dem Pilotversuch zu ergänzenden Kriterien nach VwV-StVO zu § 37 Abs. 2. Nr. XI durch die Straßenverkehrsbehörde.
Um den Substanzwert einer Verkehrsbefestigung in-situ zu bestimmen, wurden im Rahmen dieses Forschungsvorhabens Sensoren entwickelt, die den jeweils aktuellen strukturellen Zustand der Befestigung messen sollen. Als zielführender, leicht zu messender Parameter wurde dabei die Vertikalbeschleunigung gewählt.
Für die Umsetzung wurden verkabelte und autonome Sensoren verwendet. Als Sensortyp wurden MEMS-Sensoren gewählt, da diese vglw. preisgünstig sind und wenig Strom verbrauchen. Durch die verkabelten Sensoren war eine größere Anzahl an Messungen zur Parameterstudie und Validierung des Messverfahrens möglich. Die kabellosen Sensoren stellen Prototypen für spätere Anwendungen dar.
Im Rahmen des Forschungsvorhabens wurden Versuchsfelder errichtet, um die Praxistauglichkeit und die Genauigkeit der Beschleunigungssensoren zu überprüfen sowie den Umgang mit der großen Datenmenge zu erlernen. Bei den ersten Versuchsfeldern (Campus TU-Lichtwiese, BAB 9 bei Feucht) wurden die Beschleunigungssensoren in Ø50mm-Bohrlöcher an bestehenden Befestigungen eingesetzt und verfüllt. Dabei wurde mithilfe von Vorher-Nachher-Messungen mittels Falling Weight Deflectometer (FWD) festgestellt, dass die hervorgerufene Substanzstörung durch den Einbau vernachlässigbar klein ist. Für die Auswertung der gewonnenen Messdaten wurde ein Scilab-Skript geschrieben, welches die Rohdaten aufbereitete und erste Auswertungen ermöglichte. Mehrere Auswertungsansätze wurden dabei verfolgt: z.B. doppelte Integration der Beschleunigung (Vergleich mit FWD-Daten), Inkrementierung von Achszahlen oder Generierung von Achsmustern. Hervorzuheben sind dabei die Vergleiche mit den FWD-Daten, die eine sehr gute Übereinstimmung im Deflexionsverlauf zwischen Beschleunigungssensor und Time History des FWD aufwiesen.
Im Versuchsfeld auf dem Campus TU-Lichtwiese in Darmstadt wurde abschließend die Einbaubarkeit der autonomen Sensoren (Ablegeautomat, Wiederfinden mittels RFID-Antenne) nachgewiesen.
Die im Straßenbau verwendeten Ausgangsstoffe unterliegen hohen Standards, welche in den europäischen Normen bzw. den nationalen Umsetzungen z.B. in der TL Bitumen-StB oder der TL Gestein-StB festgehalten sind. Die Anforderungen der HANV-Schicht an das verwendete Gestein, die das Traggerüst beeinflussen, sind mit den halbstarren Deckschichten bereits hinreichend im M HD optimiert worden. Ebenso wurden die Bindemittel größtenteils aus der Bauweise übernommen. Für Reaktionsharze gibt es kein Regelwerk auf diesem Rechtsniveau, welches die Eigenschaften genau spezifiziert. Dabei steht bei der HANV-Bauweise ausgehend von der volumetrischen Betrachtung dem konventionell verwendeten bitumenhaltigen Bindemittel bzw. Bitumen nur eine sekundäre Aufgabe im viskoelastischen Verhalten zu. Primär wird die Schicht von den Eigenschaften des Verfüllbaustoffes geprägt, eine Vermutung, die bisher nur auf Erfahrungen und nicht auf quantitativen Nachweisen beruht.
Durch Untersuchungen an unterschiedlichen Reaktionsharzen und resultierenden HANV-Systemen konnte der Einfluss der Verfüllbaustoffe im ausgehärteten als auch im aushärtenden Zustand auf die Performanceeigenschaften der Abdichtungsschicht bzw. das Zusammenspiel mit dem Asphalttraggerüst quantifiziert werden.
Dementsprechend können je nach zu erwartender Beanspruchungsart (hohe Verformungen oder mittragender Wirkung) die Verfüllbaustoffe optimiert werden. Dies erlaubt eine nachhaltige Qualität der Abdichtungsschicht auf Stahlbeton und Stahlbrücken.
Das Thema der Radverkehrssicherheit wurde bereits in Forschungsprojekten verschiedener Fachdisziplinen fachspezifisch betrachtet. In diesem Projekt wurde ein interdisziplinärer Ansatz verfolgt, um Radverkehrsunfälle aus Sicht der drei Fachdisziplinen Infrastrukturplanung, Verkehrspsychologie und Fahrzeugtechnik zu analysieren und zu bewerten.
In einer Grundlagenanalyse wurden zunächst wissenschaftliche Erkenntnisse zur Radverkehrssicherheit aus Sicht der drei Fachdisziplinen zusammengetragen. Darauf aufbauend wurden Konstellationen erarbeitet, mit denen eine Fokussierung auf Unfälle ausgewählter Merkmale erfolgen konnte. Es wurden fünf relevante Konstellationen abgeleitet. Diesen konnten aus der Datenbank der German In-Depth Accident Study (GIDAS) insgesamt 1.125 Unfälle der Jahre 2005 bis 2018 zugeordnet werden. Davon wurden 40 ausgewählte Unfälle einer interdisziplinären Betrachtung unterzogen. Im Ergebnis wurde u. a. festgestellt, dass oftmals Wahrnehmungsfehler unfallursächliche Einflussfaktoren sind. Wahrnehmungsfehler sind beim Informationszugang (objektive Verfügbarkeit der notwendigen Informationen) und bei der Informationsaufnahme (aufmerksames Beobachten und Erkennen aller relevanten Informationen) zu finden.
Es wurde eine Anleitung zur interdisziplinären Analyse von Radverkehrsunfällen auf Grundlage eines Phasenmodells der Einflussfaktoren und Randbedingungen entwickelt. In diesem Modell werden den Prozessphasen (Informationsbereitstellung, Informationszugang, -aufnahme, -verarbeitung, Entscheidung, Verhalten und Verhaltensfolge) Einflussfaktoren des Menschen, der Infrastruktur oder des Fahrzeugs auf Radverkehrsunfälle zugeordnet.
Die Analyseanleitung zeigt auf, welche Fragen gestellt werden müssen, um Defizite im Zusammenhang mit Radverkehrsunfällen zu identifizieren und geeignete Handlungsmaßnahmen auszuwählen. Mit einer beispielhaften Darstellung des Analysevorgehens wurde demonstriert, wie für Wirkungszusammenhänge sensibilisiert wird. Die entwickelte Anleitung zur Analyse von Radverkehrsunfällen kann ein anlassbezogenes Verfahren darstellen, das u. a. zum Einsatz kommt, wenn das Unfallgeschehen durch die gängigen Methoden der Verkehrssicherheitsarbeit nicht plausibel erklärbar ist.
Die hohe Bedeutung einer dauerhaften Adhäsion zwischen Bindemittel und Gestein liegt darin begründet, dass die Verdrängung des Bindemittelfilms von der Gesteinskörnung zu irreparablen Schäden mit progressiver Schadensentwicklung führt. In der Literatur finden sich bereits zahlreiche Prüfverfahren zur Quantifizierung der Adhäsion, im Wesentlichen wird jedoch speziell das Haftverhalten in Form von bitumenumhüllter Gesteinskörnung erfasst. Ein hinreichend geeignetes Verfahren zur gezielten Ansprache des Haftverhaltens von Asphalt besteht aktuell nicht. In diesem Forschungsvorhaben wurden vier Prüfverfahren hinsichtlich der Eignung zur Bewertung des Haftverhaltens von Asphalt untersucht. Die mod. Schüttelabrieb-Prüfung, der Stripping-Test im Spurbildungsgerät und der einaxiale Zugversuch ermöglichten unter den betrachteten Randbedingungen keinen zielführenden Ansatz. Es konnte jedoch erfolgreich herausgestellt werden, welchen signifikanten Einfluss die Art der Vorkonditionierung auf das Haftverhalten bewirkt und welche umfassenden Ansätze für eine zielorientierte Quantifizierung notwendig sind. Erste positive Erkenntnisse konnten darüber hinaus durch die Modifizierung der SATS-Prüfung gewonnen werden. Durch eine Veränderung der kombinierten Temperatur- und Druckbeanspruchung, wurde das Verfahren an die nationalen Mischgutkonzepte angepasst. Mit dieser Prüfung wurden 48 Asphaltkonzepte untersucht und abschließend die Auswirkung verschiedener Einflussfaktoren auf das Haftverhalten eruiert. Grundlegend ließ sich eine Abhängigkeit des Steifigkeitsverhältnisses nach der Konditionierung zum Hohlraumgehalt nachweisen, eine Charakterisierung einzelner Einflussparameter konnte jedoch nicht erfolgen. Die reine Druckbeanspruchung ohne Wasser hat darüber hinaus offensichtlich auch einen Einfluss auf die Mikrostrukturen im Prüfkörper. Es handelt sich somit nicht um eine reine Adhäsionsprüfung, sondern um eine kombinierte Prüfung, welche einen weiteren Forschungsbedarf implementiert.
Die Änderung des Arbeitsschutzes, in Form der [Expositionsbeschreibung, 2008], schreibt die Absenkung der Einbautemperaturen von Gussasphalt auf unter 230 °C vor. Eine Möglichkeit zur Verringerung der Einbautemperatur liegt in der Verwendung von viskositätsverändernden Zusätzen. In den [ZTV Asphalt-StB 07/13] wird auf die Notwendigkeit zur Verwendung viskositätsveränderter Bindemittel hingewiesen, ohne dass es hierzu bisher eindeutige Bindemittelspezifikationen gibt. Der Verformungswiderstand erhöht sich durch die Verwendung meist erheblich, sodass zunehmend über eine hinreichende Kälteflexibilität diskutiert wird. Mit diesem Forschungsvorhaben wurden Gussasphalte mit möglichst vielen am Markt vorhandenen viskositätsveränderten Bindemitteln bezüglich ihrer Kälteeigenschaften untersucht. Dafür wurde in einem ersten Schritt die Kälteempfindlichkeit der Bindemittel anhand von drei ausgewählten Prüfverfahren untersucht. Die Asphaltuntersuchungen zur Ansprache des Kälteverhaltens wurden primär mit dem Dreipunkt-Biegezugversuch bei drei Temperaturen durchgeführt. Zur Validierung der Ergebnisse wurden vergleichende Untersuchungen mittels einaxialer Zug- und Abkühlversuche durchgeführt. Eine Abhängigkeit zwischen der Kälteflexibilität der Asphalte und der Bindemittelhärte wurde analysiert. Der Einfluss der granulometrischen Eigenschaften der Gesteinskörnung auf die Kälteflexibilität wurde systematisch geprüft. Hierbei wurden Gesteinsgemischkonzepte festgestellt, die das Kälteverhalten verschlechtern können. Eine Überlagerung der Einflüsse aus den Gemischkomponenten führte erwartungsgemäß zu Gussasphalten mit hoher Kälteempfindlichkeit. Die vergleichende Betrachtung der kälteorientierten Prüfverfahren zeigte einen brauchbaren mathematischen Zusammenhang zwischen dem Verhältniswert QII aus dem Dreipunkt-Biegezugversuch zu der gemessenen Bruchtemperatur im Abkühlversuch. Für den Dreipunkt-Biegezugversuch wurde darüber hinaus eine hohe Messpräzision festgestellt.
Da Polymer-, Gummi-, wachs- und mehrfachmodifizierte Bitumen seit Jahren im Asphaltstraßenbau eigesetzt werden, kommen diese vermehrt im Ausbauasphalt vor. Zur Bewertung des Ausbauasphalts ist es daher notwendig, die Modifizierungen an der Mischanlage zu identifizieren. Die Ausbildung des Bindemittelsacks beim Erweichungspunkt Ring und Kugel ist charakteristisch für die Modifizierung. Hierdurch können wachsmodifizierte Bitumen (WmB) recht präzise und Polymermodifizierten Bitumen (PmB) teilweise identifiziert werden. Mittels Differential Scanning Calorimetry (DSC) werden die Schmelztemperaturen der Wachse erfasst. Hierdurch können WmB identifiziert und die Wachsarten unterschieden werden. Die Analytik mittels Dynamischem Scherrheometer (DSR) startet mit der Bestimmung der Äquisteifigkeitstemperatur EG*T. Bei EG*T werden Frequenz-, Amplituden- und MSCR-Tests durchgeführt. Die Grenze des LVE-Bereichs dient der Identifizierung von WmB. Anhand der Kennwerte bei 0,1 Hz können PmB erkannt werden. Die Rückformung (MSCRT) dient der Identifizierung von Mehrfachmodifizierungen. Da Gummimodifizierte Bitumen (GmB) bei der Extraktion erkannt werden, können alle Modifizierungsarten identifiziert werden. In den FTIR-Spektren (Fourier-Transformations-Infrarotspektroskopie) der modifizierten Bitumen verursachen einige Polymere und Wachse charakteristische Banden, wodurch diese erkannt werden. Die Identifizierung der übrigen Additive erfolgt mithilfe einer multivariaten Auswertung, wodurch mit Ausnahme der GmB (nicht erforderlich) alle Additive erkannt werden. An Stichproben konnte zudem eine Abgrenzung von Mehrfachmodifizierungen sowie eine Abschätzung der Zugabemenge erreicht werden. DSR und FTIR ermöglichen beide eine schnelle, einfache und zielsichere Identifizierung der Bitumenmodifizierungen. Durch die FTIR-Analytik können die Modifizierungen mit der größtmöglichen Präzision bestimmt werden. Die DSR-Analytik erlaubt dafür zusätzlich eine baupraktische Bewertung der Bindemittel.
Die Verkehrsbelastung ist einer der maßgebenden Einflussfaktoren für Straßenkonstruktionen. In diesem Bericht werden detaillierte und aktuelle Achslastverteilungen für die Dimensionierung von Straßenoberbauten zur Verfügung gestellt. Grundlage sind Messdaten der Achslastwaagen im deutschen Autobahnnetz. Diese sind nicht flächendeckend vorhanden. Es wird eine Methode zur flächendeckenden Projektion der Achslastmessstellendaten vorgestellt, die die nahezu flächendeckend vorhandenen Daten der Dauerzählstellen nutzt. Mit dieser Methode können bei vorhandenen Dauerzählstelldaten streckenspezifische Verkehrsbelastungskollektive in Form von B-Zahl und Achslastverteilungen bei semiprobabilistischer bzw. Achslastverteilungsfunktionen für probabilistische Dimensionierungs- und Substanzbewertungsverfahren bereitgestellt werden. Des Weiteren werden repräsentative Achslastverteilungen für Autobahnen des Fern-, Misch- und Nahverkehrs sowie für Straßen des nachgeordneten Netzes vorgestellt.
In Deutschland ist zur Bestimmung der Referenzdichte ungebundener Baustoffgemische der Proctorversuch nach DIN EN 13286-2 [1] festgelegt. Die Laborpraxis hat gezeigt, dass der Proctorversuch für dränierende Baustoffgemische, die für ungebundene Schichten verwendet werden, nicht optimal geeignet ist. Im Forschungsvorhaben FE-Nr. 06.099/2012/EGB [2] wurde die Eignung des Vibrationshammerverfahrens nach DIN EN 13286-4 [3] als alternatives Laborverdichtungsverfahren untersucht und festgehalten, dass dieses Laborverdichtungsverfahren in-situ konform verdichtet und sehr vergleichbare Ergebnisse zum Proctorverfahren unter Verwendung eines festgelegten Wassergehaltes erzielt. Hinzu kommt eine leichtere Handhabung, kostengünstigere Anschaffung und eine Prüfdurchführung, die deutlich weniger zeitintensiv ist. Ein weiterer Vorteil dieses Verdichtungsverfahren ist, dass es wahrscheinlich zu einer geringeren Kornverfeinerung während der Probenverdichtung neigt [4]. Weiterhin wurde festgestellt, dass der optimale Wassergehalt des Vibrationshammerverfahrens etwa 5 bis 10 Prozent unterhalb dem des Standard-Proctorversuches lag [5] und somit etwa dem optimalen Wassergehalt eines modifizierten Proctorversuches (nahezu in-situ konform) entspricht. Seit vielen Jahren wird die Wasserdurchlässigkeit von SoB-Gemischen im Labor mit einer in der DIN 18130-1 [6] beschriebenen Methode bestimmt, bei denen die Wasserdurchlässigkeit im gesättigten Probenzustand ermittelt wird. Während der Herstellung und der Nutzungsphase einer SoB hingegen werden immer ungesättigte Zustände vorliegen, weshalb die Ergebnisse des Laborversuches nach DIN 18130-1 [6], nicht der in-situ Wasserdurchlässigkeit entsprechen. Durch die Entwicklung des Standrohr-Infiltrometerverfahrens nach TP Gestein-StB, Teil 8.3.1 [7], wurde versucht, die in-situ Wasserdurchlässigkeit im Labor besser abzubilden, beispielsweise, indem zum einen Probekörper mit modifizierter Proctorenergie hergestellt werden und zum anderen Wassergehalte während der Probenherstellung zum Einsatz kommen, die unterhalb des optimalen modifizierten Wassergehaltes (0,8 · mod. wPr < w < mod. wPr) liegen. In-situ konforme Prüfbedingungen auf Laborebene sind notwendige Voraussetzungen, um hier Messergebnisse zu generieren, die mit Feldergebnisse vergleichbar sind. Sowohl für die Referenzdichte (Proctordichte) des Verdichtungsgrades, der einen Rückschluss auf die geleistete Verdichtungsarbeit ermöglicht, als auch für die Wasserdurchlässigkeit stehen bis dato Prüfmethoden im Labor zur Verfügung, die aufgrund ihrer Verfahrensparameter nicht den Feldbedingungen entsprechen und häufig nicht vergleichbare Ergebnisse liefern. Entsprechend ist es notwendig mit performance orientierten Prüfverfahren diesen Umstand zu optimieren. Bzgl. der Verdichtung von ungebundenen Baustoffgemischen bietet sich womöglich das Verdichtungsverfahren nach DIN EN 13286-4 [3] als zukunftsweisendes Laborprüfverfahren an, das nach ersten Erkenntnissen besser zur Verdichtung von ungebundenen Gemischen geeignet ist. Zur Weiterentwicklung des Kenntnisstandes zum Vibrationshammer war zu untersuchen, welchen Einfluss die Verwendung eines Vibrationshammers auf die Kornzertrümmerung hat und wie eine Probenherstellung im Verdichtungstopf C (250 mm) mittels Vibrationshammer zur Messung des Infiltrationsbei-wertes ki(10) erfolgen kann, da dies bis dato nicht in der DIN EN 13286-4 [3] beschrieben wird. Ergänzend sollten diese beiden Aspekte auch unter Verwendung unterschiedlicher Vibrationshämmer mit unterschiedlicher Schlagenergie untersucht und bewertet werden. Zu Beginn des Forschungsvorhabens wurde eine Literaturstudie durchgeführt, über die dargelegt werden konnte, dass die Fragestellungen des Forschungsvorhabens bzgl. der Kornzertrümmerung und Verdichtung von Baustoffen im Verdichtungstopf C unter Verwendung eines Vibrationshammers teils, wenn auch thematisch anders gelagert, behandelt wurden und gute Ansätze für das weitere Vorgehen innerhalb des vorliegenden Forschungsprojektes lieferten. Primäre Elemente dabei waren die Verdichtung in einem elf inch (279 mm) Probentopf mittels Vibrationshammer nach DRENEVICH, EVANS und PROCHASKA [15] und der Verfeinerungsgrad nach SCHREIBER [25]. Entsprechend wurden diese Ansätze in das Forschungsvorhaben integriert, um die Eignung des Vibrationshammerverfahrens als zukunftsorientiertes Laborverdichtungsverfahren von ungebundenen Gemischen weiter zu belegen. In das Forschungsvorhaben wurden vierzehn ungebundene Baustoffgemische eingebunden, an denen eine Materialcharakterisierung durchgeführt wurde. Aus dieser ging hervor, dass die Baustoffgemische anforderungsgerechte Eigenschaften entsprechend dem nationalen Regelwerk aufwiesen und aufgrund ihrer variablen technischen Bandbreite als charakteristische Stellvertreter handelsüblicher Baustoffgemische eingestuft werden konnten. Erste Laborversuche zur Fragestellung der erzielbaren Trockendichten durch Proctorverdichter und Vibrationshammer und zur Kornzertrümmerung erfolgten an 0/32 mm Korngemischen ohne Überkorn. Über diese Versuche konnte gezeigt werden, dass der Einsatz eines Vibrationshammers mit einer Schlagenergie von 8,3 Joule zu einer leichten Trockendichtezunahme (2 bis 15 %) für rezyklierte und industrielle Baustoffgemische im Vergleich zum Proctorergebnis führte und sich eine Ergebniszunahme unter Verwendung eines Vibrationshammers mit nahezu doppelter Schlagenergie (16,8 Joule) für alle untersuchten Baustoffgemische einstellte (natürliche Baustoffgemische: 2 bis 7 %, rezyklierte und industrielle Baustoffgemische: 16 bis 31 %). Bzgl. der bestimmten optimalen Wassergehalte zeigten rezyklierte und industrielle Baustoffgemische unter Einsatz eines Vibrationshammers tendenziell eine leichte Reduktion und natürliche Gesteinskörnungen einen nahezu gleichen Ergebniswert wie beim Proctorverfahren. Im Folgenden wurde die im FE-Nr.06.0099/2012/EGB [2] aufgestellte These, dass Baustoffgemische mit einem festgelegten Wassergehalt von 3 M.-% bzw. 5 M.-% verdichtet werden können und dennoch gleichwertige Trockendichten, wie bei einer Verdichtung mit einem optimalen Wassergehalt, erzielen, überprüft. Vorteil bei dieser Vorgehensweise wäre für viele Baustoffgemische die Vermeidung einer Wasserdränage während des Verdichtungsversuches und eine Reduktion der Einzelprobenanzahl. Zwischen der Vorgehensweise einer Verdichtung mit optimalen Wassergehalt und eines festgelegten Wassergehaltes konnten sowohl für das Proctorverfahren als auch für das Vibrationshammerverfahren Korrelationskoeffizienten minimal kleiner 1 bestimmt werden. Die Trockendichtekorrelationen zwischen den Vibrationshammerergebnissen (fester Wassergehalt) und den Proctorergebnissen (optimaler Wassergehalt) ergaben Korrelationskoeffizienten oberhalb von 0,8. Bei der Verwendung eines festgelegten Wassergehaltes für das Vibrationshammerverfahren wurde eine Ergebniszunahme bei der Trockendichte von gemittelt ca. 6,5 % (Vibrationshammervariante A mit 8,3 Joule) bzw. ca. 11,5 % (Vibrationshammervariante B mit 16,8 Joule) festgestellt. Anhand von Siebanalysen, die nach der Probenherstellung mittels Vibrationshammervariante A durchgeführt wurden, konnte gezeigt werden, dass ein festgelegter Wassergehalt zu einer vermehrten Kornzertrümmerung für industrielle und RC-Baustoffgemische, im Vergleich zu einer Verdichtung mit einem optimalen Wassergehalt, führt. Für die untersuchten natürlichen Baustoffgemische stellte sich eher ein konstantes bis gegenläufiges Ergebnisbild bzgl. der Kornzertrümmerung ein. Beim Einsatz der Vibrationshammervariante B mit einer Schlagenergie von 16,8 Joule wurde nahezu durchweg eine stärkere Zunahme der Kornzertrümmerung unter Verwendung eines festgelegten Wassergehaltes belegt. Abschließend wurde untersucht, wie eine Baustoffgemischverdichtung mit einem Vibrationshammer in einem 250 mm Verdichtungstopf durchgeführt werden kann, welche Trockendichten erzielt werden, welche Kornzertrümmerung dabei auftritt, welche Infiltrationsbeiwerte ki(10) mit derart hergestellten Probekörpern erzielt werden und ob die potenziell auftretende Kornzertrümmerung evtl. einen Einfluss auf den Infiltrationsbeiwert hat. Die Ergebnisse der dazu durchgeführten Untersuchungen wurden im Vergleich zu Proctorversuchen bewertet. Die Trockendichten der für die Infiltrationsmessungen hergestellten Probekörper zeigten, auf das jeweilige Verdichtungsverfahren und ungebundene Baustoffgemisch bezogen, sehr geringe Standardabweichungen. Entsprechend lieferten die Verdichtungsverfahren reproduzierbare Trockendichten. Für das Vorgehen mittels Proctorverfahren konnte eine Trockendichtezunahme zwischen ca. 4 und 25 % (im Mittel ca. 12 %) beim Wechsel von Verdichtungstopf B (Ø 150 mm) zu C (Ø 250 mm) bestimmt werden, wobei hierbei beachtet werden muss, dass die Probeherstellung im Verdichtungstopf C mit modifizierter Proctorenergie erfolgte. Eine ähnliche Tendenz zeigte sich beim Wechsel von Verdichtungstopf B zu Verdichtungstopf C unter Einsatz des Vibrationshammers A mit 8,3 Joule Schlagenergie. Hier lag die Ergebniszunahme bzgl. der Trockendichte zwischen ca. 2 und 14 % (im Mittel bei ca. 6 %). Konträr dazu zeigte sich das Ergebnisbild durch den Wechsel von Verdichtungstopf B zu Verdichtungstopf C unter Verwendung des Vibrationshammers B mit 16,8 Joule Schlagenergie. Hier kam es zu einer Abnahme der Trockendichteergebnisse zwischen ca. 1 und 7 % (im Mittel bei ca. 4 %). Die mit dem Proctor- bzw. Vibrationshammer hergestellten Probekörper zeigten überwiegend einen Infilrationsbeiwert oberhalb, zum Teil weit oberhalb, von 10-6 m/s. Da die Ergebnisschwankungen der Infiltrationsresultate, die mit Proctor- bzw Vibrationshämmern hergestellt wurden, relativ gering ausfielen, konnte mit Ausnahme weniger Messwerte kein verdichtungsverfahrensabhängiger Einfluss auf das Infiltrationsergebnis aufgezeigt werden. Ergänzend wurden auch Siebanalysen nach der Probenherstellung zur Bestimmung der auftretenden Kornzertrümmerung vorgenommen, die die folgenden Interpretationen zu-ließen. Das modifizierte Proctorverfahren bedingt während der Probekörperherstellung im 250 mm Verdichtungstopf C den größten und der Vibrationshammer A mit einer Schlagenergie von 8,3 Joule den geringsten Einfuss auf die Kornzertrümmerung. Verfahrensunabhängig zeigten industrielle und RC-Baustoffgemische eine größere Tendenz zur Kornzertrümmerung als natürliche Baustoffgemische. Anhand der Nachsiebungen bzw. berechneten Verfeinerungsgrade konnte kein direkter mathematischer Zusammenhang zwischen An- oder Abstieg des Infiltrationsbeiwertes und An- oder Abstieg an Kornzertrümmerung nachgewiesen werden. Das Forschungsvorhaben konnte weiterführend die Eignung des Vibrationshammerverfahrens als Alternative zum Proctorverfahren aufzeigen und ermöglichte die Abfassung eines Entwurfs einer TP Gestein-StB zur Herstellung von Prüfkörpern mit einem Vibrationshammer für Infiltrationsversuche im 250 mm Verdichtungstopf. Auch die These einer Verdichtung mit einem festgelegten Wassergehalt konnte weiter ausgebaut werden. Damit verbunden sind eine leichte Zunahme an Trockendichte und Kornzertrümmerung. Infiltrationsversuche an Proben, die mit ähnlichen Wassergehalten hergestellt wurden und eine ähnliche Kornzertrümmerung aufwiesen, zeigten jedoch, dass die Kornzertrümmerung keinen Einfluss auf den Infiltrationsbeiwert der untersuchten Proben hatte.
Im Pkw-Sektor wird bereits eine Vielzahl sicherheitsrelevanter Forschungsfragen mit Hilfe von Fahrsimulatoren untersucht. Zudem liegen viele Studien zur Übertragbarkeit der in Simulatoren gewonnenen Erkenntnisse auf den realen Straßenverkehr vor. Im Vergleich dazu befindet sich der Einsatz der Motorradsimulation in einem sehr frühen Stadium. Die langjährigen Erfahrungen im Pkw-Sektor zeigen, dass Fahrsimulatoren einen wesentlichen Beitrag zur Verkehrssicherheit leisten können. Dieses Potenzial gilt es für Motorradsimulatoren ebenfalls zu überprüfen. Motorradsimulatoren – insbesondere mit einem komplexen technischen Aufbau für Forschungs- und Entwicklungsfragestellungen – wurden bislang nur in sehr wenigen Forschungseinrichtungen aufgebaut. Wissenschaftliche Studien zur Anwendbarkeit bzw. Übertragbarkeit der mit Motorradsimulatoren erzielten Ergebnisse liegen kaum vor. Darüber hinaus ist nicht geklärt, welche Ausbaustufen der Motorradsimulation für die Beantwortung spezifischer Fragestellungen hinreichend oder notwendig sind. Dies stellt insbesondere vor dem Hintergrund der hohen Zahl schwerer und tödlicher Unfälle von Motorradfahren ein erhebliches Defizit dar (DESTATIS; 2020a). Die Durchführung sicherheitsrelevanter Studien an Motorradsimulatoren könnte – wie im Pkw-Bereich auch – als wichtiges Werkzeug zur gefahrlosen und effizienten Untersuchung z.B. von eingreifenden Assistenzsystemen wie automatischen Notbrems- oder Ausweichsystemen beitragen, oder als gefahrenfreies Werkzeug für Fahrtrainings genutzt werden und damit einen positiven Effekt auf die Sicherheit von Motorradfahrern haben. Um sich diesem Ziel zu nähern, müssen jedoch Erkenntnisse hinsichtlich der Eignung von Motorradsimulatoren vorliegen. Entsprechend verfolgt das vorliegende Projekt zwei Ziele: Erstens sollen Erkenntnisse über Einsatzmöglichkeiten von Motorradsimulatoren unterschiedlicher Ausbaustufen generiert werden. Daraus soll eine Entscheidungshilfe erarbeitet werden, die Anwendern aufzeigt, bei welcher Art von Fragestellung Motorradsimulatoren (in unterschiedlichen Ausbaustufen) eingesetzt werden können. Zweitens soll im Rahmen des Projekts eine Methodik zur Validierung von Motorradsimulatoren entwickelt werden, die mit einer definierten Anzahl an Untersuchungen Aussagen hinsichtlich der Validität für die im ersten Teil ermittelten Einsatzmöglichkeiten erlauben soll. Kern der entwickelten Methodik ist die Annahme, dass sich komplexe Fahraufgaben in kleinere, fahrhandlungsunterscheidende Einheiten, die sogenannten Minimalszenarien, unterteilen lassen. Hierbei handelt es sich um Aufgaben wie beispielsweise Anfahren aus dem Stand, Einleiten einer Kurve mit konstanter Geschwindigkeit oder Bremsung in den Stand. Des Weiteren wird angenommen, dass sich Minimalszenarien im Nachgang zu komplexen Fahraufgaben zusammenführen lassen. Hierdurch soll die Vielzahl möglicher Anwendungsfelder auf den kleinsten Satz gemeinsamer elementarer Aufgaben gebracht werden, um den Validierungsaufwand zu reduzieren. Um neben dem Vergleich zwischen Realfahrzeug und Motorradsimulation eine erste Abschätzung hinsichtlich der benötigten Ausbaustufe eines Simulators treffen zu können, wurde die Untersuchung mit einem Messmotorrad des Typs Honda NC 700 X, dem dynamischen „DESMORI“ Motorradsimulator und dem statischen Motorradsimulator der WIVW GmbH durchgeführt und die Ergebnisse miteinander verglichen. Zur umfassenden Betrachtung wurden neben fahrdynamischen Parametern Kenngrößen zum Fahrerverhalten sowie der messbaren und subjektiv erlebten Beanspruchung einbezogen. Auf Basis einer großen Anzahl potenzieller Anwendungsfelder wurden Minimalszenarien abgeleitet, die eine Beschreibung dieser zulassen. Mit einer Teilauswahl der relevantesten Minimalszenarien wurde eine Verifikationsstudie mit N = 6 Fahrern durchgeführt, in der Sequenzen (Aneinanderreihungen von Minimalszenarien) in unterschiedlichen Dynamikabstufungen untersucht wurden. Im Rahmen der Verifikationsstudie konnten anhand der unterschiedlichen Minimalszenarien stabile Eigenschaften der Simulatoren beobachtet werden, die sich auf Ebene von Geschwindigkeitseffekten, Stabilitätseffekten und Effekten auf Ebene der Regelung und Beanspruchung beschreiben lassen. Insgesamt zeigten sich Indizien für größere Potenziale des dynamischen Simulators für Fragestellungen, die eine Rückmeldung des „Fahrgefühls“ erfordern, wohin eine bessere Eignung des statischen Simulators für Fragestellungen indiziert ist, die ein Beanspruchungsniveau erfordern, wie es in der Realfahrt vorliegt. In einer anschließenden Probandenstudie mit N = 15 Normalfahrern wurde untersucht, inwiefern die in den Minimalszenarien beobachtbaren Fahreigenschaften der Simulatoren auch in dynamischeren Fahrsituationen auftreten. Zu diesem Zweck wurden die Minimalszenarien zu komplexen Fahraufgaben zusammengeführt. Dabei wurde der sogenannte Rapid Serial Visual Presentation Task (RSVP), ein Ausweich- bzw. Ausweich-Brems-Manöver und eine Fahrt im öffentlichen Straßenverkehr untersucht. Hierbei konnten die generellen Eigenschaften der zwei Simulatoren bzw. des Messmotorrads aus der Verifikationsstudie repliziert werden. Mit dem vorliegenden Projekt konnten erste Anwendungserfahrungen für eine neuartige Validierungsmethodik für Fahrsimulatoren gesammelt und dokumentiert werden. Darüber hinaus wurde auf Basis der gewonnenen Daten eine Entscheidungshilfe entwickelt, die Anwender dabei unterstützt in Abhängigkeit von der vorliegenden Fragestellung die richtige Versuchsumgebung auszuwählen.
Schräglagenangst
(2021)
Ziel des Projektes FE 82.0710/2018 „Schräglagen¬angst“, bearbeitet durch das Fachgebiet Fahrzeugtechnik (FZD) der Technischen Universität Darmstadt (TUDA), das Würzburger Institut für Verkehrswissenschaften GmbH (WIVW) und Auto Mobil Forschung Dresden GmbH (AMFD), ist die Analyse gefahrener Schräglagen von Motorradfahrenden. Hierbei werden sowohl Alltags- wie auch Gefahrensituationen eines möglichst breiten Fahrendenkollektivs untersucht.
Zum einen soll projektseitig untersucht werden, ob ein schräglagenängstlicher Fahrendentyp existiert, der unabhängig von der Fahrsituation ein Überschreiten einer Rollwinkelschwelle vermeidet. Dieses Verhalten kann zu gefährlichen Situationen aufgrund zu hoher Kurvengeschwindigkeiten führen, obwohl diese durch größere Schräglagen vermieden werden könnten. Zum anderen soll in dem Projekt das Fahrendenverhalten bei situationsbedingtem Nichtausnutzen des möglichen Schräglagen¬potenzials analysiert werden.
Im Rahmen dessen werden Methodiken zur Ermittlung des Fahrendenverhaltens in schräglagenängstlichen Situationen sowie zur Ermittlung eines schräglagenängstlichen Fahrendentyps entwickelt. Dazu gehören die Auslegung pseudo-kritischer Manöver zur Untersuchung des Fahrendenverhaltens im Teststreckenversuch sowie ein Fragebogen zur Ermittlung schräglagenängstlicher Fahrendentypen.
Ein weiteres Ziel dieses Projekts ist die breite Erfassung gefahrener Schräglagen von Motorradfahrenden im Straßenverkehr. Insgesamt werden drei verschiedene Messtechnikkonzepte umgesetzt. Das erste basiert auf einem Messmotorrad für Probandenfahrten im Straßenverkehr. Das zweite auf einer Smartphone-Application (App), die im Rahmen des Projekts entwickelt wurde. Bei der Smartphone-Application wird dabei auf die im Smartphone integrierten Sensoren zurückgegriffen. Das dritte Konzept zielt auf eine Stationärmesstechnik, die für einen Zeitraum von mindestens einem Tag oder länger in Kurvenbereichen aufgestellt werden kann, um dort ein möglichst großes Fahrendenkollektiv beobachten zu können, wenn auch mit Einbußen bei den Kenntnissen über den jeweiligen Fahren¬dentyp bzw. das individuelle Fahrkönnen.
Im nächsten Schritt wird auf die Umsetzung der erarbeiteten Konzepte in Fahrversuchen eingegangen. Hier werden zwei verschiedene vordefinierte Streckenabschnitte im Dresdener Umkreis und in der Nähe von Würzburg beschrieben. Zudem wird die Umsetzung der pseudokritischen Manöver bei Teststreckenversuchen in Darmstadt dargelegt.
Im Rahmen der Fahrstudien in Würzburg und Dresden konnte aufgezeigt werden, dass sich im Alltag 75 % aller gefahrenen Schräglagen unter einem Schwellwert von 25° befinden. Hierbei weisen Fahrende mit höherer berichteter Schräglagenangst durchschnittlich geringere maximale Rollwinkel und Rollwinkelspektra auf. Weiterhin konnten erste alters- und fahrleistungsbedingte Abhängigkeiten der Schräglagen beobachtet werden.
In den Fahrversuchen auf abgesperrtem Gelände konnte eine Eignung der Manöver zur Untersuchung von Schräglagenangst-Phänomenen bestätigt werden. Eine allgemein gültige Reaktion auf eine bestimmte Situation konnte nicht nachgewiesen werden. Die Reaktionen sind sehr individuell und abhängig von dem sonstigen Fahrstil. Das plötzliche Auftauchen eines Hindernisses in einer nicht einsehbaren Kurve zeigte bei den meisten Fahrenden starke Reaktionen im Fahrverhalten.
Zusammenfassend wird innerhalb des Projekts die Hypothese der Existenz einer Schräglagenschwelle bestätigt. Diese ist jedoch nicht wie ursprünglich vermutet auf einen bestimmten Rollwinkelwert fixiert, sondern vielmehr eine persönliche und individuelle Schwelle. Sie wird weder in Normalsituatio¬nen noch in Schrecksituationen unterschritten, aber auch nicht deutlich überschritten. Dies bedeutet, dass bei der Notwendigkeit eines größeren Rollwinkels als des persönlich Maximalen ein Verlassen des eigenen Fahrstreifens und ein Unfall droht.
Hier wird als mögliche Weiterarbeit eine flächendeckende Studie zur Untersuchung der Steigerungs-möglichkeiten der eigenen Schräglagenschwelle empfohlen. Dies könnte zum Beispiel mit neuartigen Trainingskonzepten möglich sein.
Ziel des Forschungsvorhabens war die Herstellung von „Nanoasphalt“ aus mit polymerbeschichteten, plättchenförmigen Nanopartikeln dotierten Bitumenbindemitteln und die Untersuchung des Alterungsverhaltens der neuen Materialklasse.
Theoretische Voruntersuchungen zeigten, dass statistisch im Volumen verteilte, mplättchenförmige Partikel mit Aspekverhältnissn D/H > 100 als effektive Diffusionsbarrieren wirken und sowohl die oxidative Alterung als auch den Verlust weichmachender Bestandteile aus Bitumenbindemitteln um den Faktor 2 - 3 verlangsamen können.
Es wurde eine lösemittelfreie Synthese für Alkyl-Quat-Primer-Polymere entwickelt und ein Verfahren ausgearbeitet, um Natrium-Montmorillonit (NaMMT) in einem einstufigen Verfahren zu exfoliieren und die entstehenden Silikatblättchen mit den Polymeren zu beschichten. Hochverzweigte Polymere auf Basis von Polyethylenimin mit einem Quarternisierungsgrad von ca. 5 mol% und einem Alkylierungsgrad von 80 mol% unter Verwendung von C12-Substituenten adsorbieren irreversibel auf Montmorrilonit und wirken zugleich als Dispergiermittel. Es konnten Nanopartikel-Bitumen-Komposite (NPBK) hergestellt werden, die bis zu 10 M.-% Nanopartikel mit Dicken von 10-50 nm und Durchmessern von ca. 1-10 μm enthielten. Zur Herstellung eines Demonstrators wurden die Synthesen in den Halbtechnikumsmaßstab hochskaliert (11 kg Polymer → 22 kg modifizierte Nanopartikel → 440 kg Nano-Bitumen → 6.200 kg Nano-Asphalt).
Die Einmischung der Nanopartikel in das Bitumen erfolgte einmal mit dem bereits in der Pilotstudie eingesetzten Schnecken-Extruder und mit Blick auf eine spätere Hochskalierung des Herstellungsprozesses mittels Hochschermischer. Die auf diese Weise hergestellten NPBKs wurden in unterschiedlichen Alterungsstufen (frisch, kurz- und langzeitgealtert) anhand von konventionellen und rheologischen Prüfungen beurteilt.
Mit ausgewählten NPBK-Varianten wurden auf Laborebene Asphalte hergestellt, die ebenfalls umfangreichen Testreihen unterzogen wurden. Den Projektabschluss bildete die großmaßstäbliche Mischgutherstellung in einer Asphaltmischanlage sowie das Anlegen und Beproben einer Demonstratorfläche.