Entwicklung und Bewertung einer Reihenfolgestrategie zur Leistungsverbesserung von Shuttle-Systemen mit Deep Reinforcement Learning
Seiten
Um die Leistung von Shuttle-Systemen zu verbessern, existieren verschiedene Ansätze. In dieser Arbeit wird der Einsatz des Deep Reinforcement Learning (DRL) zur Bildung der Fahrauftragsreihenfolge untersucht. Die Zielsetzung ist der Erhalt des konzeptionellen Beweises, dass durch den Einsatz eines DRL-Agenten, der auf die Minimierung der Gesamtauftragsdurchlaufzeit trainiert wird, eine Leistungsverbesserung erreicht werden kann.
Hierfür wird zunächst anhand einer qualitativen Inhaltsanalyse die Forschungslücke in diesem Bereich aufgezeigt sowie dargelegt, dass das DRL, basierend auf der unterliegenden Theorie, für den Anwendungsfall geeignet ist.
Als Trainings- und Testumgebung wird ein Simulationsmodell einer Ebene eines ebenengebundenen Systems erstellt, das hinsichtlich der Anzahl an Gassen, der Gassenlänge und der Anzahl an Shuttles konfiguriert werden kann. Auf Seiten des DRL wird der Deep Q Learning Agent, basierend auf der Keras-RL Bibliothek, genutzt. Es erfolgen die Entwicklung des Zustands- und des Aktionsraumes sowie der Belohnungsfunktion.
Um den Agenten zu testen und die Durchführbarkeit aufzuzeigen, werden 20 Testszenarien basierend auf drei verschiedenen Lagerkonfigurationen mit zwei und drei Fahrzeugen definiert.
Insgesamt wird in 17 der 20 Szenarien ein erfolgreiches Lernen des Agenten und damit eine Leistungssteigerung des Systems erzielt.
Hierfür wird zunächst anhand einer qualitativen Inhaltsanalyse die Forschungslücke in diesem Bereich aufgezeigt sowie dargelegt, dass das DRL, basierend auf der unterliegenden Theorie, für den Anwendungsfall geeignet ist.
Als Trainings- und Testumgebung wird ein Simulationsmodell einer Ebene eines ebenengebundenen Systems erstellt, das hinsichtlich der Anzahl an Gassen, der Gassenlänge und der Anzahl an Shuttles konfiguriert werden kann. Auf Seiten des DRL wird der Deep Q Learning Agent, basierend auf der Keras-RL Bibliothek, genutzt. Es erfolgen die Entwicklung des Zustands- und des Aktionsraumes sowie der Belohnungsfunktion.
Um den Agenten zu testen und die Durchführbarkeit aufzuzeigen, werden 20 Testszenarien basierend auf drei verschiedenen Lagerkonfigurationen mit zwei und drei Fahrzeugen definiert.
Insgesamt wird in 17 der 20 Szenarien ein erfolgreiches Lernen des Agenten und damit eine Leistungssteigerung des Systems erzielt.
Erscheinungsdatum | 02.09.2022 |
---|---|
Reihe/Serie | Berichte aus der Logistik |
Verlagsort | Düren |
Sprache | deutsch |
Maße | 148 x 210 mm |
Gewicht | 251 g |
Themenwelt | Wirtschaft ► Betriebswirtschaft / Management ► Logistik / Produktion |
Schlagworte | Auftragsreihenfolge • Deep Reinforcement Learning • Lagersystem |
ISBN-10 | 3-8440-8720-6 / 3844087206 |
ISBN-13 | 978-3-8440-8720-8 / 9783844087208 |
Zustand | Neuware |
Haben Sie eine Frage zum Produkt? |
Mehr entdecken
aus dem Bereich
aus dem Bereich
Grundlagen - Spezialthemen - Übungen
Buch | Softcover (2022)
Springer Gabler (Verlag)
CHF 55,95