Wie funktioniert autonomes Fahren und was steckt technisch dahinter? Genau dieser Frage widmete sich ein zwei Tages Workshop an der it.schule Stuttgart, der im Rahmen von CARS 2.0 initiiert wurde. Geleitet wurde der Workshop von Alexander Kolbai, von Autonomous Connected Advisory (eXXternity), der den Teilnehmenden nicht nur die Theorie näherbrachte, sondern ihnen vor allem zeigte, wie autonome Systeme in der Praxis funktionieren.
Der Workshop begann zunächst mit einer Einführung in die Grundlagen des autonomen Fahrens. Dabei erhielten die Teilnehmenden einen Überblick darüber, wie autonome Fahrzeuge ihre Umgebung erfassen, welche Rolle Sensoren, Kameras und Software spielen und wie künstliche Intelligenz (KI) Entscheidungen in Echtzeit trifft, um das Fahrzeug sicher durch den Verkehr von A nach B zu führen.
Auf diese Weise wurde Allen deutlich, wie komplex das Zusammenspiel von Hardware, Software, Daten und KI in autonomen Systemen ist und wie sicher es sein muss, dass es zu keinem Fehlverhalten des Fahrzeugs kommt. Den Teilnehmenden half dabei, dass sie die Grundlagen zu Computersystemen, Bildverarbeitung und neuronalen Netzen bereits aus dem Unterricht kannten.
Auch praktisch hatten sich die Teilnehmenden bereits vorbereitet. Im Vorfeld beschäftigten sie sich intensiv mit dem Aufbau der Modellfahrzeuge. Als Basis diente das Chassis eines RC-Fahrzeugs im Maßstab 1:10, das mit einem NVIDIA-Jetson-Board (Jetson Orin Nano), einer Kamera sowie einem Controller zur Steuerung ausgestattet war. Als Software kam eine Open-Source-Plattform für autonomes Fahren zum Einsatz.
Die Kombination aus Kamera, der auf dem Jetson-System laufenden Software und den trainierten KI-Modellen ermöglicht es dem Fahrzeug, nach dem Training eine vorgegebene Strecke selbstständig zu fahren. Mithilfe eines Lane-Keeping-Algorithmus und der Objekterkennung kann das Fahrzeug der Strecke folgen und Hindernissen ausweichen.

Nach der Einführung folgte der praktische Hauptteil des Workshops
Die Teilnehmenden arbeiteten in drei Teams mit ihren Modellfahrzeugen und steuerten diese zunächst manuell über die abgeklebte Übungsstrecke. Dabei wurden fortlaufend Trainingsdaten gesammelt. Jede gefahrene Runde lieferte Kamerabilder sowie Fahrinformationen wie Lenk- und Geschwindigkeitsdaten, die anschließend für das Training durch die KI verwendet wurden. Da ein zuverlässiges System eine große Datenmenge benötigt, wurden für einen Trainingslauf etwa 7.000 bis 10.000 Bilder aufgenommen – auf der aufgebauten Strecke entsprach dies rund 25 gefahrenen Runden.
Nachdem genügend Daten gesammelt waren, begann der spannendste Teil: das Training des Modells. Schritt für Schritt werteten die Teams ihre Daten aus und trainierten die neuronalen Netze ihrer Fahrzeuge. Dann kam der Moment, auf den alle gewartet hatten: Die Autos wurden in den autonomen Modus geschaltet. Und tatsächlich – die kleinen Fahrzeuge fanden selbstständig ihren Weg über den Parcours. Natürlich lief nicht alles perfekt. Manchmal kam ein Fahrzeug von der Strecke ab oder reagierte unerwartet. Doch genau diese Momente machten den Workshop besonders lehrreich. Die Teilnehmenden konnten direkt sehen, wie wichtig gute Trainingsdaten, gute und robuste Rechenmodelle und eine iterative Model Verbesserungen sind.
Am Ende blieb vor allem eines: Begeisterung. Für viele der Teilnehmenden war es das erste Mal, dass sie KI nicht nur theoretisch verstanden, sondern tatsächlich in Aktion erlebt haben. Der Workshop zeigte eindrucksvoll, wie aus abstrakten Konzepten greifbare Technologie wird – und wie spannend es sein kann, selbst daran zu arbeiten.





