Startseite HAZ
Volltextsuche über das Angebot:

Gesteuert wie von Geisterhand

Ethik für selbstfahrende Autos Gesteuert wie von Geisterhand

In 15 Jahren werden selbstfahrende Autos auf den Straßen wohl einfach dazugehören. Aber: Auch Roboter kommen in Situationen, die für Menschen lebensbedrohlich sind. Forscher bringen den rollenden Maschinen deshalb das Entscheiden im Notfall bei. Kann ein Computer einen moralischen Kompass haben?

San Francisco 37.7749295 -122.4194155
Google Map of 37.7749295,-122.4194155
San Francisco Mehr Infos
Nächster Artikel
Wir bleiben in Bewegung

Freie Fahrt für Freigeister: Die Animation zeigt eine Autobahn der Zukunft, mit Extrafahrstreifen für computergelenkte Personen- und Lastwagen.

Quelle: Xoio im Auftrag der Daimler AG

San Francisco . Chris Gerdes denkt viel nach über Computer auf vier Rädern. Also über selbstfahrende Autos. Sogar dann, wenn er mit seinem Rennrad über die Hügel von San Francisco kurvt. Neulich hatte er dabei wieder so einen Geistesblitz: Die Autos, die ihn überholten, wichen großzügig aus, sie überfuhren die doppelt durchgezogene, gelbe Mittellinie. Würde ein selbstfahrendes Auto das auch tun, fragte er sich. Die kalifornische Straßenverkehrsordnung verbietet das Kreuzen der Mittellinie. Das Computerhirn im Fahrzeug würde sich wohl an die Regeln halten. Und das ist nicht gut.

“Wir haben hier ein menschliches Verhalten, das gesellschaftlich sogar erwartet wird: Platz machen für Fahrradfahrer. Legal ist dieses Verhalten aber eigentlich nicht“, sagt Gerdes. “Wie bringen wir nun einen solchen erwünschten Regelbruch dem autonomen Auto der Zukunft bei? Und hat die Mittellinie für ein Roboterfahrzeug überhaupt noch Sinn?“

Der Professor an der Elite-Universität Stanford geht davon aus, dass ein autonomes Auto die Situation viel besser einschätzen kann als jeder Mensch. Der Wagen beobachtet die Umwelt mit seinen Sensoren und Kameras. Das Auto wird den Radfahrer also sowieso nur überholen, wenn ihm nichts entgegenkommt. Und es wird dem Radler so viel Raum wie möglich geben. Für Autos, die ohne Fahrer auskommen, werden Fahrbahnmarkierungen in Zukunft also womöglich ihre Bedeutung verlieren.

“Wir werden nie ein perfektes System bauen“

Gerdes forscht in der US-Technologiehochburg, im Silicon Valley, zu selbstfahrenden Autos. Er berät die kalifornische Straßenbehörde DMV und die Industrie. Inzwischen hören, wie er erzählt, auch deutsche Autobauer wie Mercedes-Benz und Zulieferer wie Bosch auf seinen Rat. Mit Doktoranden steht er regelmäßig an einer Teststrecke. Gerade untersuchen sie, wie Shelley, ein umgerüsteter Forschungs-Audi mit unerwarteten Situationen umgeht. Zum Beispiel damit, dass hinter jedem am Straßenrand parkenden Auto plötzlich ein Fußgänger, ein Kind, hervorlaufen kann.

Wie können die Hersteller selbstfahrende Autos darauf vorbereiten? Wie programmiert man eine “Hab-Acht-Stellung“ ins Fahrzeug? “Wir werden nie ein perfektes System bauen“, räumt Gerdes ein. “Aber wir müssen versuchen, es so sicher wie möglich zu machen.“

Bei der mühsamen Kleinarbeit an der Schaltzentrale der Zukunftsautos stellen sich die Forscher viele Fragen – manchmal sehr praktische, manchmal exotische. So bekam Gerdes vor einiger Zeit eine E-Mail von Patrick Lin, einem Philosophieprofessor in San Luis Obispo, auf halber Strecke zwischen San Francisco und Los Angeles. “Denken Sie auch über all die ethischen Fragen nach, die die autonomen Autos uns bringen werden?“, wollte Lin von Gerdes wissen.

Das Auge, das alles sieht

Das Auge, das alles sieht: Die Kamera zu Einschätzung der Verkehrssituation in einem selbstfahrenden Auto

Quelle: dpa

Seitdem forschen die beiden Wissenschaftler gemeinsam. Der Philosoph entwirft ein Szenario, der Ingenieur sucht nach technischen Antworten. Zum Beispiel: Unser Auto kommt in eine Gefahrensituation und kann einem Crash nur noch entgehen, indem es nach links ausweicht. Dort würde der Wagen eine 80-jährige Großmutter töten. Er könnte auch nach rechts umlenken, wo er in ein achtjähriges Mädchen steuern würde. Wie soll das Auto entscheiden?

Der Philosoph Lin sagt: “Es gibt nicht die einzig richtige Antwort hier, das liegt in der Natur des ethischen Dilemmas. Man könnte einerseits argumentieren: Die Großmutter hat schon ein erfülltes Leben hinter sich. Oder aber: Das Mädchen hat die flexibleren Knochen und wird den Zusammenstoß vielleicht eher überleben.“

Der Autobranche selbst sind solche Fragen spürbar unangenehm. Die Hersteller betonen, Autos würden nicht dahin programmiert, zwischen verschiedenen Opfertypen zu unterscheiden. Vielmehr sollen die Fahrzeuge generell jede Kollision vermeiden. Erst recht, wenn es um ungeschützte Fußgänger und Radfahrer geht.

Der Mensch ist die häufigste Unfallursache

Ein wichtiges Argument für mehr Sicherheit, wenn der Computer die Kontrolle übernimmt, ist die traurige Realität auf den Straßen. Sowohl in den USA als auch in Deutschland ist der Mensch am Steuer für die Masse der Unfälle verantwortlich: durch Fehler beim Abbiegen und Rückwärtsfahren, zu nahes Auffahren, aggressives Verhalten, Rasen, Alkohol am Steuer. So sind zum Beispiel in Deutschland 2015 rund 35 Prozent aller Verkehrstoten Opfer von Unfällen mit überhöhter Geschwindigkeit.

Experten erwarten, dass es durch autonome Fahrzeuge drastisch weniger Unfälle geben wird. Trotzdem fordert der Philosoph Lin eine gesellschaftliche Diskussion über die ethischen Fragen: “Wie kommen die Programmierer zu ihrer Entscheidung? Haben sie die Konsequenzen durchdacht? Wenn nicht, wird jedes Gericht sie im Ernstfall als fahrlässig und unverantwortlich verurteilen.“ Lin will auch, dass die Autoindustrie offen über ethische Fragen spricht. “Macht sie das nicht, wird dieses Informationsvakuum von anderen mit Spekulationen und Ängsten gefüllt.“

Unfälle wie der mit einem Tesla in Florida machen Schlagzeilen – und befeuern die Skepsis gegenüber autonomen Systemen in großen Teilen der

Unfälle wie der mit einem Tesla in Florida machen Schlagzeilen – und befeuern die Skepsis gegenüber autonomen Systemen in großen Teilen der Bevölkerung.

Quelle: NTSB via Florida Highway Patrol

Für einen Aufschrei sorgte im Mai 2016 der erste tödliche Unfall mit einem vom Computer gesteuerten Tesla im US-Staat Florida. Der Wagen war nicht komplett autonom, er fuhr im sogenannten Autopilot-Modus. Dabei handelt es sich um ein ausgeklügeltes Assistenzsystem, das vom Fahrer bewusst angeschaltet werden muss und dann unter anderem Spur und Abstand halten soll. Der Elektroautobauer selbst warnt die Fahrer aber ausdrücklich: Nehmen Sie nie die Hände vom Steuer und behalten Sie die Verkehrslage im Blick.

Der Fahrer des Unfallwagens soll jedoch einen Film geguckt haben, als sein Auto in einen Lastwagen raste, der die Straße querte. Die US-Verkehrsbehörde NHTSA stellte in ihrem Untersuchungsbericht fest, das Assistenzsystem habe wie vorgesehen funktioniert, der Fahrer hätte sich aber nicht auf die Technik verlassen dürfen.

Auch Roboterwagen geraten in Unfälle. Meistens fahren unachtsame Menschen auf die korrekt fahrenden Testautos auf. Anfang 2016 jedoch provozierte ein Google-Auto selbst einen Blechschaden, als es beim Umfahren eines Hindernisses einem Bus in den Weg steuerte.

IT-Konzerne überholen die Autobauer

Aktuell sorgt noch fast jeder Zwischenfall für Schlagzeilen. Experten erwarten, dass diese Phase mit mehr Wagen und immer besserer Technik zur Neige geht. Noch vor einem Jahr jedoch fürchteten sich drei von vier Amerikanern davor, von einem selbstfahrenden Auto durch die Gegend chauffiert zu werden. Auch bei den Deutschen ist die Skepsis groß. Nach einer Studie der Unternehmensberatung Deloitte haben auch hier 72 Prozent das Gefühl, die Sicherheit im autonomen Modus reiche noch nicht aus.

Dabei war es ein Deutscher, der die aktuelle Roboterwagenwelle entscheidend anschob: Sebastian Thrun war Professor für Künstliche Intelligenz in Stanford und entwickelte dort den autonomen Wagen Stanley auf Basis eines VW Touareg. Mit ihm gewann Thrun 2005 einen Wettbewerb des US-Verteidigungsministeriums. Daraufhin engagierte ihn Google und beauftragte ihn, den ersten Prototyp zu bauen.

Google startete 2009 Tests mit Roboterwagen auf der Straße und setzte mit dem Projekt etablierte Autokonzerne unter Zugzwang. Seit Kurzem stellt die Google-Schwesterfirma Waymo Familien selbstfahrende Minivans für den Alltag zur Verfügung. Zu den ersten 100 gemeinsam mit dem Hersteller Chrysler umgebauten Fahrzeugen sollen 500 weitere hinzukommen. Auch die großen deutschen Autobauer forschen im Silicon Valley und sind mit Testlizenzen unterwegs. So will BMW 2021 gemeinsam mit Intel ein vollautonomes Auto auf die Straße bringen.

Alles unter Kontrolle

Alles unter Kontrolle? Testfahrt mit Steuerungstechnik von Bosch.

Quelle: dpa

Der Mann für ethische Fragen im BMW-Konzern, Dirk Wisselmann, berichtet, dass man viel an genau solchen Szenarien arbeite, wie sie der Philosoph Lin entwirft. Zugleich versichert er, dass ein Algorithmus – also eine Computerregel – mit Wertungen wie “Kind geht vor Großmutter“ niemals in ein deutsches Auto hineinprogrammiert werden dürfte. “Das verstößt gegen das Grundgesetz. Die Antwort kann immer nur lauten: Sachschaden vor Personenschaden.“

Für Wisselmann ist das Szenario zunächst ein einfacher technischer Algorithmus: “Das Auto erkennt, dass vor ihm ein Objekt ist, und wird daraufhin sofort bremsen und dann versuchen, noch nach links oder rechts auszuweichen.“

Weil allgemein davon ausgegangen wird, dass die vollautonomen Wagen oft eher langsam unterwegs sein werden, sieht Wisselmann keine große Gefahr für Fußgänger. „Bei 30 Stundenkilometern ergibt sich ein Bremsweg von etwa vier Metern. Da bleiben etwa 50 Zentimeter, die ein Auto nach links oder rechts ausweichen könnte. Also, wie realistisch ist dann ein solch dramatisches Szenario noch?“

Moralisch-ethische Zwickmühle

Mirko Franke, Entwickler bei Bosch, sieht sich stärker in der moralischen Zwickmühle: “Technisch sind wir längst so weit, dass die Sensoren gut erkennen, was sich um das Auto herum tut. Eine etwa ein Meter große Person ist mit hoher Wahrscheinlichkeit ein Kind, jemand mit einem Stock wahrscheinlich ein älterer Mensch. Wir könnten all das also heute schon berücksichtigen. Aber wir tun es nicht.“ Das Auto solle nur einen Fußgänger erkennen, mit dem ein Unfall zu vermeiden ist, und zum Beispiel mit einer Notbremsung auf ihn reagieren, egal ob alte Dame oder Kind.

“Wir weisen unsere Entwickler nicht an, in einem solchen Dilemma Schicksal zu spielen und hart rein zu coden, dass das Leben eines Kindes mehr wert sei als das einer älteren Frau“, betont Franke. “Was ethisch ist und was nicht, ist eine gesellschaftliche Frage, das können wir nicht als Unternehmen festlegen. Deshalb begrüßen wir auch die Einrichtung einer Ethikkommission in Deutschland und warten hier auf die Empfehlungen.“

Im Stadtverkehr sind die Selbstfahrer von Google im kalifornischen Mountain View noch selten zu sehen

Im Stadtverkehr sind die Selbstfahrer von Google im kalifornischen Mountain View noch selten zu sehen.

Quelle: dpa

Die Deutschen sind gewohnt vorsichtig. US-Wettbewerber wie Tesla und Waymo wollen sich zum Thema Ethik erst gar nicht äußern. Und dann sind da noch die vielen Start-ups. So wie Peloton. Die Firma entwickelt führerlose Lastwagen für das sogenannte Platooning. Dabei sollen Fahrzeuge automatisch gesteuert in Kolonne fahren. Ziel: den Treibstoffverbrauch und das Unfallrisiko zu senken.

Software-Entwicklerin Alison Chaiken sagt: “Ingenieure wollen coole Sachen bauen und kümmern sich nicht so sehr um die Konsequenzen.“ Die Frage nach dem Unfallszenario des Philosophen Lin erstaunt Chaiken: “Als ich meinen Führerschein gemacht habe, wurde ich niemals gefragt, wie ich mich im Ernstfall zwischen einer Achtjährigem und einer 80-Jährigen entscheiden würde. Jetzt fahre ich seit 35 Jahren Auto und bin noch nie in so einer Situation gewesen.“

Typisch Silicon Valley, sagt dazu Stefano Marzani, italienischstämmiger Programmierer aus einem Auto-Start-up. Er hat jüngst eine Debattenrunde mit dem Namen “Tech Ethics“ gegründet. Dazu lädt er Experten ein, um vor Gästen über brennende Fragen bei neuer Technik zu diskutieren. “Die Start-ups hier denken alle nur an Lokalisierung, Umgebungserkennung und Kostenfunktionen. Niemand von denen kümmert sich um die Moral. Aber das sollten sie, denn das wird eine Revolution“, meint Marzani.

Die Frage nach dem Notfallknopf

Nach den ersten Kollisionen wird zumindest schon diskutiert. Dabei ist immer wieder vom großen roten Notknopf die Rede. Damit könnte der Mensch beim hochautomatisierten Fahren im Krisenfall die Kontrolle wieder übernehmen. Aber wie realistisch ist das?

BMW hat es getestet: “Wir haben über 400 Fahrsimulationsversuche gemacht, wo wir Realfahrer – natürlich unter Laborbedingungen – mit solchen Situationen konfrontiert haben“, sagt Wisselmann. Der Fahrer ist dabei abgelenkt, liest zum Beispiel ein Buch, wenn plötzlich ein Warnton im Auto ertönt. Der Fahrer muss sich in kürzester Zeit orientieren und ein Manöver einleiten, also bremsen oder ausweichen. “Die Ergebnisse waren erstaunlich“, sagt der Experte, “die Schnellsten brauchten in einfachen Situationen nur zwei bis drei Sekunden.“

Stanford-Professor Gerdes hält menschliches Eingreifen dagegen für keine gute Idee. “Die meisten Unfälle werden dadurch verursacht, dass wir Menschen falsch auf unvorhergesehene Situationen reagieren.“ Mit dem Notfallknopf bekomme man die Kontrolle zum schlechtestmöglichen Zeitpunkt. “Nein, das Auto sollte seine eigenen Entscheidungen treffen können oder zu einem sicheren Stand kommen.“ Sein Philosophenfreund Lin bleibt skeptisch: “Wenn wir die Entscheidung über Leben oder Tod dem Computer überlassen, schließen wir uns selbst von jeglichem weiteren Nachdenken darüber in Zukunft aus.“

Computer und Mensch – vor dem Gesetz gleich

Deutschland gibt Gas bei der Zulassung des automatischen Fahrens. Ende März machte der Bundestag den Weg dafür frei, dass künftig Computer das Autofahren übernehmen dürfen – der Mensch am Lenkrad muss aber immer wieder eingreifen können. Am 12. Mai hat der Bundesrat einem entsprechenden Gesetzentwurf von Verkehrsminister Alexander Dobrindt zugestimmt. In Kraft treten soll die Regelung voraussichtlich am 1. September. “Wir stellen Fahrer und Computer rechtlich gleich“, sagt Dobrindt.

Das neue Gesetz soll die Zulassung von Autos erlauben, bei denen technische Systeme zeitweise die Steuerung kontrollieren. Der Fahrer soll dann die Hände vom Lenkrad nehmen können – etwa um im Internet zu surfen. Dabei muss er jedoch im Notfall jederzeit Steuer und Bremsen in Sekundenschnelle bedienen können. Zudem soll das Computerauto eine Art Blackbox wie ein Flugzeug bekommen, in der Fahrdaten über drei Jahre gespeichert werden.

Verbraucherschützer warnen vor zu viel Verantwortung des Fahrers. Es dürfe nicht vollmundig mit einem Autopiloten geworben werden, wenn die Systeme ständig überwacht werden müssten. Bei Fragen nach dem Haftungsrisiko stellt Minister Dobrindt klar: “Wenn der Computer fährt, dann haftet am Schluss der Hersteller.“ Datenschützer wollen zudem genauer wissen, welche Informationen konkret im elektronischen Fahrtenschreiber gespeichert werden dürfen.

Umfangreiches Testequipment für möglichst viel Sicherheit

Umfangreiches Testequipment für möglichst viel Sicherheit: Wenn der Computer fährt, sollen in Zukunft die Hersteller für Unfälle haften.

Quelle: dpa

Der Druck von der Industrie, schnell den gesetzlichen Rahmen für das automatische Fahren zu schaffen, war groß. Fast alle Hersteller haben erste Systeme wie Einparkhilfen, Stau- und Spurhalte-Assistenten und Bremshilfen auf dem Markt. Der Verband der Automobilindustrie (VDA) begrüßt denn auch den Rechtsrahmen: “Das automatisierte Fahren wird den Straßenverkehr sicherer, effizienter und komfortabler machen.“

Im Herbst 2016 hatte Dobrindt eine Ethikkommission einberufen, die bis zum Sommer Regeln für Roboterautos aufstellen soll. Daran sollen sich Programmierer orientieren können. Unter dem Vorsitz des früheren Verfassungsrichters Udo Di Fabio beraten Juristen, Ingenieure und Philosophen, wie die Verantwortung hinterm Steuer künftig organisiert werden soll. Dabei gelten zwei Grundsätze: Sachschaden geht immer vor Personenschaden. Und es darf in Deutschland keine Klassifizierung von Menschen geben, etwa nach Größe oder Alter.

Für Dobrindt ist automatisches Fahren nichts Geringeres als “die größte Mobilitätsrevolution seit der Erfindung des Automobils“. Zwei Drittel der Deutschen fürchten nach einer Umfrage der Bertelsmann-Stiftung aber Unfälle, Kontrollverlust und Hacker-Angriffe auf die Technik.

Interview: “Deutschland fehlt es an einer Vision“

Das autonome Fahren wird eine Revolution – ohne die Deutschen

Das autonome Fahren wird eine Revolution – ohne die Deutschen. Davon ist Mario Herger überzeugt. Der Technikexperte macht eine Weiterbildung zum Ingenieur für Roboterwagen an einer US-Fernuni.

Quelle: Mario Herger

Sie sind seit Dezember eingeschrieben beim weltweit ersten Ingenieurkurs für selbstfahrende Autos der Online-Universität Udacity. In neun Monaten für knapp 200 Euro Ingenieur für autonome Autos – ist es wirklich so einfach?

Es ist überhaupt nicht einfach. Am Anfang lernt man, wie das Auto Fahrbahnmarkierungen erkennt, Straßenschilder liest, bald kommt die Wegeplanung dazu: Wo bin ich? Was ist um mich herum? Bewegt es sich? Man braucht schon einiges an Vorwissen für den Kurs, muss programmieren können, man muss wissen, wie man mit der Cloud arbeitet. Am Ende füttert man das Udacity-eigene Auto aus der Ferne mit seinen Algorithmen. Und wenn es tatsächlich auf dem Testgelände in Kalifornien richtig fährt, hat man bestanden. Vor Kursbeginn hieß es, zehn Wochenstunden im Selbststudium reichen. Die meisten von uns brauchen tatsächlich 30 bis 40, ich auch.

Aber wer es schafft, hat danach einen Job im Silicon Valley sicher?

Udacity garantiert tatsächlich einen Job innerhalb von sechs Monaten nach Abschluss dieses sogenannten Nano-Degrees – oder erstattet die Kursgebühr zurück. Die großen Autohersteller reißen sich um die ersten Absolventen. Es heißt im Valley, ein Ingenieur für selbstfahrende Autos ist heute Millionen Dollar wert. Das heißt nicht, dass er das an Gehalt kriegt, aber das ist sein Marktpreis, denn es gibt diese Leute nicht, der Markt ist leer.

Woran liegt das? Das selbstfahrende Auto kommt ja nicht über Nacht angerollt.

Das autonome Fahren ist eine Revolution, und sie wird nicht von denen eingeleitet, die hundert Jahre lang die sichersten Autos gebaut haben. Das ist vergleichbar mit der ersten Automobilrevolution. Als damals die Kutsche vom Auto verdrängt wurde, da waren keine Kutschenbauer beteiligt, keine Sattler oder Pferdezüchter. Die Automobilpioniere wie Carl Benz und Ferdinand Porsche, das waren Maschinenbauer, Mechaniker, Büchsenmacher, Elektriker. Und heute müssen all die Motoringenieure, bisher die Stars der Hersteller, ersetzt werden durch Leute, die sich auskennen mit Robotik, Steuerungs- und Regelungstechnik, künstlicher Intelligenz, kurz: digitaler Software. Und von diesen Leute haben wir nicht genug.

Ist ethische Programmierung Teil des Lehrplans?

Bis jetzt nicht. Ich halte diese ganze Ethikdiskussion sowieso für intellektuelle Selbstbefriedigung. Ich meine, ein Szenario bei dem entschieden werden muss, ob alte Frau oder Kind überfahren wird: Wie viele von uns haben so etwas im realen Straßenverkehr schon mal erlebt? Das ist doch ein ganz seltenes Phänomen. Aber Deutsche sind wie immer auf das Problem fokussiert. Man sieht die neue Technologie nicht als Chance, sondern beschäftigt sich mit der Angst, dass die Maschine einen Fehler machen könnte und irgendjemand in unserem Unternehmen die Verantwortung dafür übernehmen muss. Darüber vergessen wir, dass der autonome Verkehr jedes Jahr Tausende von Leben retten wird.

Es hieß in den vergangenen Jahren schon oft, die künstliche Intelligenz komme jetzt wirklich. Wieso soll der Durchbruch nun ausgerechnet beim Auto gelingen?

Die künstliche Intelligenz hat tatsächlich einen kritischen Punkt überschritten. Maschinenlernen funktioniert plötzlich wirklich. Nehmen wir das Beispiel Tesla: Die bauen seit Oktober in jedes Fahrzeug, das vom Band rollt, ihren neuen Autopiloten 2 ein, mit acht Kameras rings um das Auto, Ultraschall- und Radarsensoren und einem Prozessor, der 150-mal so stark ist wie mein Laptop. Die Hardware fürs Selbstfahren ist schon drin im Auto, und auch wenn die Software noch nicht fertig ist, sammelt das System schon Daten und schickt sie ans Mutterschiff Tesla. Tesla hat also echte Daten von realen Fahrern, und zwar weltweit, nicht nur aus Prototypen von Testfahrern in einem abgesperrten Gelände.

Sie trauen den Deutschen hier nicht allzu viel zu?

Die deutschen Autobauer wissen, dass das autonome Fahren nicht ihre Welt ist. Sie testen sich zu Tode, sie haben zu viel zu verlieren. Hier im Silicon Valley geht man mit einer ganz anderen Mentalität ran. Die Software-Leute in den Auto-Start-ups schicken eine Betaversion raus, dann gibt’s ein paar Vorfälle und dann wird einfach nachgebessert. Horror für einen traditionellen Automobilhersteller. Zudem fehlt es in Deutschland an einer Vision für das fahrerlose Auto. Hier in den USA gibt es Städte wie Los Angeles, die investieren gar nicht mehr in Nahverkehr. Die glauben, es lohnt sich nicht mehr, Autobahnen und Tunnel zu bauen. Die hoffen, dass die selbstfahrenden Autos bald kommen und ihnen alle Probleme abnehmen: den ewigen Stau, die vielen Unfälle.

Von Chistiane Hübscher

Voriger Artikel
Nächster Artikel
Mehr aus Top-Thema