[o1] H3LD
am 06.04. 18:41
+1
-1
Ergibt ja auch Sinn, menschliche Fahrer haben in der Regel nur 2 Augen und können trotzdem die Situation relativ gut einschätzen.
@H3LD: das ergibt absolut keinen Sinn. Wieso sollte man das Auto künstlich auf die Einschränkungen der menschlichen Sensorik kastrieren? Der Mensch hat außerdem ein Hirn und damit ein weit besseres Szenen- und Verkehrsverständnis als jedes Neuronale Netz. Das kann man mit Lidar und Radar wenigstens halbwegs kompensieren.
@jakaZ: man geht davon weg weil man "Einflussquellen" eleminieren will die fehleranfällig sind oder "fehleranfälliger". Wenn in 8 von 10 Fällen das Radar durch ein falsch gelenktes Signal z.B. eines anderen Fahrzeugs oder einer spiegelnden Fläche zu einer Phantombremsung" führt, dann ist diese "Datenquelle" ungeeignet. Denn dann muss das System entscheiden, fahre ich laut RADAR jetzt vor eine Wand, dann ist unverzüglich eine Notbremsung einzuleiten, oder fahre ich laut VISION auf einer freien Autobahn? Es ist programmiertechnisch schlicht zu aufwendig. Und man merkt auch jetzt schon, dass das System zunehmend auf Vision only umgestellt wurde, das Radar kommt kaum noch zum Einsatz. Hat man gemerkt dass man Kilometerlang im Winter mit Schnee an der Front herumfahren kann bevor mal irgendwann die Meldung kommt.
Mit zunehmender Masse an Radar in Fahrzeugen wäre die Gefahr von Störsignalen noch viel höher. Es ist nur konsequent dass man sich endlich rein auf vision only konzentriert.
Mit zunehmender Masse an Radar in Fahrzeugen wäre die Gefahr von Störsignalen noch viel höher. Es ist nur konsequent dass man sich endlich rein auf vision only konzentriert.
@Frankenheimer:sorry, aber an deiner Antwort man merkt, dass du von der Thematik nicht viel verstehst.
Was du beschreibst nennt man Sensorfusion und das ist ein völlig normaler Vorgang in aktuellen ADAS und AD-Systemen. Dabei werden eben genau diese Dinge analysiert und die Ergebnisse kombiniert. Selbst innerhalb eines Perception-Moduls (Radar, Lidar, Kamera) können unterschiedliche Detektionsvarianten fusioniert werden um mehr Sicherheit in der Erkennung zu schaffen. Aber auch eine gewisse Redundanz der Sensoren an sich wird von den meisten Experten sogar als safety-critical erachtet.
Und Radar-Systeme nutzen für die Störungen schon lange Modulationsverfahren z.B. ähnlich wie im Mobilfunk (CDMA, FDMA und andere). Vermeidet nicht alle Interferenzen aber reicht aus.
Was Tesla macht ist Geld sparen.
Was du beschreibst nennt man Sensorfusion und das ist ein völlig normaler Vorgang in aktuellen ADAS und AD-Systemen. Dabei werden eben genau diese Dinge analysiert und die Ergebnisse kombiniert. Selbst innerhalb eines Perception-Moduls (Radar, Lidar, Kamera) können unterschiedliche Detektionsvarianten fusioniert werden um mehr Sicherheit in der Erkennung zu schaffen. Aber auch eine gewisse Redundanz der Sensoren an sich wird von den meisten Experten sogar als safety-critical erachtet.
Und Radar-Systeme nutzen für die Störungen schon lange Modulationsverfahren z.B. ähnlich wie im Mobilfunk (CDMA, FDMA und andere). Vermeidet nicht alle Interferenzen aber reicht aus.
Was Tesla macht ist Geld sparen.
@H3LD: und wovon will man weg? Richtig die fehlerhaftigkeit des Menschen. Also warum nicht wie mein Vorredner sagte mehr und bessere Sensorik?
Vorallem sind optische Sensoren vorallem bei schlechter Witterung stark eingeschränkt, was ein Radar nicht ist.
Vorallem sind optische Sensoren vorallem bei schlechter Witterung stark eingeschränkt, was ein Radar nicht ist.
@Jason1476: Mein Radar am Auto ist wegen Schnee letztens deaktiviert worden. Viele Premium-Autos haben auch eine Heizung in diesem Bereich, damit der Sensor frei bleibt. Wobei sich die Foren dann über die "Logo-Heizung" lustig machen.
Völlig witterungsunabhängig ist Radar im Auto also auch nicht.
Völlig witterungsunabhängig ist Radar im Auto also auch nicht.
@floerido: nein nein das ist mir auch klar. Meins macht das auch hin und wieder. Trotzdem ist beides fehleranfällig und sollte deswegen kombiniert werden anstatt rationiert
@Jason1476: Wobei dann natürlich im Schneesturm, wenn das Radar zu ist, die Kamera vermutlich auch nicht die beste Sicht hat.
Ich glaube bei der VW-Gruppe ist das so, dass man bei geringen Geschwindigkeiten die Kamera für den Abstandstempomaten einsetzt und für hohe Geschwindigkeiten wird das Radar benötigt, wegen der vermutlich höheren Reichweite. Deshalb gibt es dort in den Preislisten häufig zwei verschiedene Abstandstempomaten.
Ich glaube bei der VW-Gruppe ist das so, dass man bei geringen Geschwindigkeiten die Kamera für den Abstandstempomaten einsetzt und für hohe Geschwindigkeiten wird das Radar benötigt, wegen der vermutlich höheren Reichweite. Deshalb gibt es dort in den Preislisten häufig zwei verschiedene Abstandstempomaten.
@H3LD: Das Eine hat mit dem Anderen nichts zu tun!
Radar ist vor Allem zur Schätzung des Abstandes enorm wichtig und hat Vorteile wo Kameras an ihre Grenzen kommen. Also Dunkelheit, schlechtes Wetter, Nebel.
Es ist grundsätzlich schlecht single Point of Failure zu haben, siehe auch Boeing 737 Max.
Radar ist vor Allem zur Schätzung des Abstandes enorm wichtig und hat Vorteile wo Kameras an ihre Grenzen kommen. Also Dunkelheit, schlechtes Wetter, Nebel.
Es ist grundsätzlich schlecht single Point of Failure zu haben, siehe auch Boeing 737 Max.
@Arhey: kann man so sehen. Man kann es aber auch so sehen dass eine zunehmende Menge an Datenquellen stets zu mehr Fehlereintrag führt weil von 50 Sensoren jeglicher Art vermutlich immer einer dabei ist der etwas falsch misst. Es ist also besser sich darauf zu konzentrieren dass die eine Quelle durch ein neuronales Netz auf maximale Qualität gefahren wird.
Damit Tesla noch unauffälliger nach belieben Kameraaufnahmen aus aller Welt anzapfen kann?
Ja Elon-Fanboys, minust ihr mich mal :D
Ja Elon-Fanboys, minust ihr mich mal :D
@DRMfan^^: was genau hat die ohnehin aktive Kamera für den Autopilot jetzt mit der Umstellung auf Vision Only zu tun?
@Frankenheimer: Je mehr reguläre Verarbeitung stattfindet, desto schwieriger lässt sich illegitime Verarbeitung erkennen.
Aber Hey, Alexa, Siri, Google Assistant, Tesla usw. dürfen eben einfach lauschen und schauen, was von jedem normalen Bürger illegal wäre. Lass dir mal etwa von Bosch erklären, welchen Aufwand die treiben mit Kameraaufnahmen von Fahrzeugen, um rechtskonform zu sein.
Aber Hey, Alexa, Siri, Google Assistant, Tesla usw. dürfen eben einfach lauschen und schauen, was von jedem normalen Bürger illegal wäre. Lass dir mal etwa von Bosch erklären, welchen Aufwand die treiben mit Kameraaufnahmen von Fahrzeugen, um rechtskonform zu sein.