7. Juli 2022
Home » Tesla News » Radar unloved: Wie Tesla das Abstandsradar entfernte und auf pure Vision setzte

139 thoughts on “Radar unloved: Wie Tesla das Abstandsradar entfernte und auf pure Vision setzte

  1. Erst kürzlich kam mir ein spannender Gedanke, der durchaus das Potenzial hat, noch „lustig“ zu werden:

    Wenn es dann doch wirklich mal Level 3 (und aufwärts) PKWs geben wird und man die Autonomiefunktionen auch nutzen darf, dann wird es spannend, wie man der Polizei z.B. am Ort des Geschehens adhoc nachweisen kann, dass das Auto A) >= Level 3 kann, und zweitens die Funktion in diesem Moment auch aktiv war, als ich gerade auf dem Handy z.B. rumgedaddelt habe…

    Ideen? 😀

    1. Theoretisch könnte ich mir sowas wie einen „Aktivitätsauszug“ (quasi ne Teilmenge der Logs) vorstellen.
      Der sagt/zeigt an, in welchem Zeitraum welche Funktionalität (AP, FSD …) mit welchem Level aktiv war.
      Sollte m.E. auch n überschaubarer Aufwand sein

      1. Müsste halt so implementiert werden, dass die Polizei sofort an Ort und Stelle darauf Zugriff hat… da Stelle ich mir die genormte Umsetzung mit allen Herstellern spannend vor 🙂 …weil das ganze im Nachhinein extra auswerten und Infos einholen zu müssen, wäre viel zu aufwendig… stelle ich mir schon spannend vor, wie und vor allem wie schnell es da eine Lösung geben wird…

        1. Könnte man im ersten Schritt auch einfach auf dem Display im Auto anzeigen lassen, in nem Untermenü/-punkt. Müssten die Hersteller nur dafür sorgen, dass das nicht vom Fahrer/Besitzer/YouNameIt hackbar ist

  2. noch 2, ach nein, 1 Schreibsi für 200 😃👍🏻

    Zum Problem könnte auch werden, dass zu Beginn einfach jeder größere Unfall mit RoboTaxis x-fach und ausführlich durch die Medien gehen wird… aber natürlich nicht jeder unfallfreie Kilometer… und das könnte das Image und Reputation der Autonomie schon stark schädigen… und dadurch die Verbreitung verlangsamen oder gar blockieren, wer weiß 🤷‍♂️

    1. interessant, die Scheibenwischer lassen sich im AP Mode nicht deaktivieren 😁 Was durchaus positiv auffällt: Wie stabil die Autos rund um den Tesla erkannt und dargestellt werden, nicht mehr viel zu sehen von den „Dancing Cars“ früherer Versionen. Ich habe in meinem neuen M3 auch die 3.2 Hardware mit den besseren Kameras, mal sehen, wie empfindlich die auf schwierige Lichtsituationen wie Gegenlicht reagieren. Mein altes M3 hatte da permanent Ausfälle. Und im Winter Probleme mit Beschlag.

      1. Auch interessant: die Seitenkameras haben wenig Probleme mit Regen, die Rückkamera aber ziemlich. Weshalb sich „Navigate on Autopilot“ immer wieder ausschaltet, d.h. der Fahrer muss Spurwechsel manuell freigeben.

        Ansonsten funktioniert Vision-only ja ziemlich gut. Welcher andere Hersteller kann automatische Spurwechsel?

        1. „d.h. der Fahrer muss Spurwechsel manuell freigeben.“
          > So wie ich das verstanden habe, ist das nur im Moment so und soll „im Laufe der Zeit“ wieder automatisch passieren ohne Bestätigung

  3. Großes Lob! 100 Kommentare zum Thema Tesla – Autopilot – FSD, und immer noch können sich alle in die Augen schauen. Tolle, informative, kluge Beiträge, kein Streit. Ihr seid ein Beispiel dafür, wie es die Menschheit vielleicht doch noch schaffen könnte. Meine Hochachtung, Hut ab 👍😁👍

    1. Schade, dass ich dir dafür nur ein Like geben kann (*hust* Igor *hust*)!
      Kann ich nur zustimmen! Da können sich die Kommentarbereiche anderer Seiten gerne was abgucken 😋

    2. Man muss nur die richtigen Rausschmeißer beschäftigen, dann gibts die Edelsahneparties. Jajajajaja 😂

    1. Nachtrag: wärmstens zu empfehlen, gerade auch im Hinblick welche Probleme verursacht/e Radar an Beispielen, die ihre Runden machten, Phantombremsungen an Brücken oder auch Unfälle mit halb auf der Straße stehenden Autos. Wie gesagt, um zu verstehen, warum Radar Probleme macht bzw. warum es ein guter Ansatz sein könnte auf Radar zu verzichten ein gutes Video mit einem MachineLearning-Experten

      Fazit für mich: es gab/gibt gute Gründe, auf Radar zu verzichten und es scheint zu funktionieren

      1. Wenn man vom Status Quo bei Radar ausgeht, könnte man so argumentieren… aber bei Radar geht es ja auch weiter… MobilEye weiß um die Probleme und geht sie an… und das eben auch mit Software (und KI?), anders geht es logischerweise nicht…

        Irgendwie hat keiner, der nur Tesla mit PureVision vorne sieht, auf dem Radar (schönes Wortspiel 😁), dass man das Radar ja auch noch signifikant verbessern kann, sodass es ausreichend gut funktioniert, um wirklich ein sicherer und redundanter Sensorweg zur Objekterkennung zu sein… das wird bei der ganzen Diskussion völlig ausgeblendet meines Erachtens… und falls z.B. ME das knackt, dann kaufe ich persönlich lieber ein Level 4/5 Fahrzeug MIT noch zusätzlich Radar (und ev. Lidar) als ohne… das steht außer Frage…

      2. Wirklich sehr sehenswert. Mir war beispielsweise vorher nicht klar, dass nicht Vision das Problem mit stehenden Objekten hat, sondern Radar… Ersteres wird ja wiederholt behauptet und ich konnte es nicht so recht nachvollziehen. Warum sollte ein querstehender Laster nicht visuell erkannt werden…

        Wenn also Vision (der alte Stack) sagt: „Da ist ein weißer Laster, ich bin mir zu 60% sicher“ und Radar sagt „Nö, alles frei“… Phantombremsung oder Autsch…

        Da kann dann nur Lidar mit einsteigen und sagen „Hindernis in X Zentimetern“. Oder halt ein PureVision, dass (so wie Menschen auch) Laster in beliebiger Position mit ausreichender Sicherheit zu erkennen vermag.

        1. Das war vor 10 Jahren:

          https://www.pressebox.de/pressemitteilung/continental-reifen-deutschland-gmbh-hannover/Radarsensor-fuer-Lkw-ermoeglicht-Bremsen-auf-stehende-Hindernisse/boxid/374760

          Zitat: „“Bei der Erweiterung auf stehende Hindernisse müssen vor allem Brücken
          und Tunneldurchfahrten von der Objekterkennung in unserem Radar
          zuverlässig als Nicht-Hindernis klassifiziert werden “

          Und MobilEye traue ich es durch Ihre KI-Erfahrung und Software-Expertise zu, das alles noch signifikant zu verbessern… haben sie ja auch schon in Präsis gezeigt (auch wenn das manch einer hier nur als „Marketing-Geschreibe“ abtut… das könnte man auch über die Präsis von Tesla sagen, deshalb ist das ein Nicht-Argument)… CEO Amnon Shashua hat selbst gesagt, dass es „tricky“ ist (sein Lieblingswort anscheinend), aber mit Software lösbar…

          Nur weil Tesla sich an das Thema nicht rantraut oder keine Lust drauf hat, oder einfach aus Kostengründen drauf verzichtet, heißt das noch lange nicht, dass es nicht funktioniert oder nicht gut wäre… Tesla muss mit seinem Ansatz auch erstmal liefern… noch ist alles offen…

  4. Oh man, der Karpathy redet immer so schnell 🙈

    Man kann es auch anders betrachten…. Tesla wendet sich von Radar ab, weil sie meinen, zu kompliziert zum Auswerten und „Fusionieren“… andere stellen sich der Aufgabe, und versuchen das Radar signifikant zu verbessern… PLUS KameraVision natürlich… plus ev. Lidar… bin sehr gespannt, wie es für alle ausgeht…

    Knacken können das Thema sicherlich mehrere… und ja, Tesla hätte aktuell kostentechnisch mit nur Kameras einen Vorteil… aber Radar und Lidar werden auch günstiger… und seien wir mal ehrlich, bei einem Systempreis (Endkunde!) von $10.000 oder mehr (oder bei anderen bissle weniger?), fallen die paar Euronen für die Sensorik dann wahrscheinlich auch nicht mehr ins Gewicht…. recht teuer wird es für den Endkunden so oder so…

    Wer jedoch ein RoboTaxi-Unternehmen betreiben will, der achtet dann aber vielleicht schon eher auf Redundanz und „doppelten Boden“ als nur PureVision… wird interessant, dass zu verfolgen…

    1. Zwei unterschiedliche Systeme sind bestenfalls komplementär. Die Erklärung ☝️lese ich so, als würden Radar und Vision in der Praxis eher widersprüchlich und konkurrierend wirken.
      Redundanz ist was ganz anderes, eher zweimal das Gleiche was sich gegenseitig backuped.

      1. „als würden Radar und Vision in der Praxis eher widersprüchlich und konkurrierend wirken.“

        Naja, die sonstigen Abstandstempomaten mit Radar funktionieren doch ganz gut, oder? …also sehe ich da weniger Platz für dein Argument…

        Und dann siehe mein Beitrag oben… was wäre, wenn, und daran wird gearbeitet, man Radar auch einfach so gut macht, dass es zur sicheren Objekterkennung genügt? …würdest dann lieber schlafend mit nur PureVision fahren, oder doch lieber mit noch einem (oder weiteren) Sensor(en)? (ich erinnere, es geht dabei um nichts Geringeres als dein Leben/Gesundheit, und das der anderen Verkehrsteilnehmer… und es geht nicht darum, wer Erster ist, oder ob der Erste der eigene Lieblingshersteller ist)

        1. Können andere (z.B. Mobileye) denn Radar-only fahren? Soweit ich das verstanden habe, geht ohne Vision sowieso nichts… Wenn Vision ausfällt, bleibt doch eh nichts anderes als rechts ranfahren, anhalten.

        2. Die sagen ja… Radar+Lidar… zukünftig eventuell sogar RadarOnly und noch zusätzlich LidarOnly… dass die für die Verkehrszeichen etc. trotzdem jeweils die Kameras brauchen, ist auch klar… geht wahrscheinlich „nur“ um die Objekterkennung… aber so tief bin ich auch nicht drin… habe ja auch nur die Infos, die ME rausgibt….

        3. Das Problem sind ja Fahrspuren und Seitenbegrenzungen, wenn die nur aufgemalt sind. Mit aktuell gehaltenen, hochauflösenden Karten kann sich ein Lidar+Radar only System vielleicht ausreichend positionieren… Aber bei Nebel fällt Lidar auch aus und Radar hat prinzipbedingte Schwierigkeiten mit stationären Objekten. Ich schätze, Radar-only wird nie ausreichend sicher funktionieren…

    2. Hi Ossi,

      ja, ich musste phasenweise auf 0,5-0,75 Widergabe-Geschwindigkeit „runter“ um ihn so genau wie möglich zu verstehen

      Zu deinem Absatz direkt danach („Man kann es auch anders betrachten“), kommt es meiner Einschätzung nach auf die Zielsetzung an. Was genau möchte ich erreichen, was hilft dabei? Da kann man natürlich wunderbar spekulieren, philosophieren, das Haar in der Suppe suchen, wenn es um den Sensor-Stack geht, jeder wird da seine Einschätzung haben. So auch die Jungs und Mädels bei Tesla. Meine Einschätzung dazu ist, dass die eher am oberen Ende der Glockenkurve anzusiedeln sind und wissen was sie tun und auch ein gutes Zielbild definiert haben. Daher haben sie erstmal mein Vertrauen. Alles andere wird die Zukunft zeigen und bis dahin freue ich mich auf weitere Gespräche/Diskussionen sowie spannende Vorträge, Einblicke und Interviews zu dem Thema.

      1. Ein wenig Argumentationshilfe auf Level knapp unter Abiturstufe😉
        3 * 4³ = 192
        (3 * 4)³ = 1728
        zur Erklärung: Ein Rechner ist eine Art Verstärker und die Daten/Ergebnisse wachsen expotentiell. Wenn ich die gleiche Rechenleistung auf 3 Eingabesysteme verteile, ergeben sich deutlich weniger Daten, als bei einem System. Das verdeutlicht ganz grob die Idee nur Daten von einem System zu verarbeiten.

        1. Dafür könnte man bei dem einen System die Auflösung, Hz oder sonst was erhöhen und hätte immer noch mehr Ressourcen frei.

    3. Das Radar mit viel Aufwand verbessern muss derjenige, dessen Vision-Stack nicht leistungsfähig genug ist…

      Wie aus Karpathys Vortrag schön hervorgeht. Überhaupt muss man hier viel zwischen den Zeilen lesen: Tesla hat einen Daten-Vorsprung, den sämtliche anderen nicht im Traum aufholen können. Gleichzeitig offenbar ebenfalls einen solchen Hardware-Vorsprung (sowohl im Fahrzeug als auch außerhalb („Dojo“)). Die anderen können da nur mit Krücken (Radar, Lidar) mithalten. Bzw. liegen noch knapp vorne, weil Vision-only deutlich aufwändiger ist. Sobald Tesla aber vorbeizieht, sind sie auf absehbare Zeit uneinholbar…

      Vielleicht können sich die anderen dann mit Lobbyarbeit retten. Dreifach-Redundanz Vision-Radar-Lidar verpflichtend machen, oder so. Aber sobald an Tesla auch diverse tausend Arbeitsplätze in Deutschland hängen, werden sie sich damit auch schwerer tun…

      Ergänzung: Entschuldigung wegen der scharfen Formulierung, ich komm‘ gerade von TM hierher. Muss mich erst wieder eingewöhnen 😀

      1. Alles gut 👍🏻 …ich sag mal so, kommt halt auch bissle an den eigenen Sicherheitsanspruch an solche Systeme an… geht schließlich um Gesundheit und Leben, die wohl höchsten Güter, die wir haben… und die möchte ich eben auch bestmöglich geschützt und behütet wissen…

        Wenn man mir ein System mit Camera-Only anbietet und dagegen eins mit Camera+Radar+Lidar, würde ich immer das in meinen Augen (noch) Sicherere mit den vielfältigen Sensoren wählen… sagt mir einfach mein gesunder Menschenverstand… warum soll die Maschine nicht besser sein als der Mensch mit seinen 2 „beschränkten“ optischen „Sensoren“? …ein CameraOnly FSD-Fahrzeug würde ich persönlich nicht nutzen/kaufen und auch kein solches RoboTaxi in Anspruch nehmen…

        1. Wenn Gesundheit und Leben des Individuums über gesellschaftlichen Werten stehen sollte, dann wäre das eine sehr arme und egoistische Gesellschaft.

          Bin nicht sicher wieviele sich da wirklich noch wohl fühlen und geistig gesund bleiben können.

        2. Deinen Kommentar verstehe ich ehrlich gesagt nicht… ist dieser als Gegenrede zu meinem gedacht, oder als Zustimmung oder als Ergänzung? …oder einfach freier Gedanke?

      2. „Dreifach-Redundanz Vision-Radar-Lidar verpflichtend machen, oder so. Aber sobald an Tesla auch diverse tausend Arbeitsplätze in Deutschland hängen, werden sie sich damit auch schwerer tun…“

        Gut, bei der Selbstfahrgeschichte dürften/solllten schon die Gesundheit der Passagiere und der anderen Verkehrsteilnehmer im Vordergrund stehen, und nicht irgendwelche Arbeitsplätze…

        Und heißt ja nicht, dass ein Hersteller keine Autos mehr verkaufen wird können, nur weil er (erstmal) kein FSD anbieten kann… das greift zu weit, glaube ich…

      3. „Das Radar mit viel Aufwand verbessern muss derjenige, dessen Vision-Stack nicht leistungsfähig genug ist…“

        Und der Vision-Stack muss nicht durch (sehr) viel Aufwand verbessert werden?! 🤔

        Und was, wenn du einen leistungsfähigen Vision-Stack UND einleistungsfähiges Radar UND ein bezahlbares und leistungsfähiges Lidar hast? …wäre das nicht noch besser?…wie gesagt, ich persönlich würde PureVision zu Beginn, und das sage ich bewusst „zu Beginn“, nicht akzeptieren… ich möchte „sensorische Sicherheit“… ist ja jedem selbst überlassen… wenn sich über 10 Jahre vielleicht herauskristallisiert hat, was alles wie gut funktioniert, ändere ich auch u.U. die Meinung… da gehe ich mit Dominik konform, erstmal beobachten… weil zeigen wird es sich logischerweise bei allen erst müssen, was gut funktioniert…

  5. „# Davon 2,7 Millionen Kilometer mit aktiviertem Autopilot
    # 0 Unfälle
    # Zum Vergleich: mit dem alten Ansatz ein Unfall alle 8 Millionen Kilometer“

    Sprich, es braucht erstmal noch mind. 5,3 Millionen Autopilotkilometer, um überhaupt annähernd einen Vergleich zur alten Lösung zu haben…

    Sven, weißt du, wie lange sie für die 2,7 Millionen Autopilot-Kilometer zum Sammeln gebraucht haben? …um mir alle Links anzuschauen, brauche ich etwas Zeit 😃

    1. Meine Vermutung ist drei Wochen für die 2,7mio km, da Andrej die Zahlen im gleichen Atemzug genannt hat wie die Auslieferung der Autos ohne Radar seit Anfang Juni. Kurze Bierdeckel-Mathematik: bei 30k Autos sind die 2,7 Mio km bei 90km pro Auto im Kasten. Wie gesagt, nur locker aus der Hüfte geschossen.

      Und ja, man sollte noch ein wenig warten und Daten sammeln für nen brauchbaren Vergleich.

      Viel Spaß beim gucken 😋

    2. So genau steht das hier nicht, könnte aber auch mit den 24 Mio. Kilometer und 0 Unfällen im Vergleich zu den 8 Mio. km mit einem Unfall.
      Da bei den 2,7 explizit „mit AP“ steht.

      1. Wenn ich mir AP unterwegs bin und in eine komplexe Verkehrssituation komme, mache ich einen manuellen Brems-oder Lenkeingriff und der AP schaltet sich ab.
        Diese Statistik, 8 Mio km ohne Unfall, erfasst demnach garnicht nahezu 100% der potentiellen Unfälle?

        1. Guter Einwand… und wie misst man eigentlich „potenzielle“ Unfälle?

          Richtig spannend und aussagekräftig wird es erst werden, wenn Tesla größer gleich Level 3 freigibt, und die Fahrer nicht mehr die Verantwortung tragen und sich vom Verkehrsgeschehen abwenden können… vorher haben diese ganzen Statistiken wenig Aussagekraft, was die Sicherheit und Failrate des Systems angeht… erst wenn Tesla endlich die Verantwortung für sein „FSD“ übernimmt, wird es interessant…

          Aber dann kommen wir auch gleich zu dem Punkt, wie Tesla gegenüber den Behörden zur Zulassung beweisen will, dass und wie sicher Sie sind?! …weil gefahrene Kilometer unter „Fahrerverantwortung“ sollten hier meiner Meinung nach nicht zählen… sondern nur „echte“ autonome gefahrene Kilometer, wo das (Test-)Auto die volle Verantwortung hat/hatte… bleibt spannend…

          jm2c

          Edit: Typo

        2. Theoretisch kann man das auch bewerten, selbst wenn der Mensch fährt, mittels Shadowmode. Ich nehme an, dass hier dann auch die „Fails“ ausgewertet werden.
          Wenn Tesla belegen kann, dass der AP (auch im Shadowmode) einen gewissen Prozentsatz unterschritten hat, dann wäre es schon zulassungfähig.

          Ich frag mich eher, wer überprüft das? Bei dieser enormen Menge kann man nur wenige Stichproben machen oder weiß jemand, wie hier das Genehmigungsverfahren abläuft?

        3. Ja, die Frage stelle ich mir auch: Wer prüft das? …weil nur auf die vom Hersteller gelieferten Daten zu „vertrauen“, ist kein Prüfen… da müsste schon jemand die ganzen Videos sichten… und das ist zeitlich „unmöglich“…

          Der CEO von MobilEye hat das in einer Präsentation mal vorgerechnet… um zu beweisen, dass ein FSD-System ca. 1000 Mal besser ist als der Mensch, und das sollte ungefähr das Ziel sein, müssten 4 Millionen Teslas 1 Jahr lang fahren, und aufzeichnen, und jede Minute gesichtet werden… irgendwie so in dem Dreh… das YT-Video würde ich Notfalls finden zum selbst Nachschauen…

          Aber das Problem haben alle… wie „beweist“ man die Sicherheit seines Systems… und reicht 1 Menschenleben dafür 😃 …spannende Frage….

        4. Es müsste doch reichen, 4 Mio Teslas 1 Jahr lang mit FSD (mit oder ohne Shadow Mode) zu betreiben und nur Fahrer-Eingriffe sowie Unfälle erfassen. Warum sollte man sämtliche Videos sichten?

        5. das ließe sich ja manuell auswerten: Jeder AP Abbruch durch Eingriff des Fahrers wird geprüft – und immer dann, wenn aus Sicherheitsgründen abgebrochen wurde, zählt das Ereignis als „Fail“. Das dauert auf meinen Fahrten auf der AB genau bis zur nächsten Auffahrt: kommt dort von rechts ein neues Fahrzeug, das einfädeln will, steigt der AP voll in die Eisen, um ihn reinzulassen. Nach deutscher StVO falsch, denn ich habe Vorfahrt. Wer hier, wie der AP, voll bremst, haftet, wenn hinten einer draufkracht. Daran hat Tesla seit sage und schreibe 2,5 Jahren nichts geändert. Denn genau das war mein allererster Post auf TM im Jahr 2019. Damalige Antwort aus dem Forum: Geduld du haben musst, junger Padawan… (sinngemäß). Wieviele Unfälle auf 8 Mio Kilometer? Na, rund 8 Millionen wären ca realistisch… Für mich ist das Thema FSD/AP und erst recht pure Vision durch. Selbst wenn Tesla den Stand mit Radar jemals wieder hinbekäme, sie schaffen es nicht mal, dem System die Verkehrsregeln beizubringen – länderspezifisch natürlich. Robotaxis? No way. Wäre an der Zeit es auch den Anlegern ganz ehrlich zu sagen: das ist eine Sackgasse und pure Zeitverschwendung. Es gibt wirklich Wichtigeres – und darauf sollte sich Tesla fokussieren: 4680er so schnell wie möglich, so viele und so gut wie möglich, neue kleinere Modelle, etc pp Edit: Tipper

        6. Ich bin da zwiegespalten: ich bin gestern von der A7 abgefahren zum EDHF. Ca 20km Bundesstraße, alles mit AP, ohne nur einmal das Lenkrad zu rühren, außer bei den 2 Abbiegungen. Mit dem jüngsten Kartenupdate scheinen mir auch die plötzlichen Tempolimitänderungen (aus längst vergangenen Baustellen) weniger geworden zu sein.

          Trotzdem fehlt mir die Fantasie zu irgendetwas >Level 3, ob Vision oder LIDAR/Radar.

        7. Salopp formuliert sind wir in Deutschland, was die KI angeht, mindestens. zwei Generationen hinter Vision Only. Zum einen das was als Beta gerade unterwegs ist und auf YT zu sehen ist und dann nochmal von dem Beta stand zu VisionOnly.

          Allein den Sprung in USA zur Beta fand ich schon bemerkenswert

        8. Ja, US AP und FSD scheinen gelinde gesagt stiefmütterlich behandelt worden zu sein. Zu mindestens gab es ja aber jetzt endlich ein Kartenupdate auf 21er Stand. ABMW hätten dafür mal wieder solide Euros aufgerufen, und das Update in der Werkstatt eingespielt um dem Serviceagent die Gelegenheit zu geben dem Kunden noch irgendeinen Tinnef aufzuschwatzen.

  6. Transponder welche Daten mit Ort, Geschwindigkeit, Fahrtrichtung und eventuell anderen Daten an die umgebenden Fahrzeuge versenden wären durchaus sinnvoll als weitere Datenquelle. Aber auch Transponder Daten können abreißen und die Auswertung vor Probleme stellen.

    Würde mich jedoch nicht wundern wenn beides zusammen nochmals erheblich sicherer wäre. Transponder wären so teuer nun auch nicht mehr, auch wenn die Altfahrzeuge vermutlich nie nachgerüstet würden, auch wenn es sinnvoll wäre.

    1. Nur ne Frage: wenn man bereits mit Kameras und neuronalen Netzen mit hoher Genauigkeit die Dinge messen kann, dann würden die Transponder nur die Komplexität und Kosten erhöhen, oder? Plus, dass man sich evtl auf nen Standard einigen müsste

      1. Mit Car2x gibt es doch bereits einen Standard, der in der Lage ist, die angesprochenen Daten mit anderen Verkehrsteilnehmern auszutauschen.

      2. Kosten & Nutzen einzuschätzen, dafür fehlen uns die Daten um das seriös zu beantworten.

        Da wir lediglich vom Nahbereich sprechen, vermutlich weniger als einen Kreis von etwa 1km Durchmesser (die optischen Systeme sind aktuell bereits bei 180 m an der Grenze ihrer Reichweite angekommen), müssen erstmal die Hardware Kosten für solche Reichweiten und Fähigkeiten ermittelt werden. Software kommt nochmals oben drauf.

        Jenseits der optischen System Reichweite kann dann jedoch ebenfalls eine Verkehrslage ermitteln, bei Stau eröffnet das auch weitere Systemoptionen die sehr hilfreich sein könnten.

Comments are closed.