Tesla Autopilot vs. Systeme anderer Hersteller
Sehr interessant: "The best or nothing" gegen den "Prügelknaben"
Beste Antwort im Thema
Zitat:
@radio schrieb am 27. Februar 2020 um 06:51:50 Uhr:
............sei es durch Kinder, Ehefrau, mittleren Alterns oder mal wieder zu wenig geschlafen.
Dann solltest du dir eine Alternative zum fahren suchen.
Besonders wenn du zu wenig Schlaf hast. 🙂
4154 Antworten
Zitat:
Vollkommen unbrauchbar ist Boschs aktuelle CMOS Stereokamera (die aus dem Landrover). 1280*960 Punkte, recht üble CMOS Sensoren und 28 Grad Sichtfeld halte ich für nicht mehr zeitgemäss, zumal das System keine Aggregationsmöglichkeit weiterer Kameras bietet. Die wird als Wundermittel für alles verkauft, kann aber nichts so richtig. Ich hätte davon noch 4 Stück in einer Versuchsanordnung 😉
Damit die gleiche Auflösung wie Tesla deren Sensoren aufgrund der fehlenden RGB Fähigkeit auch eher nicht so dolle sind.
Der einzige technische Sinn von Stereokameras ist es auf einem bregenzten Sichtfeld (aktuell) ~ <= 50m direkte 3D Funktionalität zu bieten. Mit Lidar als Zusatzsensor entfällt diese Notwendigkeit vollständig.
Was soll den eine Stereokamera an Informationen bringen, die man nicht mit einer Kamera und Lidar hat?
Zitat:
@derJan82 schrieb am 15. Juli 2018 um 07:06:38 Uhr:
https://www.heise.de/.../...m-Nebel-besser-als-der-Mensch-4109539.htmlLIDAR im starken Nebel.
Das Neue ist nur dass man nun selbst den optimalst sehenden Menschen deutlich übertrifft, optische Sensoren hat man schon lange mit modernem Lidar unter diesen Bedingungen hinter sich gelassen.
Zitat:
@DanielWb schrieb am 15. Juli 2018 um 13:23:02 Uhr:
Zitat:
Vollkommen unbrauchbar ist Boschs aktuelle CMOS Stereokamera (die aus dem Landrover). 1280*960 Punkte, recht üble CMOS Sensoren und 28 Grad Sichtfeld halte ich für nicht mehr zeitgemäss, zumal das System keine Aggregationsmöglichkeit weiterer Kameras bietet. Die wird als Wundermittel für alles verkauft, kann aber nichts so richtig. Ich hätte davon noch 4 Stück in einer Versuchsanordnung 😉
Damit die gleiche Auflösung wie Tesla deren Sensoren aufgrund der fehlenden RGB Fähigkeit auch eher nicht so dolle sind.
Der einzige technische Sinn von Stereokameras ist es auf einem bregenzten Sichtfeld (aktuell) ~ <= 50m direkte 3D Funktionalität zu bieten. Mit Lidar als Zusatzsensor entfällt diese Notwendigkeit vollständig.
Was soll den eine Stereokamera an Informationen bringen, die man nicht mit einer Kamera und Lidar hat?
Verschiedene Blickwinkel und dadurch ist es möglich, auch die Länge eines Objektes vor dem Auto besser zu erfassen. Ist aber nur bedingt wichtig, denke ich. Mehr Vorteil fällt mir dann aber auch nicht ein.
Zitat:
@DanielWb schrieb am 15. Juli 2018 um 13:23:02 Uhr:
Was soll den eine Stereokamera an Informationen bringen, die man nicht mit einer Kamera und Lidar hat?
Nichts. Aber es kostet mit 820 EUR (Kamera, Lizenz und Computing Unit) erheblich weniger als andere Systeme und kann einfaches ACC und Spur erkennen.
Ähnliche Themen
Nun aber auch die Länge von Objekten lässt sich problemlos aus einem Lidar und einer Monokamera errechnen, wenn beide nicht auf der identischen Position sind - auch das ist keineswegs ein Plus der Stereokamera gegenüber Monokamera + Lidar.
Aus jedem Lidar Bild(~Messpunktecloud) lässt sich (vergleichsweise) problemlos ein 2D Bild zurückrechnen dass das Bild der 2. Stereokamera vollständig ersetzt (bis auf Farbe, die im Lidar Part fehlt) die evtl geringere Auflösung steht dafür einer nahezu perfekten Kanten und Flächenerfassung gegenüber.
Überlappendes Lidar mit Monoptik beinhaltet automatisch alle sinnvollen Funktionen eines Stereokamersystems, wenn die Sensoren räumlich getrennt sind.
Zitat:
@DanielWb schrieb am 15. Juli 2018 um 19:03:36 Uhr:
Nun aber auch die Länge von Objekten lässt sich problemlos aus einem Lidar und einer Monokamera errechnen, wenn beide nicht auf der identischen Position sind - auch das ist keineswegs ein Plus der Stereokamera gegenüber Monokamera + Lidar.
Was schlägst du vor? Aus einem monochromen 3D Bild mit geringer Auflösung vom LIDAR und einem farbigen 2D Bild der Kamera eine weitere Perspektive berechnen? Möglich vielleicht, aber bedenke, dass sich die Perspektiven nicht so weit unterscheiden können. Selbst wenn deine Kamera im linken und das LIDAR im rechten Aussenspiegel sitzt, kommst du auf rund 2m. Das macht nicht so viel aus. 3D aus einer Perspektive gibt dir ja dein LIDAR. Und auch ich denke wie du, dass die Länge des Objekts eher sekundär ist.
Die Kamera wird zum Anreichern des 3D Bildes mit Farben benutzt. Zudem für Verkehrszeichen, Markierungen und so weiter. Hierfür ist es bei einer 2D Kamera prinzipiell nicht schlecht, wenn diese eine ähnliche Perspektive wie das LIDAR aufweist. Das ist bei einem normalen Auto aber ohnehin gegeben und gibt es mit dem MFC400 auch in einem Bauteil. Porsche ist damit am Testen. Ganz zu klappen scheint es noch nicht. Die Low Range LIDAR sind eher etwas für Notbremssysteme. Auf der Autobahn werden die nicht viel helfen.
Im Idealfall hast du das 360 Grad ums Auto und dein LIDAR hat den gleichen vertikalen Abtastbereich wie die Kameras und ergänzt das mit einem Radar (zumindest nach vorne).
Interessant ist allerdings, dass einige Implementierungen (bspw. Conti) das LIDAR (3D HRES FLASH) nur nach vorne richten und trotzdem zusätzliche Lasersysteme (!) zur Kollisionsvermeidung nach vorne verbauen - und das obwohl sie durchaus Radarsystem hätten, die das auch und besser können sollten (bei Conti bspw. das 441, welches zwar schlechter als die systeme von Bosch ist, aber nun immerhin auch Elevationsmessungen kann).
Selbst die Hersteller der Sensoren scheinen momentan etwas unsicher zu sein. Ich werde im September 8 Tage bei der DARPA verbringen und dort auf den aktuellen Stand gebracht - allerdings eher aus Sensor- als aus AP Sicht. Bisher hatten die immer recht moderne Spielzeuge. Letztes Jahr war ich auch da. Ich denke da gibt es einiges neues...
Das schlage ich nicht vor das sind doch die Systeme die aktuell am besten funktionieren z.b. Vayavision auf PX2/Driveworks.
RGBD Daten mit late sensor fusion vor der AI funktioniert nunmal richtig gut ( gut wie immer halt relativ gesehen 😁 )- und solange nichts besseres kommt ist das halt vermutlich aktuell die Referenz, wenn es darum geht ein 3D Umweltmodell mit klassifizierbaren Objekten zu erzeugen.
Radar ist zumindest bei allen RGBD Ansätzen für driverless Teil doch komplett rausgefallen weil es die NN Ergebnisse eher verschlechtert hat, Radar ist eben Makro statt Micro - dynamisch fokusierbares (Multi-) Lidar ist da halt sehr viel besser. Oder gibt es noch ein driverless Modell das Radar aktiv nutzt zur Klassifizierung? Radar ist doch eher was für von der Umweltmodellierung unabhängige Not und Assistenzsysteme.
Mit was willst Du denn die Klassifzierungs AI füttern, wenn nicht mit RGBD basierten Daten?
Zitat:
@DanielWb schrieb am 16. Juli 2018 um 16:55:07 Uhr:
Das schlage ich nicht vor das sind doch die Systeme die aktuell am besten funktionieren z.b. Vayavision auf PX2/Driveworks.
Naja, ich habe von denen - nachdem die die Kohle (Anfang 2017?) einkassiert haben - wenig gehört. Der Ansatz von denen war ja damals, dass sie keine 360 Grad Abdeckung möchten, weil das nicht notwendig sei und man daher lieber die Kosten auf ein paar hundert Dollar senken wollte. Diesen Ansatz fand ich damals schon nicht besonders elegant (maximal ein Zwischenschritt) und bin auch heute wenig davon überzeugt - oder hat sich an der Grundidee etwas getan? Konkurriert haben die damals meines Wissens insbesondere mit dem VLS-128, welcher der beste Sensor auf dem Markt war. Mit 68.000 USD (in der höchsten Rabattstufe) und faktisch keiner Lieferbarkeit aber natürlich nicht so super interessant für ein Mittelklassefahrzeug. Zudem hat Velodyne ja Waymo verloren, die ja unbedingt Solid State wollen (das bei ihrem eigenen Sensor aber IMHO auch nicht hinbekommen haben). Der Sensor von Waymo soll besser sein, aber da bekommst du momentan nur wenige Infos.
Zitat:
@DanielWb schrieb am 16. Juli 2018 um 16:55:07 Uhr:
RGBD Daten mit late sensor fusion vor der AI funktioniert nunmal richtig gut
Hast Du da Beispiele aus der Praxis? Ein Auto, dass mit 100 km/h über die Autobahn oder den Highway fährt, Samples aus der Innenstadt - etwas in der Art? Von Velodyne VLS128 hätte ich Captures von der Nordschleife mit meinem Kollegen am Steuern und der Berner Innenstadt im Angebot (nur LiDAR, kein RGB). Da sieht man sehr gut, dass das in den Innenstadt fantastisch funktioniert, bei 200 km/h aber total zu vergessen ist. Ich hätte auch noch ein Sample bei verschneiter Strasse und bei starken Schneefall.
Zitat:
@DanielWb schrieb am 16. Juli 2018 um 16:55:07 Uhr:
Radar ist zumindest bei allen RGBD Ansätzen für driverless Teil doch komplett rausgefallen weil es die NN Ergebnisse eher verschlechtert hat, Radar ist eben Makro statt Micro - dynamisch fokusierbares (Multi-) Lidar ist da halt sehr viel besser.
Das ARS441 kommt bspw. bei Conti zum Einsatz. Bei deutschen Autobahngeschwindigkeiten ist ein Radar einfach relativ schwer zu schlagen. Und sonst nehme ich gerne das Sample mit dem LiDAR bei nur 100 km/h. In Deutschland wird ja ab und an schneller gefahren.
Zitat:
@DanielWb schrieb am 16. Juli 2018 um 16:55:07 Uhr:
Mit was willst Du denn die Klassifzierungs AI füttern, wenn nicht mit RGBD basierten Daten?
Ich will mich jetzt nicht zu weit aus dem Fenster lehnen, aber die VLS128 Daten würden bis rund 60km/h wahrscheinlich durchaus für eine Klassifizierung ausreichen. Ganz einfache RGB Kameras würden für Spuren, Ampeln und Verkehrsschilder den Rest übernehmen können. Da sehe ich weniger das Problem. Dass das nur bei gutem Wetter, geringen Geschwindigkeiten, geringen Steigungen und gefällen und so weiter sauber funktioniert (und auch nur dann, wenn nicht zu viele andere LiDARs aktiv sind), habe ich ja ausreichend häufig ausgeführt.
Auf irgendwelche Laborexperimente und Daten stütze ich mich bei sowas auch ungerne. Wenn Du also Samples hast: Ich habe grosses Interesse.
Naja bis Level 4/5 Systeme den Massenmarkt erreichen (wenn sie das je schaffen) gehe ich von frühestens 202x mit hohem x eher 203x oder später aus. Auch wenn es waymo und Co gibt das ist sicher kaum massenmarktkompatibel.
Bereits auf dem Markt heute befindliche Sensoren wären für den Zeitpunkt der Level 4 und 5 Masseneinführung eher Altmetall. Daher ist für mich das was man als engineering samples bekommt oder evtl auch nur als PoC seine Funktionalität belegt hat relevant - also das was technisch umsetzbar ist.
Dass sich Lidar stören ist etwas das für heute erhältliche Lidar gilt - es ist aber kein grundsätzliches technisches Problem - natürlich werden - wenn Level 4/5 massentauglich wird - bzw werden sollte - zwangsweise eine Signalcodierung wie DS/OCDMA notwendig sein - aber die ist machbar, das ist keine Technologie die man erst erfinden müsste und die ist auch für Lidar möglich - zumindest für Solid State Lidar
In welchem Zeitraum erwartest Du denn Level 5 Massentauglichkeit wenn du da heutige schon auf dem Markt verkaufte Sensorik als relevante Grundlage nimmst?
Praxistests sind doch noch gar nicht mehr so sinnvoll - Level 4/5 Tests finden doch inzwischen zu 99% in Simulationen statt, weil diese in der Praxis fahren doch nur bedingt sinnvolle Daten liefert - man deckt mit Praxisfahrten fast nur immer die gleiche Standardsituation ab, also das, was man in einer Simulation in 5 Minuten abhakt. In der Simulation kann man eben auch Sensorik simulieren, wenn man ausreichend sicher ist die erreicht in den nächsten X Jahren Serienreife um z.B. notwendige Mindestleistung zu bestimmen.
Zitat:
@DanielWb schrieb am 18. Juli 2018 um 11:33:10 Uhr:
Naja bis Level 4/5 Systeme den Massenmarkt erreichen (wenn sie das je schaffen) gehe ich von frühestens 202x mit hohem x eher 203x oder später aus. Auch wenn es waymo und Co gibt das ist sicher kaum massenmarktkompatibel.
Ich weiss gar nicht was Du mir hier versuchst in den Mund zu legen. Ich habe NIEMALS gesagt, dass wir mit der heutigen Technik Level 5 erreichen. Eher habe ich oftmals das gegenteil behauptet.
Zitat:
@DanielWb schrieb am 18. Juli 2018 um 11:33:10 Uhr:
Daher ist für mich das was man als engineering samples bekommt oder evtl auch nur als PoC seine Funktionalität belegt hat relevant - also das was technisch umsetzbar ist.
Du hast Vayavision als System genannt, dass "aktuell am besten funktioniert". Wo funktioniert das? Nur im Labor oder auf der Strasse? Für Level 5 geeignet? Hast Du Testdaten? Leider gehst Du auf Fragen ja grundsätzlich nicht ein sondern beginnst in Deinen Abhandlungen ja gerne von vorne. Ein Youtube Video ist nicht die Realität 😉
Zitat:
@DanielWb schrieb am 18. Juli 2018 um 11:33:10 Uhr:
Dass sich Lidar stören ist etwas das für heute erhältliche Lidar gilt - es ist aber kein grundsätzliches technisches Problem - natürlich werden - wenn Level 4/5 massentauglich wird - bzw werden sollte - zwangsweise eine Signalcodierung wie DS/OCDMA notwendig sein - aber die ist machbar, das ist keine Technologie die man erst erfinden müsste und die ist auch für Lidar möglich - zumindest für Solid State Lidar
Siehst Du: Hier kommt dann der Unterschied zwischen Theorie und Praxis zum Einsatz: Die Signalcodierung klappt im Labor auch heute gut. Bei starkem Regen, Nebel oder Schnell werden die Daten aber oftmals verfälscht. Ein mit Sicherheit lösbares Problem - natürlich werden auch hier die Systeme besser. Aber das wirst Du nicht bei ein paar Tests sehen können, die die Hersteller publizieren. Das mit den Herstelleraussagen mache ich schon ein paar Jahre mit. Ich verlasse mich da nur noch auf neutrale Tests von Experten und realen Bedingungen. Das kann ein sample sein - okay. Aber bitte kein PoC, der etwa 1m^3 zu gross ist wie das spätere (in der Pipeline stehende) Endprodukt und mit Stickstoff gekühlt werden muss (aktuelles Beispiel aus meiner Praxis). In solche PoC's investiere ich nicht mein Kapital - und viele andere auch nicht. Das muss mehr oder weniger seriennah daherkommen.
Zitat:
@DanielWb schrieb am 18. Juli 2018 um 11:33:10 Uhr:
In welchem Zeitraum erwartest Du denn Level 5 Massentauglichkeit wenn du da heutige schon auf dem Markt verkaufte Sensorik als relevante Grundlage nimmst?
Das kommt auf den Test für L5 an. Die volle L5 Kompatibilität gemäss Spezifikation ("also jede Situation fehlerfrei bewältigen können, die ein durchschnittlicher Fahrer bewältigen kann"😉 vielleicht 2050. Das schliesst nämlich den Polizisten mit ein, der ans Fenster des Fahrzeugs heranstritt und sagt, dass man bitte über den Hof der Tankstelle fahren solle, um den Unfall zu umfahren. Für den durchschnittlichen Fahrer ist das kein Problem. L5 Autobahnpiloten erwarte ich innert 5 Jahren, L3 vielleicht 2020.
Zitat:
@DanielWb schrieb am 18. Juli 2018 um 11:33:10 Uhr:
Praxistests sind doch noch gar nicht mehr so sinnvoll
Ohne Tests in der Praxis geht's leider nicht. Zumindest die Sensoren wirst Du da testen und erproben müssen - und nicht im Reinraum. Die Algorithmen kannst Du dann später verfeinern wie Du lustig bist - auch ohne (oder mit sehr wenigen) Praxistests.
Natürlich geht das erstmal nur in der genauso wie dort heutzutage auch Motoren und Fahrzeuge komplett konstruiert werden.
Zitat:
@DanielWb schrieb am 19. Juli 2018 um 10:37:41 Uhr:
Natrlihc gehte das erstmal nur in der Simulation
Also meinst du, um ganz konkret zu sein, mit:
Zitat:
Das schlage ich nicht vor das sind doch die Systeme die aktuell am besten funktionieren z.b. Vayavision auf PX2/Driveworks.
Dass deren Simulationen bei denen am besten funktioniert? Mit was hast Du denn verglichen?
Zitat:
@derJan82 schrieb am 19. Juli 2018 um 09:46:34 Uhr:
Ich weiss gar nicht was Du mir hier versuchst in den Mund zu legen. Ich habe NIEMALS gesagt, dass wir mit der heutigen Technik Level 5 erreichen. Eher habe ich oftmals das gegenteil behauptet.
Stimmt, das behaupte nämlich ich immer. Zumindest theoretisch müsste man mit zwei (drehbaren) Kameras und genug Software Level 5 implementieren können. Zumindest Menschen schaffen das, was als Beweis dient, dass es möglich ist. Und die haben auch kein Radar oder Lidar. Alles funktioniert mit passiven optischen Sensoren und "ein bisschen" Berechnung.
Nachdem drehbare Kameras unpraktisch sind und zu temporären toten Winkeln führen, werden eben 8 Kameras gleichzeitig in alle Richtungen verbaut.
Es kann sich nur noch um Tage (Elon Musk Tage) handeln, bis ein AP2 Tesla vollautonom von LA nach NYC fährt.
Zitat:
@MartinBru schrieb am 19. Juli 2018 um 13:30:17 Uhr:
Stimmt, das behaupte nämlich ich immer. Zumindest theoretisch müsste man mit zwei (drehbaren) Kameras und genug Software Level 5 implementieren können. Zumindest Menschen schaffen das, was als Beweis dient, dass es möglich ist.
Theoretisch hast du recht - wenn wir mal den Polizisten, der dem Fahrer etwas erklären will, aussen vor lassen. Dann brauchst du mindestens noch ein Mikrofon. Wie weit wir wirklich von SAE Level 5 weg sind zeigt sich aber daran, dass alle Hersteller von Car2X sprechen, obwohl das zum Erfüllen von Level 5 gar nicht notwendig wäre. Die Systeme sind einfach noch so schlecht, dass man gar keine andere Option sieht - denn man bezeichnet das ja nicht als Addon, sondern als notwendig.
Interessant sind dann auch die alten veröffentlichungen der SAE, bspw. "Autonomous Driving - A Practical Roadmap", die im Oktober 2010 veröffentlicht wurde. Darin heisst es dann bspw:
Zitat:
humans have no other [als das Angeben eines Ziels] involvement in driving a level 5 car – nor can they intervene.
Stell Dir das mal vor: Du müsstest beim Model S das Bremspedal und den Lenker blockieren. Mittlerweile findest Du im Standard (J3016 vom Juni 2018 auf Seite 17) Dinge wie:
Zitat:
The in-vehicle users of a level 5 ADS-equipped dual-mode vehicle are passengers whenever the level 5 ADS is engaged.
Und bei einer Konferenz 2016 in den USA hat man mir dann erklärt, dass das ganz anders funktioniert: Natürlich hat man Gas, Bremse und Lenker (das wäre auch 2010 so angedacht). Wenn man aber eins von den drei betätigt, deaktiviert sich das System. Trotzdem werden fleissig weiter "Prototypen" (IMHO reine Showcars) veröffentlicht, die eher an ein Wohnzimmer erinnern.
Der ganze Standard zeigt im Grunde genommen wie sehr man Level 5 möchte und wie unfassbar weit man weg ist. Dazu könnte ich mich tagelang auslassen.
Ein weiteres gutes Beispiel sind die Umweltfaktoren: Level 5 muss ja überall funktionieren. Die SAE erklärt das bspw. so:
Zitat:
"Unconditional/not ODD-specific” means that the ADS can operate the vehicle under all driver-manageable road conditions within its region of the world. This means, for example, that there are no design-based weather, time-of-day, or geographical restrictions on where and when the ADS can operate the vehicle. However, there may be conditions not manageable by a driver in which the ADS would also be unable to complete a given trip (e.g., white-out snow storm, flooded roads, glare ice, etc.) until or unless the adverse conditions clear. At the onset of such unmanageable conditions the ADS would perform the DDT fallback to achieve a minimal risk condition (e.g., by pulling over to the side of the road and waiting for the conditions to change).
Jeder, der mal im Winter auf einer Nicht getreuten Autobahn unterwegs war und Glatteis erleben durfte (auch ich habe diverse Male auf die Streumaschine warten müssen, weil ich die 4 Grad Steigung bei uns nicht mehr auf der Autobahn geschafft habe), weiss ja, wie plötzlich das kommt und wie schwer ein "manueller DDT Fallback" (möglichst nicht in die Leitplanke rutschen und kontrolliert zum stehen kommen) ist. Dann zu programmieren dass die Kiste auf den Streuwagen wartet und dann kurz abwartet, bis das Eis schmilzt: Wird alles sehr spannend. Das Gleiche gilt natürlich auch für noch wesentlich komplexere Szenarien.
Zitat:
Es kann sich nur noch um Tage (Elon Musk Tage) handeln, bis ein AP2 Tesla vollautonom von LA nach NYC fährt.
Aber bitte nicht nur Highway. Ich hätte das ganze gerne bei gewöhnlichem Schnee (bei dem du noch lässig fahren kannst), mit Autofähren, Strassensperrungen, die nicht im Navi sind, , Durchfahrten durch die Innenstadt inkl. Parkhäusern und kleine Ausflüge über die besonders gut ausgebauten Nicht-Highways in Nevada. Wenn er die hälfte dessen schafft: Respekt. Wenn nicht, ist das keine volle Autonomie.
Zitat:
@derJan82 schrieb am 19. Juli 2018 um 14:16:44 Uhr:
Zitat:
Es kann sich nur noch um Tage (Elon Musk Tage) handeln, bis ein AP2 Tesla vollautonom von LA nach NYC fährt.
Aber bitte nicht nur Highway. Ich hätte das ganze gerne bei gewöhnlichem Schnee (bei dem du noch lässig fahren kannst), mit Autofähren, Strassensperrungen, die nicht im Navi sind, , Durchfahrten durch die Innenstadt inkl. Parkhäusern und kleine Ausflüge über die besonders gut ausgebauten Nicht-Highways in Nevada. Wenn er die hälfte dessen schafft: Respekt. Wenn nicht, ist das keine volle Autonomie.
Naja, fairerweise hat Elon Musk nicht gesagt, das dort ein Level 5 System fahren wird, den Level hat er nicht genannt. Und das sich Tesla für diese Tour den einfachsten Weg aussucht, könnte ich ihnen nicht verübeln und finde es im Moment auch nachvollziehbar. Auch fürs Aufladen wird der Tesla sicherlich noch auf menschliche Hilfe angewiesen sein, aber fände ich auch OK. Das sie es unter oben genannten Bedingungen hinbekommen, glaube ich gerne.
Die Tour haben sie, wenn ich mich recht erinnere, auf 2019 verschoben, oder?