Zum Inhalt springen
Morbo

Tesla Inc. (TSLA)

Empfohlene Beiträge

Chips
Am 4.5.2019 um 19:21 von Dandy:

...

Was man für die Vernetzung und Datenverarbeitung aber braucht ist viel Rechenleistung und Speicher, und zwar im Auto wie auf Servern. Außerdem benötigt man die Daten von möglichst vielen Fahrzeugen als Grundlage für den Lernalgorithmus. Letzteres hat Tesla eben nicht, da die Flotte viel zu klein ist. Große Hersteller sind da klar im Vorteil. Langfristig vermute ich, dass es standardisierte Schnittstellen und erzwungenen Datenaustausch zwischen allen Herstellern geben muss, bevor das wirklich reibungslos und zuverlässig funktioniert mit der autonomen Fahrerei. Von den benötigten Algorithmen, den versicherungstechnischen und nicht zuletzt ethischen Fragen mal ganz abgesehen. Ich würde mich nicht wundern, wenn echtes autonomes fahren auf allen Wegen, in allen Situation komplett ohne manuellen Eingriff durch Menschen, nicht mehr zu meinen Lebzeiten kommen wird (bin ungefähr 40). Die Möglichkeiten der KI werden momentan maßlos überschätzt. Schließlich gibt es diese Disziplin nicht erst seit wenigen Jahren, sondern schon seit Ewigkeiten und die großen Durchbrüche seitdem halten sich sehr in Grenzen. Jetzt redet halt jeder darüber und plötzlich sollen denkende Maschinen kurz vor dem Durchbruch stehen? Wunschdenken von Ahnungslosen, nicht mehr. Nur eine weitere technische Modesau, die durch's globale Dorf getrieben wird. Tesla nutzt das einfach nur für seine Zwecke, um von einer bevorstehenden Pleite abzulenken.

 

Dieser Artikel von Heise (leider Paywall) erklärt sehr schön, wie weit man bei dem Thema wirklich ist und wie weit man eben noch längst nicht ist. Das was heute landläufig als KI bezeichnet wird, ist viel eher der Mustererkennung zuzurechnen. Die Struktur von echter Intelligenz, wie sie im menschlichen Gehirn stattfindet, ist mitnichten verstanden, geschweige denn künstlich umgesetzt. Wohlgemerkt sind das Aussagen ausgewiesener Experten dieser Disziplin. Das hat auch eine philosophische Komponente: Kann eine (wahre) Intelligenz das Wesen derselben überhaupt begreifen und künstlich replizieren? Der Beweis dazu muss erst noch erbracht werden. Fakt ist jedenfalls, dass das menschliche Gehirn auf ganz andere Weise funktioniert als es die heute bekannten Algorithmen der sogenannten KI tun. Von der schieren "Speichermenge" und der enormen Effizienz des menschlichen Gehirns mal ganz abgesehen.

Also nach meinem Verständnis arbeitet die Mustererkennung des maschinellen Lernens genauso wie die des Menschens. Wie bringt sich bzw. wie bringt man einem Kind bei, was ein Auto ist und was nicht? Indem man einem Kind ein Bild oder ein echtes Auto zeigt bzw.ein Set von Autos. Das Kind fragt dann, ob ein Ding ein Auto sei und bekommt positives oder negatives Feedback und lernt somit. Maschinelles Lernen funktioniert genauso. Natürlich bedeutet das auch, dass reine Mustererkennung natürlich nicht die "echte Intelligenz" eines Menschens abbildet. 

Wie im Artikel beschrieben (yeah, Abo abgeschlossen :D ), hängt Vieles von dem Datenset ab, mit dem man den Algorithmus speist. Sorry, aber das ist bei einem Kind nicht anders. Wenn du einem Kind nur gelbe Autos zeigst, könnte das Kind die Farbe "Gelb" als prägendes Merkmal eines "Autos" interpretieren und ein blaues Auto möglicherweise nicht als Solches erkennen. Jedoch ist es wahrscheinlich, dass das Kind andere Merkmale als prägender ansieht wie zB. die 4 Reifen. 

Man muss sich vergegenwärtigen, wo IT gut ist. Sie kann stupide Tätigkeiten wahnsinnig schnell abarbeiten. Zur Mustererkennung benötigt man also eine große Datenmenge, die dann aber eben wahnsinnig schnell abgearbeitet werden kann. Einem Kind braucht man nicht 1Mio. Autos zeigen, bis es kapiert. Aber das Kind könnte auch gar nicht so viele Autobilder anschauen. 

 

Dass die Algorithmen Fehler machen, ist so. Menschen tun das auch. Keiner kann mir erzählen, dass Strafrichter in den USA bzgl. der Hautfarbe neutral wären. Und wie schon gesagt: Wenn der Alrgorithmus Menschen schwarzer Hautfarbe als Gorillaz interpretieren oder Männer in Küchen als Frauen, dann nur, weil die Datenmenge falsch ist. 

 

Zurück zum Thema selbstfahrendem Auto. Hier hat man meiner Ansicht nach den Vorteil, dass es eine relativ neutrale Datenmenge gibt (hoffe ich zumindest). Man wird nicht nur Daten von Verkehrssündern haben oder Fahrern, die immer ein hohes Risiko eingehen. Deswegen funktioniert autonomes Fahren auch schon relativ gut. Das Problem sind die Einzelereignisse. zB. eine anders angeordnete Baustellensituation oder ein Faschingsumzug. (als Beispiel, kann auch sein, dass so etwas gar kein Problem darstellt). 

Nach meinem Empfinden ist man da aber schon insofern weit, dass es ja nicht sein muss, dass autonomes Fahren perfekt ist. Es muss nur die menschliche Fähigkeit übertreffen, denn auch Menschen machen Fehler oder haben menschliche Probleme wie zB. die menschliche Reaktionszeit. Wenn Maschinen besser sind als Menschen, könnte man sie auch einsetzen. 

 

Die Ethik wird jedoch noch Umstand vieler Diskussionen sein. Also der Klassiker: Kind oder Oma erfassen, wenn es nicht anders geht. Ich denke, das kann alles deutlich verzögern. Man muss hier aber auch sagen, dass wir das aus der deutschen Perspektive sehen. German Angst. In Europa ist selbst die Google Steet View Karte noch ein weißer Fleck. Da sind die Amis nicht so technlogiefeindlich. 

 

Ich hoffe, Elon Musk hat recht, dass es nächstes Jahr Robotaxis gibt, aber ich denke, soweit sind wir noch nicht. Ich denke auch, dass das noch ein paar mehr Jährchen dauern wird. Aber interessantes Thema

Diesen Beitrag teilen


Link zum Beitrag
Systemrelevant
· bearbeitet von Systemrelevant

Der Unterschied zwischen Mensch und Maschine ist aber, dass der Maschine keinerlei Fehler zugestanden wird. 

FSD auf abgesperrten, für Menschen nicht zugängliche Straßen außer an Haltestellen um ein- und auszusteigen kann ich mir vorstellen. Auf den Straßen wie wir sie heute kennen halte ich das für beinahe ausgeschlossen. Wen würde es wundern wenn sich nach den ersten Personenschäden radikale Gegenbewegungen formieren würden, die die Fahrzeuge entweder beschädigen oder z. B. Fahrbahnmarkierungen so manipulieren, dass die Fahrzeuge massenweise gegen Bäume gelenkt werden und da sind wir wieder an dem Punkt, dass die Dinger vllt gut Muster erkennen können aber weit weg von intelligent sind. Und z. B. eben deswegen gehe ich davon aus, dass ein kompletter Umbau der Infrastruktur, des Straßennetzes notwendig ist der die Variablen für das autonome Fahrzeug auf nahe 0 senkt.

Diesen Beitrag teilen


Link zum Beitrag
Stefaaan
· bearbeitet von Stefaaan
vor 14 Stunden von reko:

Ich fürchte ISO 26262 führt bei neuronalen Netzwerken nicht weit. Das neuronale Netzwerk mag ja korrekt implementiert sein. Aber was ist mit dem Anlernen?

2018/04/Functional_Safety_beyond_ISO26262_for_Neural_Networks__Exida__Florian_ADM5.pdf

Dazu braucht man z.B. einen Lidar Sensor mit eigener unabhängiger Auswertung der das Ergebnis der Auswertung der optischen Kamera verifiziert.


Challenges in applying the ISO 26262 for driver assistance systems, 28_Spanfelner.pdf

 

Richtiger Hinweis und sehr gute Links. Die ISO hilft bei probabilistischen Systemen nicht, aber man darf nicht den Schluss ziehen, dass die ISO für autonomes Fahren in Gänze damit keine Relevanz hat.

 

Man muss nicht unbedingt die Sensoren in zwei Pfade partitionieren, kann auch in beiden Pfaden durch Sensorfusion eine höhere Güte der Inputs erzeugen und dann das eigentliche Probleme diversitär lösen. Das nächste Problem: die Lösungen können beide sicher aber unterschiedlich sein.

Diesen Beitrag teilen


Link zum Beitrag
Dandy
vor einer Stunde von Chips:

Also nach meinem Verständnis arbeitet die Mustererkennung des maschinellen Lernens genauso wie die des Menschens. Wie bringt sich bzw. wie bringt man einem Kind bei, was ein Auto ist und was nicht? Indem man einem Kind ein Bild oder ein echtes Auto zeigt bzw.ein Set von Autos. Das Kind fragt dann, ob ein Ding ein Auto sei und bekommt positives oder negatives Feedback und lernt somit. Maschinelles Lernen funktioniert genauso. Natürlich bedeutet das auch, dass reine Mustererkennung natürlich nicht die "echte Intelligenz" eines Menschens abbildet. 

Wie im Artikel beschrieben (yeah, Abo abgeschlossen :D ), hängt Vieles von dem Datenset ab, mit dem man den Algorithmus speist. Sorry, aber das ist bei einem Kind nicht anders. Wenn du einem Kind nur gelbe Autos zeigst, könnte das Kind die Farbe "Gelb" als prägendes Merkmal eines "Autos" interpretieren und ein blaues Auto möglicherweise nicht als Solches erkennen. Jedoch ist es wahrscheinlich, dass das Kind andere Merkmale als prägender ansieht wie zB. die 4 Reifen. 

Intelligenz ist aber viel mehr als Mustererkennung. Die Frage, was mit den erkannten Mustern im Hintergrund passiert, wie sie verarbeitet und abgespeichert werden, ist der große Unterschied. In dem Artikel wird ja von einem Experten erklärt, was man von der Funktionsweise des Gehirns immer noch nicht weiß und inwiefern es sich möglicherweise von maschinellem "Lernen" unterscheidet. Es gibt durchaus Zweifel, dass man noch in diesem Jahrhundert überhaupt etwas ähnliches wie das menschliche Denken nachahmen können wird und das sagen nicht irgendwelche Ingenieure von Tesla sondern diejenigen, die sich schon viel länger und in aller Tiefe mit dem Thema beschäftigen. Die Forschung dazu gibt es schließlich schon viel länger als sich US-Unternehmen damit brüsten. Übrigens stammen viele der Grundlagen aus Europa und nicht den USA. Die trommeln nur viel lauter.

 

Immer wenn Techniker (oder solche die es werden wollen, wie Musk) die Fähigkeiten des menschlichen Körpers/Wesens unterschätzen werde ich skeptisch, denn letztlich ist es dieser menschliche Körper selbst, der den Technikern ihre Fähigkeiten gibt. Beim künstlichen Nachbau desselben durch denselben ist eine gehörige Portion Demut angebracht. 

 

Egal, zurück zu Tesla. Für autonomes Fahren braucht es auch nicht unbedingt menschliche Intelligenz sondern sehr viele Daten und gute Sensoren, behaupte ich mal. Egal ob mit "echter KI" oder ohne, benötigt man sehr viel Technik um das zu bewerkstelligen. Die menschliche Sensorik (Sehen, Hören etc,) wird hier auch massiv unterschätzt. Da geht es nicht nur um das Bild selbst, sondern um die Verarbeitung desselben, der Tiefenwahrnehmung, Geschwindigkeitseinschätzung etc.

 

Zitat

Dass die Algorithmen Fehler machen, ist so. Menschen tun das auch. 

Das ist absolut richtig und in Form von Assistenzsystemen wird es auch zu deutlich erhöhter Sicherheit im Verkehr führen, keine Frage und restlos positiv. Bei einem vollautonom fahrenden Fahrzeug werden aber nunmal ganz andere Maßstäbe als an den Menschen herangezogen. Der Mensch handelt nun mal eigenverantwortlich, eine Maschine nicht. Die Begründung, die Maschine mache in weniger Fällen Fehler als der Mensch wird nicht ausreichen, denn dann wird die Verantwortlichkeit zwischen Hersteller, Zulieferer, Versicherung und Fahrzeughalter zu klären sein. So langsam wie die Mühlen hierzulande mahlen (Elektroroller sind bei uns bspw immer noch nicht erlaubt), wird alleine das Jahrzehnte dauern, bis die Rechtslage abschließend geklärt ist. Alle Parteien werden aber letztlich auf ein minimales Fehlerpotenzial pochen, inklusive der Nachweisbarkeit. Der Mensch ist dabei kein Maßstab.

Zitat

Wenn ich unsere Automotive Prozessoren sehe, die wir entwickeln lassen, da wird um jedes MB RAM und ROM  kostenmässig gefeilscht.

Nochmal zurück dazu: Das ist eher ein Thema für klassische Embedded Systeme bei denen der Speicher integriert ist. Das reicht nur für geringe bis mittlere Rechenleistung. Da ist die Testzeit zwar ein Kostenfaktor, aber eher im Centbereich und nur für schon fertige Designs (sonst wäre es günstiger den Speicher einfach aus dem Chip rauszulassen). Das ist eher was für die Erbsenzähler im Nachhinein. Für Systeme mit höherer Rechenleistung greift man eigentlich immer auf externe Speicher zu. Sobald komplexe Funktechniken und Protokolle im Spiel sind, wie bspw. 5G und entsprechend datenhungrige Anwendungen dahinter, ist integrierter Speicher nicht mehr der richtige Weg. Deshalb bin ich auch so bullish was die wenigen verbliebenen Speicherhersteller angeht, weil es beim Trend zu immer mehr Rechenleistung in immer mehr Endgeräten auch den Trend zu mehr (externen) Speicher gibt. Micron zum Beispiel macht schon heute gutes Geld im Automotive Business. Das erstreckt sich aber letztlich auf so ziemlich alle Lebensbereiche von uns. Autos sind da nur ein relativ kleiner Teil.

 

Dass es sich bei Tesla um ganz andere Dimensionen als den Centbereich handelt, kann man schon an dieser Meldung erkennen:

 

Zitat

 U.S. trade officials rejected Tesla Inc’s bid for relief from President Donald Trump’s 25-percent tariffs on the Chinese-made Autopilot “brain” of its Model 3 and other electric vehicles,

Wenn Tesla für seine zentrale Recheneinheit schon eine Ausnahme von den Zöllen erbeten hat, dann handelt es sich hier ganz sicher nicht um einen Centartikel. Da wird jede Menge Speicher und Silizium enthalten sein, welche die Kosten des Moduls in die Höhe treiben.

Diesen Beitrag teilen


Link zum Beitrag
Gast240416

Quelle

 

Keine Ausnahme für Tesla!

 

Die US-Handelsbehörde hat Zollerleichterungen auf den in China hergestellten Autopiloten "Brain" für Teslas Model 3 abgelehnt. Ein entsprechender Antrag Teslas auf Verzicht der von US-Präsident Donald Trump in Reaktion auf Pekings Industrieprogramm "Made in China 2025" erhobenen Zölle von 25 Prozent sei von der Behörde zurückgewiesen worden, heißt es in Dokumenten der US-Handelsbehörde (USTR), die Reuters einsehen konnte.

Diesen Beitrag teilen


Link zum Beitrag
Michalski
· bearbeitet von Michalski
vor 4 Stunden von Chips:

Also nach meinem Verständnis arbeitet die Mustererkennung des maschinellen Lernens genauso wie die des Menschens.

 

Genau das ist der Trugschluß, dem hierbei viele unterliegen, denn das Gegenteil ist der Fall. Hier mal ein Beispiel, was Machine Learning lernt und wie leicht es zu beeinflussen ist:

 

imagenet_16_images_horizontal_0.png

 

vor 4 Stunden von Chips:

Wie bringt sich bzw. wie bringt man einem Kind bei, was ein Auto ist und was nicht? Indem man einem Kind ein Bild oder ein echtes Auto zeigt bzw.ein Set von Autos. Das Kind fragt dann, ob ein Ding ein Auto sei und bekommt positives oder negatives Feedback und lernt somit. Maschinelles Lernen funktioniert genauso. Natürlich bedeutet das auch, dass reine Mustererkennung natürlich nicht die "echte Intelligenz" eines Menschens abbildet. 

Wie im Artikel beschrieben (yeah, Abo abgeschlossen :D ), hängt Vieles von dem Datenset ab, mit dem man den Algorithmus speist. Sorry, aber das ist bei einem Kind nicht anders. Wenn du einem Kind nur gelbe Autos zeigst, könnte das Kind die Farbe "Gelb" als prägendes Merkmal eines "Autos" interpretieren und ein blaues Auto möglicherweise nicht als Solches erkennen. Jedoch ist es wahrscheinlich, dass das Kind andere Merkmale als prägender ansieht wie zB. die 4 Reifen.

 

So funktioniert es gerade nicht. Wenn ein Mensch gelernt hat, was ein Auto ist, erkennt er es intuitiv. Auch wenn er z.B. nur einen Teil sieht und der Rest verdekt ist, wird er aus der Gesamtsituation viel schneller erfassen, dass da ein Auto hinter steckt. Oder wenn das Objekt verpackt ist. Denk mal an die Reichstagsverhüllung. Oder wenn es symbolisiert wird. In dem Bild oben rechts siehst Du, was ein Deep Neuronal Network als Pinguin, Baseball oder E-Gitarre erkennen würde. Der Fehler würde keinem Kind passieren:

 

 

Nguyen A, Yosinski J, Clune J. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images. In Computer Vision and Pattern Recognition (CVPR '15), IEEE, 2015.

 

vor 4 Stunden von Chips:

Dass die Algorithmen Fehler machen, ist so. Menschen tun das auch.

 

Die Konsequenz ist aber eine andere. Es hat genau einen Unfall eines Uber-Autos gebraucht, in dem sogar noch ein menschlicher Fahrer drin saß, um das Thema Selbstfahrende Autos massiv zu beschädigen. In der öffentlichen Wahrnehmung war das der Punkt, als der Traum der kritiklosen Technikgläubigker platzte. Seitdem wird das Thema viel differenzierter betrachtet und die Kritik, dass wir sowohl nicht so weit sind, als auch dass es noch viel länger dauern wird als bisher angenommen, viel stärker wahrgenommen.

 

vor 4 Stunden von Chips:

Zurück zum Thema selbstfahrendem Auto. Hier hat man meiner Ansicht nach den Vorteil, dass es eine relativ neutrale Datenmenge gibt (hoffe ich zumindest). Man wird nicht nur Daten von Verkehrssündern haben oder Fahrern, die immer ein hohes Risiko eingehen. Deswegen funktioniert autonomes Fahren auch schon relativ gut. Das Problem sind die Einzelereignisse. zB. eine anders angeordnete Baustellensituation oder ein Faschingsumzug. (als Beispiel, kann auch sein, dass so etwas gar kein Problem darstellt). 

Nach meinem Empfinden ist man da aber schon insofern weit, dass es ja nicht sein muss, dass autonomes Fahren perfekt ist. Es muss nur die menschliche Fähigkeit übertreffen, denn auch Menschen machen Fehler oder haben menschliche Probleme wie zB. die menschliche Reaktionszeit. Wenn Maschinen besser sind als Menschen, könnte man sie auch einsetzen.

 

Auch das basiert auf einer falschen Annahme. Teslas Autos sammeln gar keine Videodaten in der Menge, wie man es für Machine Learning brauchen würde. Weder reicht die lokale Speicherkapazität dafür aus, die Kameradaten lokal vorzuhalten, noch die drahtlose Funkanbindung, diese Datenmengen live in eine Cloud hochzuladen oder menchliches Personal, dass diese Datenmengen auswerten, mit Kenzeichnungen versehen und an die KI zum Lernen verfüttern würde. Das ist ein Mythos, den Tesla da verkauft. Deren KI lernt nicht automatisch durch mehr Teslas auf der Straße. Es ist auch sinnlos, von 100.000 Autos alle Videostreams zum Beispiel zu speichern, weil niemand die Kapazität hätte, sie auszuwerten und ein automatisches Lernen von unkategorisierten Daten ist der schnellste Weg in eine Sackgasse. Deswegen macht der Rest der Industire es auch anders. Waymo hat viel weniger Autos unterwegs aber diese werden in die unterschiedlichsten Umgebungen gebracht, um dort effektiv Daten sameln zu können. Man braucht so divers wie mögliche Daten, die dann von Menschen ausgewertet werden, damit die KI effektiv lernen kann. Es hat schon seinen Grund, warum Waymo 1 menschliche Unterbrechung auf über 11.000 gefahrene Meilen in unterschiedlichsten Verkehrsumgebungen erreicht hat, während bei Teslas Autopiloten im Durchschnitt 1 Eingriff aller 9,2 Meilen erforderlich ist allein schon auf Schnellstraßen.

 

vor 4 Stunden von Chips:

Die Ethik wird jedoch noch Umstand vieler Diskussionen sein. Also der Klassiker: Kind oder Oma erfassen, wenn es nicht anders geht. Ich denke, das kann alles deutlich verzögern. Man muss hier aber auch sagen, dass wir das aus der deutschen Perspektive sehen. German Angst. In Europa ist selbst die Google Steet View Karte noch ein weißer Fleck. Da sind die Amis nicht so technlogiefeindlich.

 

Die Technikfeindlichkeit sehe ich nicht so. In den USA wird man vielleicht schneller starten, aber viel höhere Strafen verhängen, sobald ein Fehler pasiert. Da droht schnell der finanzielle Bankrott. Siehe Ubers Selbstfahrprogramm, das nachhaltig beschädigt wurde durch nur einen Unfall. Die Ethikfragen haben aber noch andere Probleme. Stell Dir vor, Du fährst auf der Straße und eine Kindergruppe rennt über die Straße. Der Bremsweg reicht nicht, um vor den Kindern zum Stillstand zu kommen. Einzige Möglichkeit wäre Ausweichen und gegen den Baum fahren mit dem Risiko, dass dabei die Insassen getötet werden.

 

Wenn die Ethikdebatte zum Ergebnis kommt, dass wir lieber die Kinder retten wollen und im Zweifel das Auto seine Insassen übers Messer springen lassen muss, wer würde so ein Auto kaufen? ich würde ein Auto haben wollen, das maximalen Schutz für mich und alle Mitfahrenden bietet. Es ist reiner Egoismus und Überlebenswunsch, dass das Auto lieber die Kinder umnieten soll, als mich zu töten. Sonst würde ich es nicht kaufen. Damit wäre das wirtschaftliche Modell tot. Wenn dagegen entschieden wird, aus wirtschaftlichen Gründen immer den Besitzer zu priorisieren und im Zweifel Kollateralschäden hinzunehmen, wird das ethisch und moralisch in der gesellschaftlichen Debatte nicht durchsetzbar sein.

 

Ich bin gespannt, wie man das Dilemma lösen will. Dass die KI dann würfelt und der Zufall entscheidet, wäre zwar vermutlich am gerechtesten, aber auch am wenigsten gesellschaftlich erklär- und durchsetzbar, oder?

 

vor 2 Stunden von Cef:

Quelle

Keine Ausnahme für Tesla! Die US-Handelsbehörde hat Zollerleichterungen auf den in China hergestellten Autopiloten "Brain" für Teslas Model 3 abgelehnt. Ein entsprechender Antrag Teslas auf Verzicht der von US-Präsident Donald Trump in Reaktion auf Pekings Industrieprogramm "Made in China 2025" erhobenen Zölle von 25 Prozent sei von der Behörde zurückgewiesen worden, heißt es in Dokumenten der US-Handelsbehörde (USTR), die Reuters einsehen konnte.

 

Es kommt noch viel schlimmer. Es gibt nicht nur keine Ausnahme für den Boardcomputer, sondern es drohen ab Freitag 25% Zölle auf weitere $200 Milliarden Importe aus China:

 

 

Diesen Beitrag teilen


Link zum Beitrag
Stefaaan

Man verlangt auch von einem menschlichen Fahrer nicht, dass er sein Auto gegen den Baum lenkt um einer Kindergruppe auszuweichen. Man verlangt auch von einem menschlichen Fahrer nicht, dass er sich zwischen einer Oma und einem Kind entscheidet. Und das autonome System hat (vermutlich) gar keine Repräsentation dieser Unterscheidung.

 

Stark vereinfacht:

Das System kann eine Kollision in seiner Fahrspur durch Fahrspurwechsel verhindern -> muss gemacht werden

Das System kann einer Kollision nur durch Herbeiführung einer anderen Kollision ausweichen -> muss nicht gemacht werden, stattdessen versuchen die Schäden der Kollision zu minimieren

Diesen Beitrag teilen


Link zum Beitrag
earningpower

Man verlangt aber von einem menschlichen Fahrer, dass er in einer Baustelle erkennt welche aufgemalte Fahrspur die richtige ist. 

Diesen Beitrag teilen


Link zum Beitrag
Michalski
· bearbeitet von Michalski
vor einer Stunde von Stefaaan:

Man verlangt auch von einem menschlichen Fahrer nicht, dass er sein Auto gegen den Baum lenkt um einer Kindergruppe auszuweichen. Man verlangt auch von einem menschlichen Fahrer nicht, dass er sich zwischen einer Oma und einem Kind entscheidet. Und das autonome System hat (vermutlich) gar keine Repräsentation dieser Unterscheidung.

 

Wenn DU als menschlicher Fahrer eine Kindergruppe umnietest, bekommst Du in der Regel nachher mindestens Teilschuld. Stichwort verschuldensunabhängige Gefährdungshaftung durch die Betriebsgefahr. Sobald Du ein Auto im öffentlichen Straßenverkehr lenkst, geht von dem allein durch das Betreiben eine abstrakte Betriebsgefahr für alle anderen Verkehrsteilnehmer aus. Daher kriegst Du auch ohne ein verkehrswidriges Verhalten recht schnell auch nach einem unvermeidbaren Unfall eine Teilschuld.

 

Bei einer KI ist das Problem, dass Du die vorher programmieren musst. Im Gegensatz zum Menschen musst Du der explizit sagen, was sie machen soll. Du musst ihr ein Regelwerk mitgeben und schon musst Du die ethischen Fragen beantworten. Eine Unterscheidung von Oma und Kind ist einer KI problemlos beibringbar. In Summe wirst DU dort auch mit Bewertungen arbeiten, anhand derer dann Entscheidungen getroffen werden. In Deutschland ist zum Beispiel höchstrichterlich entschieden worden, dass unschuldige Passagiere und Besatzungsmitglieder eines Flugzeugs nicht als Objekte betrachtet werden können. Sie würden damit "verdinglicht und zugleich entrechtlicht". Menschliches Leben und menschliche Würde genießen ohne Rücksicht auf die Dauer der physischen Existenz des einzelnen Menschen gleichen verfassungsrechtlichen Schutz. Daher ist das eine ganz spannende Diskussion mit offenem Ausgang: https://www.bundesverfassungsgericht.de/SharedDocs/Entscheidungen/DE/2006/02/rs20060215_1bvr035705.html

Diesen Beitrag teilen


Link zum Beitrag
magicw
· bearbeitet von magicw

da gabs schon eine Ethikkommission dazu. 

https://www.bmvi.de/SharedDocs/DE/Pressemitteilungen/2017/084-dobrindt-bericht-der-ethik-kommission.html

 

und ist in den Punkten 8 & 9 aus einem Regelsatz von 20 Regeln für autonomes Fahren m.E. schon gut formuliert: 

https://www.bmvi.de/SharedDocs/DE/Publikationen/DG/bericht-der-ethik-kommission.pdf?__blob=publicationFile

Diesen Beitrag teilen


Link zum Beitrag
Systemrelevant

Wie sieht da eigentlich der Stand der Tecnik aus? Bewertet die SW in autonomen Fahrzeugen nur jede Situation in  ms-Takt neu oder ist sie auch fähig zur Antizipation bzw. Intuition? Klassisches Beispiel mit dem Kind, welches zwischen parkenden Autos auf die Straße rennt und dem Kind, welches zwischen parkenden Autos wartet und sich umschaut, bevor es die Straße überquert. Der Unfall damals mit dem Fahrzeug von Uber war ja glaub eine vergleichbare Situation. 

Diesen Beitrag teilen


Link zum Beitrag
Michalski
· bearbeitet von Michalski

Mal ein kurzer Blick auf die bisher bekannten Auslieferungszahlen für Europa. Recht ernüchternd:

 

D54zDJNWkAEhKLs.png:large

 

Wer jetzt meint, dass liegt nur an fehlenden Schiffen, hier mal ein Video über Lagerbestände in Norwegen:

 

 

Diesen Beitrag teilen


Link zum Beitrag
Holgerli

Zumindest die Tesla-Faher sind von den Fähigkeiten des Moel 3 schwer begeistert: Tesla owner claims Autopilot made impressive maneuver caught on video to avoid crash

 

Und die Nummer mit dem Enhanced Summon finde ich auch nicht schlecht. Gut, könnte schneller sein aber so braucht sich der Wagen nicht zwischen Kindergruppe oder Baum zu entscheiden.

Bin gespannt wie das Feature in 3 Jahren performt.

Diesen Beitrag teilen


Link zum Beitrag
magicw
· bearbeitet von magicw
vor 4 Stunden von Systemrelevant:

Wie sieht da eigentlich der Stand der Tecnik aus? Bewertet die SW in autonomen Fahrzeugen nur jede Situation in  ms-Takt neu oder ist sie auch fähig zur Antizipation bzw. Intuition? Klassisches Beispiel mit dem Kind, welches zwischen parkenden Autos auf die Straße rennt und dem Kind, welches zwischen parkenden Autos wartet und sich umschaut, bevor es die Straße überquert. Der Unfall damals mit dem Fahrzeug von Uber war ja glaub eine vergleichbare Situation. 

 

"Denken" bzw. intuitiv agieren können Maschinen nicht^^  Die ADAS berechnen eine Trajektorie und passen diese laufend anhand des jeweils aktuell sensierten Fahrt-, Verkehrs- und Strassenzustands an. 

Die Trajektorie könnte man, so man will, im weitesten Sinne also "Antizipation" betrachten. In den zuvor geposteten Beiträgen wurde aber schon drauf eingegangen, wie diese Trajektorie durch "Fehlinterpretation" dann halt fatal falsch verbogen werden kann. 

Diesen Beitrag teilen


Link zum Beitrag
Chips
vor 11 Stunden von Dandy:

Intelligenz ist aber viel mehr als Mustererkennung. Die Frage, was mit den erkannten Mustern im Hintergrund passiert, wie sie verarbeitet und abgespeichert werden, ist der große Unterschied. In dem Artikel wird ja von einem Experten erklärt, was man von der Funktionsweise des Gehirns immer noch nicht weiß und inwiefern es sich möglicherweise von maschinellem "Lernen" unterscheidet. Es gibt durchaus Zweifel, dass man noch in diesem Jahrhundert überhaupt etwas ähnliches wie das menschliche Denken nachahmen können wird und das sagen nicht irgendwelche Ingenieure von Tesla sondern diejenigen, die sich schon viel länger und in aller Tiefe mit dem Thema beschäftigen. Die Forschung dazu gibt es schließlich schon viel länger als sich US-Unternehmen damit brüsten. Übrigens stammen viele der Grundlagen aus Europa und nicht den USA. Die trommeln nur viel lauter.

 

Immer wenn Techniker (oder solche die es werden wollen, wie Musk) die Fähigkeiten des menschlichen Körpers/Wesens unterschätzen werde ich skeptisch, denn letztlich ist es dieser menschliche Körper selbst, der den Technikern ihre Fähigkeiten gibt. Beim künstlichen Nachbau desselben durch denselben ist eine gehörige Portion Demut angebracht. 

Beim autonomen Fahren will man auch gar nicht die menschliche Intelligenz nachbilden. Es geht primär um Mustererkennung. Wenn man weiß, wo die Straße ist, wo das Hindernis ist (und wo es bald sein wird), hat man das Ziel praktisch schon erreicht. Es geht hier nicht darum, die Lösung auf ein neuartiges Problem zu finden. 

Primär wichtig ist die Datenmenge. Es müssen möglichst viele Fälle erfasst werden. Im Zweifel bleibt das Auto eben stehen. So wie der Mensch auch. Und wenn dann ein anderes Auto vorprescht, folgt man dem. 

 

Aber mit Mitte 2020 wird das mit den Robotaxis wohl noch nix. Der gute Elon ist bei sowas oft etwas naiv. 

 

vor 11 Stunden von Dandy:

 

Egal, zurück zu Tesla. Für autonomes Fahren braucht es auch nicht unbedingt menschliche Intelligenz sondern sehr viele Daten und gute Sensoren, behaupte ich mal. Egal ob mit "echter KI" oder ohne, benötigt man sehr viel Technik um das zu bewerkstelligen. Die menschliche Sensorik (Sehen, Hören etc,) wird hier auch massiv unterschätzt. Da geht es nicht nur um das Bild selbst, sondern um die Verarbeitung desselben, der Tiefenwahrnehmung, Geschwindigkeitseinschätzung etc.

 

Das ist absolut richtig und in Form von Assistenzsystemen wird es auch zu deutlich erhöhter Sicherheit im Verkehr führen, keine Frage und restlos positiv. Bei einem vollautonom fahrenden Fahrzeug werden aber nunmal ganz andere Maßstäbe als an den Menschen herangezogen. Der Mensch handelt nun mal eigenverantwortlich, eine Maschine nicht. Die Begründung, die Maschine mache in weniger Fällen Fehler als der Mensch wird nicht ausreichen, denn dann wird die Verantwortlichkeit zwischen Hersteller, Zulieferer, Versicherung und Fahrzeughalter zu klären sein. So langsam wie die Mühlen hierzulande mahlen (Elektroroller sind bei uns bspw immer noch nicht erlaubt), wird alleine das Jahrzehnte dauern, bis die Rechtslage abschließend geklärt ist. Alle Parteien werden aber letztlich auf ein minimales Fehlerpotenzial pochen, inklusive der Nachweisbarkeit. Der Mensch ist dabei kein Maßstab.

Na der Eigentümer ist verantwortlich. So wie auch bei deinem Pitbull, wenn er mich absabbert ;)

(Aber klar, das ist kein unkomplexes Thema. Interessant wäre, was Versicherungen dann nehmen oder welche Garantien Hersteller übernehmen)

Diesen Beitrag teilen


Link zum Beitrag
Chips
vor 7 Stunden von Michalski:

 

Wenn DU als menschlicher Fahrer eine Kindergruppe umnietest, bekommst Du in der Regel nachher mindestens Teilschuld. Stichwort verschuldensunabhängige Gefährdungshaftung durch die Betriebsgefahr. Sobald Du ein Auto im öffentlichen Straßenverkehr lenkst, geht von dem allein durch das Betreiben eine abstrakte Betriebsgefahr für alle anderen Verkehrsteilnehmer aus. Daher kriegst Du auch ohne ein verkehrswidriges Verhalten recht schnell auch nach einem unvermeidbaren Unfall eine Teilschuld.

 

Bei einer KI ist das Problem, dass Du die vorher programmieren musst. Im Gegensatz zum Menschen musst Du der explizit sagen, was sie machen soll. Du musst ihr ein Regelwerk mitgeben und schon musst Du die ethischen Fragen beantworten. Eine Unterscheidung von Oma und Kind ist einer KI problemlos beibringbar. 

Oder der Tesla wählt aufgrund seiner besseren Reaktionszeit eine Option 3, bei der keiner zu Schaden kommt. ;)

Diesen Beitrag teilen


Link zum Beitrag
Michalski
· bearbeitet von Michalski
vor 2 Stunden von Chips:

Oder der Tesla wählt aufgrund seiner besseren Reaktionszeit eine Option 3, bei der keiner zu Schaden kommt. ;)

 

Wie war das mit "der Bremsweg ist zu kurz"?

 

vor 2 Stunden von Chips:

Beim autonomen Fahren will man auch gar nicht die menschliche Intelligenz nachbilden. Es geht primär um Mustererkennung. Wenn man weiß, wo die Straße ist, wo das Hindernis ist (und wo es bald sein wird), hat man das Ziel praktisch schon erreicht. Es geht hier nicht darum, die Lösung auf ein neuartiges Problem zu finden. 

Primär wichtig ist die Datenmenge. Es müssen möglichst viele Fälle erfasst werden.

 

Das ist genauso ein Irrtum. Hier mal ein Beispiel zu dem tödlichen Autopiloten-Unfall des Apple-Ingenieurs, dessen Familie jetzt Klage eingereicht hat. Schaut Euch mal die Unfallstelle und die Fahrbahnen davor an:

 

85gore-1200x675.jpg

 

Bei dem Unfall irrte sich Teslas Autopilot vermutlich in der Spurführung und fuhr in die falsche "Spur" zwischen der Straße und einer Abfahrt.  Er fuhr direkt in die für Menschen klar erkennbare, von einem vorherigen Crash beschädigte Crashbarriere und tötete dabei den Fahrer.

 

Dass die Spurführung manchmal konsistent falsch erkannt wird, hat man in anderen Videos schon gesehen. dem aktuellen Stand der Tesla-Technologie erwartet. Der Tesla fuhr in die Crashbarriere, weil sowohl sein Radar als auch seine Videoalgorithmen die Crashbarriere nicht identifizieren konnten. Auch damit muss man bei der heutigen Technologie rechnen. Das Radar hätte sie erkannt, aber für stationäre Objekte können Radarsysteme nicht exakt vorhersagen, wo die Hindernisse sich genau befinden.

 

Deswegen reagieren radarbasierende Abstandsautomatiken nicht auf feststehende Hindernisse (so auch in Teslas Bedienungsanleitung erklärt). Man vermeidet damit Phantombremsungen, wenn das Radarecho von einem stationären Objekt in der Nähe des Weges empfangen wird.

 

Entscheidend in diesem Fall ist also nicht das Radarergebnis, sondern die Tatsache, dass Teslas Videosystem die Barriere nicht identifizieren konnte.  Es ist wahrscheinlich, dass es einfach nicht darauf trainiert ist, diese Art von Hindernis zu erkennen, insbesondere weil es sich auch noch um eine beschädigte Barriere handelte.  

 

Jedes Kind hätte sofort sagen können, dass man in die Barriere nicht reinfahren sollte. Wir würden instinktiv kurz vor dem Einschlag die Arme heben, um Kopf und Oberkörper zu schützen. Neuronale Netze dagegen arbeiten stumpf. Sie identifizieren nur Dinge, auf deren Erkennung sie hin trainiert wurden. Oder denen ähnlich aussehende Dinge.

 

Teslas neuronales Netzwerk ist vermutlich darauf trainiert, die Rückseite eines Fahrzeugs auf der Straße und bestimmte Arten von Objekten zu identifizieren, aber möglicherweise nicht auf die Tatsache, dass etwas, was als Highwaystrasse erkannt wurde, plötzlich in einer Sackgasse endet.

 

Deswegen bremste der Tesla nicht nur nicht, sondern beschleunigte zu allem Überfluss noch, weil er vermutlich davon aus ging, freie Bahn zu haben auf der neuen Spur.

 

Ein LIDAR-System hätte diese Barriere mit an Sicherheit grenzender Wahrscheinlichkeit erkannt. Ein LIDAR-System hätte wohl auch den LKW korrekt identifiziert, der die Straße querte und unter dem der Tesla in Florida durchfahren wollte, weil er es als befahrbar Strasse klassifiziert hatte und den Fahrer dabei ebenfalls tötete.

 

LIDAR-Systeme müssen nicht verstehen, WAS das Objekt vor ihnen ist, um zu wissen, dass es DA ist, und zwar genau dort, wo es sich in der Wirklichkeit befindet, wie groß es ist und sogar, ob und wenn ja, wie schnell es sich wohin bewegt. Korrekte LIDAR/Software-Systeme verstehen mehr darüber, was die Hindernisse sind. Se können mit Videosystemen kombiniert werden, um auf ein besseres Niveau zu kommen, als es mit Videokameras allein möglich ist.

 

Heute nimmt Tesla erschreckenderweise Situationen billigend in Kauf, in denen Menschen sterben, weil man Geld spart und nur auf Videoerkennung+Radar statt Video+LIDAR+Radar setzt.

 

Sie verzichten ohne Not auch auf ein weiteres, unabhängiges Element der Entscheidungsfindung: Detailgenaue HD-Karten. Der oben beschriebene Unfall in der Crashbarriere wäre wahrscheinlich nicht mit HD-Karten passiert, die die richtige Geometrie der Straße zeigen. Der Spurtrenner wäre auch auf der Karte gewesen, was einem Auto mit einer solchen Karte es leicht gemacht hätte, diesen Fehler zu vermeiden. Egal ob der Autopilot das Hindernis mit Radar und/oder auf Video erkannt hätte. Oder nicht.

 

Elon Musk's War On LIDAR: Who Is Right And Why Do They Think That?

 

Diesen Beitrag teilen


Link zum Beitrag
reko
vor 4 Stunden von Michalski:

"LIDAR is a fool's errand. Anyone who relies on LIDAR is doomed. Expensive sensors that are unnecessary." (All quotes are Elon Musk)

Erschreckend wie Musk bei jeder Frage alle die anderer Meinung sind als "fools" und "doomed" betrachtet.

Diesen Beitrag teilen


Link zum Beitrag
Stefaaan

Die übliche Arroganz des Valley.

Diesen Beitrag teilen


Link zum Beitrag
Michalski

Teslas norwegische Kunden drücken ihre Zufriedenheit in einer aktuellen Umfrage mit dem Unternehmen aus:

 

 

Was für ein Ramp up! Welch ein exponentielles Wachstum! Was einem so passiert, wenn man seine Nische verlässt.

Diesen Beitrag teilen


Link zum Beitrag
fancY
· bearbeitet von fancY

Tesla und Dacia auf Augenhöhe ;). Eins haben die beiden Hersteller gemeinsam, überaus loyale Kunden.

 

Mehr als drei Viertel der Käufer eines Tesla in Deutschland bleiben der Marke auch bei der Entscheidung für ihr nächstes Auto treu. Das ist das Ergebnis einer im April veröffentlichten Befragung des Flotten-Dienstleisters Dataforce.

 

https://www.dataforce.de/news/markentreue-beim-autokauf-tesla-und-dacia-auf-augenhoehe-seat-ateca-als-eroberer/

Diesen Beitrag teilen


Link zum Beitrag
Systemrelevant

Der Aktienkurs konnte sich nicht über 260$ etablieren und vollzog bisher nur einen Rücklauf an diese Marke. Jetzt schauen wir mal die nächsten Tage wie und ob die 230$ nach unten gebrochen werden oder ob wir vielleicht sogar einen bullischen Ausbruch über die 260$ sehen, aber für mich schaut der Kursverlauf nach wie vor bärisch aus mit den schon erwähnten Zielen. 

Diesen Beitrag teilen


Link zum Beitrag
Wasserfall
vor 5 Stunden von fancY:

Mehr als drei Viertel der Käufer eines Tesla in Deutschland bleiben der Marke auch bei der Entscheidung für ihr nächstes Auto treu. Das ist das Ergebnis einer im April veröffentlichten Befragung des Flotten-Dienstleisters Dataforce.

Über wie viele Käufer insgesamt reden wir denn? Welcher Deutsche hat heute bereits seinen zweiten Tesla in der Garage stehen?

Diesen Beitrag teilen


Link zum Beitrag
Michalski
vor 51 Minuten von Wasserfall:

Über wie viele Käufer insgesamt reden wir denn? Welcher Deutsche hat heute bereits seinen zweiten Tesla in der Garage stehen?

 

Tesla verkaufte im April 8% soviele Autos wie Dacia. 575 vs. 6.992. Way to go. Immerhin haben sie Ssangyoung überholt und sind nicht mehr Letzter.

Diesen Beitrag teilen


Link zum Beitrag
Bonny

Wo bleiben eigentlich die Jubelmeldungen über die üppigen Verkaufszahlen in USA?

Es hiess doch, dass durch den gigantischen Export nach Europa der Verkauf in USA gelitten hätte und die riesige Schar wartender Kunden danach bedient  würde.

Vor einem Jahr wurde doch noch jeder einzelne Tesla dokumentiert und gefeiert.

 

 

Diesen Beitrag teilen


Link zum Beitrag

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden

×
×
  • Neu erstellen...