krett 28. Oktober Tesla und Waymo kommen halt von verschiedenen Seiten. Für Waymo würde es sich sogar rechnen, selbst wenn der LIDAR Sensor niemals unter 10.000$ zu haben wäre (real sind die vermitlich schon weit drunter). Für Tesla wird es schon "problematisch", wenn ein LIDAR Senosr 400$ kostet, weil er halt in jedes Auto muss. Und desto mehr Daten man hat, desto mehr Rechenleistung braucht man, was auch wieder das Auto teurer macht. Problematisch, wenn das Auto an Endkunden verkauft wird und jeder $ zählt. Diesen Beitrag teilen Link zum Beitrag
herbert_21 28. Oktober · bearbeitet 28. Oktober von herbert_21 Ford Quartalsergebnisse: -1,2 Mrd mit EVs oder 37500 USD Verlust pro verkauftem Fahrzeug. Und zusätzlich noch eine Mrd. an Abschreibungen für EV Investitionen. Da sieht man wieder, was die Margen von Tesla eigentlich bedeuten. Diesen Beitrag teilen Link zum Beitrag
Barqu 29. Oktober Nur der Vollstaendigkeit halber: Quote Elon Musk Says a $25,000 Tesla Is Now “Pointless” and “Silly” Musk reconfirms that the $25k Tesla is dead because it’s “silly,” but teases a flying car in same breath. https://www.motortrend.com/news/tesla-q3-earnings-call-25k-tesla-roadster-elon-musk/ Reuters-Leser haben es natuerlich schon im April gewusst Diesen Beitrag teilen Link zum Beitrag
Michalski 29. Oktober · bearbeitet 29. Oktober von Michalski „Kimball Musk verkauft Tesla-Aktien“ bisher auf dem All Time High (ATH). Wird es auch diesmal wieder auf dem Höchstand sein, diesmal diesen Jahres? Tesla-Vorsitzende Robyn Denholm und die Direktoren Kathleen Wilson-Thompson und Kimbal Musk setzen Verkaufspläne ein, um insgesamt 1,13 Millionen Tesla-Aktien zu verkaufen: Tesla-Insider planen, Aktien für 300 Millionen Dollar zu verkaufen Macht übrigens total Sinn, weil Tesla ja kurz vor der Auslieferung der Robotaxis steht, FSD gelöst hat und in Kürze 2 oder 3 Billionen Dollar wert sein wird. Oder auch 5 oder 10, was die Tesla-Fans so alles glauben. Ist halt nur schade für das Reh, dass Hindernisse auf der Fahrbahn von FSD immer noch einfach nur umgenietet werden. Genauso würde ein Tesla mit FSD auch einen Menschen völlig ungerührt überfahren oder in ein Hindernis prallen, ohne zu bremsen. Sowenig wie Actual smart summon funktioniert, klappt es mit Full Self Driving Supervised und von Actual Full Self Driving ist Tesla weiterhin Lichtjahre entfernt. Ach ja, über den mangelhaften Service beschwert sich der Kollege mit dem Wildunfall auch noch. vor 16 Stunden von herbert_21: Ford Quartalsergebnisse: -1,2 Mrd mit EVs oder 37500 USD Verlust pro verkauftem Fahrzeug. Und zusätzlich noch eine Mrd. an Abschreibungen für EV Investitionen. Da sieht man wieder, was die Margen von Tesla eigentlich bedeuten. Dir ist nicht klar, was Grenzkosten bedeuten? Tesla hat massivere Verluste geschrieben, bevor sie das Model Y hochskaliert bekamen. Diesen Beitrag teilen Link zum Beitrag
reko 30. Oktober · bearbeitet 30. Oktober von reko vor 15 Stunden von Michalski: Ist halt nur schade für das Reh, dass Hindernisse auf der Fahrbahn von FSD immer noch einfach nur umgenietet werden. Für Rehe zu bremsen hat die angebliche KI eben noch nicht gelernt. Zuerst kommen auf der ToDo-Liste Polizeiautos dann Wildschweine dran. Diesen Beitrag teilen Link zum Beitrag
Barqu 30. Oktober Ich denke, viele hier duerften mittlerweile mit ChatGPT / MS Copilot in Kontakt sein, oder?! Meinem Verstaendnis nach gelten die als fuehrend bei LLM. Teslas FSD supervised ist kein LLM, aber man kann ja vllt trotzdem mal ueberlegen, ob es Parallelen gibt. Beim Copiloten wird davon gesprochen, dass es zu Halluzinationen kommt. Ich kann das bestaetigen - man kann sich nicht auf Copilot verlassen, sondern muss alles nachkontrollieren, wenn man es wirklich verwenden will. Und regelmaessig findet man haarstrauebende Fehler, die scheinbar unerklaerlich sind. Oft sind die Ergebnisse aber auch gut und es hat Potential einem laestige Arbeit abzunehmen. Genau das gleiche gilt m. E. fuer FSD supervised, nur mit dem Unterschied, dass es niemanden umbringt, wenn Copilot einen Fehler in einer Email-Zusammenfassung oder einer Praesentation macht. Fuer MS Copilot ist das akzeptabel, aber um am Strassenverkehr reicht es nicht. Anscheinend hat OpenAI / MS Probleme die Halluzinationen zu beseitigen. Ich denke, Tesla hat das gleiche Probleme. Copilot kann man aber auch mit Halluzinationen nutzen, ein Auto aber nicht. M. E. steht es in den Sternen ob man die Halluzinationen jemals so weit eindaemmen kann, dass es fuer den Strassenverkehr akzeptabel ist. Diesen Beitrag teilen Link zum Beitrag
Popper 30. Oktober vor 11 Stunden von Barqu: Ich denke, viele hier duerften mittlerweile mit ChatGPT / MS Copilot in Kontakt sein, oder?! Meinem Verstaendnis nach gelten die als fuehrend bei LLM. Teslas FSD supervised ist kein LLM, aber man kann ja vllt trotzdem mal ueberlegen, ob es Parallelen gibt. Beim Copiloten wird davon gesprochen, dass es zu Halluzinationen kommt. Ich kann das bestaetigen - man kann sich nicht auf Copilot verlassen, sondern muss alles nachkontrollieren, wenn man es wirklich verwenden will. Und regelmaessig findet man haarstrauebende Fehler, die scheinbar unerklaerlich sind. Oft sind die Ergebnisse aber auch gut und es hat Potential einem laestige Arbeit abzunehmen. Genau das gleiche gilt m. E. fuer FSD supervised, nur mit dem Unterschied, dass es niemanden umbringt, wenn Copilot einen Fehler in einer Email-Zusammenfassung oder einer Praesentation macht. Fuer MS Copilot ist das akzeptabel, aber um am Strassenverkehr reicht es nicht. Anscheinend hat OpenAI / MS Probleme die Halluzinationen zu beseitigen. Ich denke, Tesla hat das gleiche Probleme. Copilot kann man aber auch mit Halluzinationen nutzen, ein Auto aber nicht. M. E. steht es in den Sternen ob man die Halluzinationen jemals so weit eindaemmen kann, dass es fuer den Strassenverkehr akzeptabel ist. Ein Beitrag aus der FAZ von Dr. Ralf Otte ist Professor am Institut für Automatisierungssysteme an der Technischen Hochschule Ulm. Künstliche Intelligenz Warum wir nicht vollautonom fahren werden Auszug: Zeigen sie einem Deep-Learning-System fünf Hunde- und Katzenbilder, dann wird die KI zufällige Ergebnisse erzeugen. Auf Deep Learning basierende KI-Systeme können auf dieser Datenmenge einfach nicht lernen – und zwar prinzipbedingt nicht, denn diese KI hat zu viele freie Parameter, die durch den Anlernprozess eingestellt werden müssen. Das menschliche Gehirn kann aus extrem wenigen Beispielen lernen, und genau das sichert unser Überleben in natürlicher Umgebung. Kein Mensch muss für den Führerschein Millionen von Fahrtkilometern trainieren, um später durch eine Stadt zufahren. Er kann es nicht. Aber er braucht es auch nicht. Eine auch unter Fachleutenverbreitete Vorstellung lautet, die KI müsse bloß noch größer und schneller werden, dann werde sie der Leistungsfähigkeit des Gehirns näher kommen und sie irgendwann erreichen. Aber das wird nicht passieren. Wo liegt das Problem? Künstliche Intelligenz wird heute als Algorithmus auf einer Hardware, einem Computer, implementiert – der Mensch besitzt im Gegensatz dazu ein Gehirn. Aber dieses ist kein Computer, auf dem eine Software läuft. Der Mensch löst seine „Small Data“-Probleme jedoch durch das Wechselspiel zwischen seinem neuronalen Gehirngewebe und seinem mentalen Bewusstsein. In der Bilderkennung reicht es eben nicht aus, mathematische Operationen durchzuführen, dafür bräuchte es viel zu viele Trainingsdaten, weshalb DeepLearning nur zusammen mit „Big Data“ und nicht in natürlichen Umgebungen funktioniert. Auf Deep Learning basierende KI-Systeme können aus Einzelfällen nicht lernen und vor allem von präsentierten Einzelfällen nicht extrapolieren. Im Straßenverkehr, in dem häufig nur konkrete Einzelfälle auftreten („Oh, das war knapp!“), muss dieser Ansatz daher scheitern. Nicht so beim Menschen. Sein Bewusstsein löst gleich mehrere Aufgaben in der Erfassung einer Straßensituation: Zum einen stabilisiert es den neuronalen Erkennungsprozess und führt diesen auch bei Einzelfällen zum nächstmöglichen(vernünftigen) „Attraktor“. Zum anderen ist das Bewusstsein nötig zur visuellen Wahrnehmung. In diesem Sinne fahren alle heutigen (bewusstseinslosen) KI-Fahrzeuge blind durch unsere Straßen. Diesen Beitrag teilen Link zum Beitrag
Nyx 30. Oktober vor 12 Minuten von Popper: Ein Beitrag aus der FAZ von Dr. Ralf Otte ist Professor am Institut für Automatisierungssysteme an der Technischen Hochschule Ulm. Künstliche Intelligenz Warum wir nicht vollautonom fahren werden Auszug: Zeigen sie einem Deep-Learning-System fünf Hunde- und Katzenbilder, dann wird die KI zufällige Ergebnisse erzeugen. Auf Deep Learning basierende KI-Systeme können auf dieser Datenmenge einfach nicht lernen – und zwar prinzipbedingt nicht, denn diese KI hat zu viele freie Parameter, die durch den Anlernprozess eingestellt werden müssen. Das menschliche Gehirn kann aus extrem wenigen Beispielen lernen, und genau das sichert unser Überleben in natürlicher Umgebung. Kein Mensch muss für den Führerschein Millionen von Fahrtkilometern trainieren, um später durch eine Stadt zufahren. Er kann es nicht. Aber er braucht es auch nicht. Eine auch unter Fachleutenverbreitete Vorstellung lautet, die KI müsse bloß noch größer und schneller werden, dann werde sie der Leistungsfähigkeit des Gehirns näher kommen und sie irgendwann erreichen. Aber das wird nicht passieren. Wo liegt das Problem? Künstliche Intelligenz wird heute als Algorithmus auf einer Hardware, einem Computer, implementiert – der Mensch besitzt im Gegensatz dazu ein Gehirn. Aber dieses ist kein Computer, auf dem eine Software läuft. Der Mensch löst seine „Small Data“-Probleme jedoch durch das Wechselspiel zwischen seinem neuronalen Gehirngewebe und seinem mentalen Bewusstsein. In der Bilderkennung reicht es eben nicht aus, mathematische Operationen durchzuführen, dafür bräuchte es viel zu viele Trainingsdaten, weshalb DeepLearning nur zusammen mit „Big Data“ und nicht in natürlichen Umgebungen funktioniert. Auf Deep Learning basierende KI-Systeme können aus Einzelfällen nicht lernen und vor allem von präsentierten Einzelfällen nicht extrapolieren. Im Straßenverkehr, in dem häufig nur konkrete Einzelfälle auftreten („Oh, das war knapp!“), muss dieser Ansatz daher scheitern. Nicht so beim Menschen. Sein Bewusstsein löst gleich mehrere Aufgaben in der Erfassung einer Straßensituation: Zum einen stabilisiert es den neuronalen Erkennungsprozess und führt diesen auch bei Einzelfällen zum nächstmöglichen(vernünftigen) „Attraktor“. Zum anderen ist das Bewusstsein nötig zur visuellen Wahrnehmung. In diesem Sinne fahren alle heutigen (bewusstseinslosen) KI-Fahrzeuge blind durch unsere Straßen. Puh, kein Glanzzeugnis für den Professor aus Ulm. Viel (evidenzloser) Text ohne Inhalt. Mit gleicher Argumentation könnte man anmerken, dass alles was ein Gehirn kann auch von einer Maschine erledigbar sein sollte. Wie groß die Kapazität der Maschine sein muss und welche Architektur dahintersteckt ist dann eine andere Frage. Aber nein ich liege natürlich falsch... denn der Maschine fehlt das "mentale Bewusstsein" (was auch immer das sein soll)! "Mathematische Operationen" führt unser Gehirn sicher nicht aus... Je öfter man das liest desto schlimmer wird es. Und ja, ich wage das zu beurteilen, weil ich selbst lange Jahre in dem Feld (ML) akademisch aktiv war. Diesen Beitrag teilen Link zum Beitrag
Popper 30. Oktober · bearbeitet 30. Oktober von Popper vor 22 Minuten von Nyx: Puh, kein Glanzzeugnis für den Professor aus Ulm. Viel (evidenzloser) Text ohne Inhalt. Mit gleicher Argumentation könnte man anmerken, dass alles was ein Gehirn kann auch von einer Maschine erledigbar sein sollte. Wie groß die Kapazität der Maschine sein muss und welche Architektur dahintersteckt ist dann eine andere Frage. Aber nein ich liege natürlich falsch... denn der Maschine fehlt das "mentale Bewusstsein" (was auch immer das sein soll)! "Mathematische Operationen" führt unser Gehirn sicher nicht aus... Je öfter man das liest desto schlimmer wird es. Und ja, ich wage das zu beurteilen, weil ich selbst lange Jahre in dem Feld (ML) akademisch aktiv war. @Nyx: Deine Kritik an den Auszug des Artikels kann ich nicht ganz nachvollziehen.... Ich selbst habe nur den Hintergrund, dass ich u.a. für die HW Bereitstellung für Autonomes Fahren bei einem Autohersteller verantwortlich war (ist allerdings schon 4 Jahre her ...) Vielleicht gelingt Chatgpt eine bessere Interpretation des Artikels der du besser Zustimmen kannst. :-) "Der Beitrag von Dr. Ralf Otte wirft einen kritischen Blick auf die Grenzen aktueller KI-Methoden, insbesondere des Deep Learnings, und bringt einige interessante und wichtige Punkte auf. Seine Hauptaussage ist, dass es unrealistisch ist, zu erwarten, dass KI-Systeme eines Tages wie Menschen denken und handeln werden, indem sie einfach „größer und schneller“ werden. Er argumentiert, dass das menschliche Gehirn und unser Bewusstsein anders arbeiten als Computer und klassische KI-Algorithmen. Ein zentraler Punkt ist die Fähigkeit des Menschen, aus wenigen Beispielen zu lernen und in unvorhergesehenen Situationen intuitiv zu handeln. Otte hebt hervor, dass Menschen nicht auf riesige Datenmengen angewiesen sind, um Verhaltensweisen anzupassen, wie es bei Deep-Learning-Modellen der Fall ist. Diese Modelle benötigen große Datenmengen, um auf spezifische Situationen vorbereitet zu sein, können aber nicht auf seltene Einzelfälle extrapolieren. Das ist besonders im Straßenverkehr ein Problem, da oft unvorhergesehene Situationen auftreten, die schnelles Reaktionsvermögen und Einschätzungsvermögen erfordern. Er beschreibt, dass das menschliche Bewusstsein im Straßenverkehr eine wichtige Rolle spielt: Es stabilisiert unsere Entscheidungen und lässt uns flexibel reagieren, selbst wenn ein neues, unbekanntes Szenario auftritt. Laut Otte fehlt der KI ein solches Bewusstsein, was bedeutet, dass selbst fortgeschrittene Systeme wie autonome Fahrzeuge „blind“ in unvorhergesehenen Situationen handeln und keine sinnvollen Entscheidungen treffen können. Im Wesentlichen betont Otte, dass der Mensch und das Gehirn eine Art „Small Data“-Verarbeitung beherrschen, die viel effizienter und anpassungsfähiger ist als das, was wir aktuell mit Deep Learning in der KI erreichen können. Autonome Fahrsysteme basieren auf Datensätzen und Algorithmen, die für „bekannte“ Umgebungen optimiert sind, aber in „natürlichen“ Umgebungen mit einem hohen Maß an Varianz und Komplexität deutlich an ihre Grenzen stoßen. Der Artikel regt zum Nachdenken an und stellt die Frage, ob eine völlige Abhängigkeit von rein datengetriebenen Ansätzen in der KI tatsächlich der richtige Weg ist. Ottes Standpunkt zeigt, dass wir noch nicht das tiefe Verständnis und die nötige Technologie haben, um menschenähnliches Denken und Reagieren zu imitieren – was im Bereich des autonomen Fahrens bedeutet, dass eine völlig autonome Lösung noch nicht absehbar ist." Diesen Beitrag teilen Link zum Beitrag
Holgerli 31. Oktober vor 7 Stunden von Popper: In der Bilderkennung reicht es eben nicht aus, mathematische Operationen durchzuführen, dafür bräuchte es viel zu viele Trainingsdaten, weshalb DeepLearning nur zusammen mit „Big Data“ und nicht in natürlichen Umgebungen funktioniert. Auf Deep Learning basierende KI-Systeme können aus Einzelfällen nicht lernen und vor allem von präsentierten Einzelfällen nicht extrapolieren. Im Straßenverkehr, in dem häufig nur konkrete Einzelfälle auftreten („Oh, das war knapp!“), muss dieser Ansatz daher scheitern. Ja, aber exakt das schafft Tesla doch: Einerseits fahren über 7 Mio. Fahrzeuge auf der Straße mit FSD-Hardware an Bord Tag für Tag durch die Gegend und liefern Tesla riesige Datenmengen. Und andererseits gibt es den Shaddow-Mode: Auch wenn FSD nicht aktiviert wurde läuft FSD im Hintergrund mit und vergleicht FSDs Verhalten mit dem konkreten Verhalten des Fahrers in jeder Situation. Kommt es zu einer eklatanten Abweichung werden Tesla diese Daten gesendet. Außerdem hat jeder Fahrer der FSD aktiviert hat die Möglichkeit konkrete Situation per kurzem Tastendruck und Sprachnachricht an Tesla zu senden. Diesen Beitrag teilen Link zum Beitrag
Duk3 31. Oktober vor 8 Stunden von Popper: Der Artikel regt zum Nachdenken an und stellt die Frage, ob eine völlige Abhängigkeit von rein datengetriebenen Ansätzen in der KI tatsächlich der richtige Weg ist. Ottes Standpunkt zeigt, dass wir noch nicht das tiefe Verständnis und die nötige Technologie haben, um menschenähnliches Denken und Reagieren zu imitieren – was im Bereich des autonomen Fahrens bedeutet, dass eine völlig autonome Lösung noch nicht absehbar ist." Hier ein Beitrag aus dem Waymo Blog https://waymo.com/blog/2024/10/introducing-emma/ Zum aktuellen Umgang mit Sprachmodelen. Sie beschreiben den Vorteil von Co-Training, durch das gleichzeitige Meistern mehrerer Aufgaben, aber auch dem Nachteil das ein Langzeitgedächtnis des Models fehlt. Das Model arbeit ohne 3-D Sensoren. Hat FSD also ein ähnliches "Problem" des Langzeitgedächtnises? Diesen Beitrag teilen Link zum Beitrag
Nyx 31. Oktober · bearbeitet 31. Oktober von Nyx vor 9 Stunden von Popper: @Nyx: Deine Kritik an den Auszug des Artikels kann ich nicht ganz nachvollziehen.... Ich selbst habe nur den Hintergrund, dass ich u.a. für die HW Bereitstellung für Autonomes Fahren bei einem Autohersteller verantwortlich war (ist allerdings schon 4 Jahre her ...) Vielleicht gelingt Chatgpt eine bessere Interpretation des Artikels der du besser Zustimmen kannst. :-) Nunja, alleine die Behauptung, dass "Deep Learning" generell nicht mit wenigen Trainingsdaten umgehen kann ist falsch. Für die LLM Implementierung von ChatGPT gilt das und vermutlich auch für Modelle Autonomen Fahrens (nicht eindeutig beurteilbar, weil nicht veröffentlicht). Der Begriff "Deep Learning" kam damals als Gegensatz zu "Shallow Learning" bzw. "klassischem" Machine Learning (Random Forests, Gradient Boosting, ...) auf. Es gibt keinen inhärenten Grund warum ein DL Modell generell nur mit riesigen Trainingsdaten erfolgreich sein sollte. Das hängt schlicht und einfach von der Problemstellung und der verwendeten Architektur & Training des Modells ab. Es gibt in der Forschung erfolgreiche Beispiele mit geringer Anzahl von Trainingsdaten. Und selbst der Hunde und Katzen Vergleich des Autors ist nicht korrekt, weil genau dieses Beispiel mit Transfer Learning durchaus machbar ist (grob: Pre-Training auf einem anderen Bilddatensatz ohne Hunde und Katzen). Klar, die Öffentlichkeit kennt nur LLMs wie ChatGPT, autonome Fahrmodelle oder Generatoren wie Stable Diffusion. "Deep Learning" ist aber viel mehr, und das sollte dem Autor auch bewusst sein. Von akademischer Seite her schert er in dem Auszug aber alles über einen Kamm. Der Inhalt von ChatGPT klingt im Ton schon anders, aber unterscheidet sich hier dann doch vom Original (wenn du ihn nur mit dem Auszug gefüttert hast). Diesen Beitrag teilen Link zum Beitrag
herbert_21 31. Oktober Die große Ironie bei Tesla hier im WPF: 20.860 Einträge, hauptsächlich kritisch gegenüber Tesla. In einem hatten die Tesla Anleger / Bullen recht: Die drei deutschen Traditionsanbieter BMW, VW, Mercedes sind langsam, aber sicher am absteigenden Ast. Selbiges gilt auch für Stellantis, GM, Ford: "Legacy auto is doomed." Die Fixkosten sind zu hoch, das EV Geschäft kostet nur Geld und ist nicht profitabel, man hatte die Wahl EVs unprofitabel zu produzieren, oder aber Verbrenner zu "melken" und gleichzeitig an Stückzahl zu verlieren. Am Grundproblem ändern auch Strafzölle gegen China nichts. Tesla kommt sehr gut durch die Krise, und rückwirkend waren die "proaktiven Entlassungen" berechtigt. Der Übergang zu E-Autos kann um Jahre, Jahrzehnte verzögert werden, aber er ist unaufhaltsam. TL;DR @Holgerli hatte recht. Diesen Beitrag teilen Link zum Beitrag
Michalski 31. Oktober · bearbeitet 31. Oktober von Michalski vor 6 Stunden von Holgerli: Ja, aber exakt das schafft Tesla doch: Einerseits fahren über 7 Mio. Fahrzeuge auf der Straße mit FSD-Hardware an Bord Tag für Tag durch die Gegend und liefern Tesla riesige Datenmengen. Und andererseits gibt es den Shaddow-Mode: Auch wenn FSD nicht aktiviert wurde läuft FSD im Hintergrund mit und vergleicht FSDs Verhalten mit dem konkreten Verhalten des Fahrers in jeder Situation. Kommt es zu einer eklatanten Abweichung werden Tesla diese Daten gesendet. Außerdem hat jeder Fahrer der FSD aktiviert hat die Möglichkeit konkrete Situation per kurzem Tastendruck und Sprachnachricht an Tesla zu senden. So stellen sich die Fans zwar gern die Arbeitsweise ihrer Tesla vor, in der Praxis funktionieren die aber nicht so. Weder liefern die Autos "riesige Datenmengen" an Tesla, noch lernt jedes Auto lokal durch "Shadow-Mode". Das ist einfach nur Teslas Marketinggeschwätz und zu der Kritik, nur Tesla würde skalieren, Waymo aber nicht: Nur zwei Monate nach Erreichen von 100.000 bezahlten Fahrten ohne Fahrer pro Woche hat Waymo die Zahl der Fahrten um 50% auf 150.000 Fahrten gesteigert! Tesla liegt dagegen immer noch bei null. Waymo wächst dagegen exponentiell von Mai 2023 bis August 2024 um das Zehnfache und dann innerhalb von zwei Monaten um weitere 50%! Selbst wenn das Cybercab in zwei Jahren kommen sollte (was ich nicht glaube), könnte Waymo bereits 15 Millionen Fahrten pro Woche durchführen! Robotaxi stunner - Waymo hits milestone of 150,00 paid autonomous trips a week vor 3 Stunden von Nyx: Nunja, alleine die Behauptung, dass "Deep Learning" generell nicht mit wenigen Trainingsdaten umgehen kann ist falsch. Nenn doch mal Beispiele, wo ein Computer mit Deep Learning anhand weniger Trainingsdaten eine Aufgabe zu lösen gelernt hat. Wie passt das damit zusammen: "Die Forscher fanden heraus, dass die Veränderung eines Pixels in etwa 74 % der Testbilder dazu führte, dass die neuronalen Netze das, was sie sahen, falsch bezeichneten. Einige Fehler waren nur leicht, wie z. B. die Verwechslung einer Katze mit einem Hund, aber andere, darunter die Bezeichnung eines Tarnkappenbombers als Hund, lagen weit daneben." AI image recognition fooled by single pixel change und "Es ist nun einmal so, dass neuronale Netze Eigenschaften in Bildern erkennen und für die Klassifikation nutzen, die der Mensch kaum oder gar nicht wahrnimmt“, erklärt Dr. Wieland Brendel, KI-Experte am Bethge Lab der Uni Tübingen. Andererseits entwickeln sie kein tiefes Verständnis einer Szene, wie ein Mensch, der üblicherweise ein Tier oder einen Gegenstand auch aus unterschiedlichen Blickwinkeln an seiner äußeren Form erkennt." Pixelmuster irritieren die KI autonomer Fahrzeuge | heise online vor 3 Stunden von herbert_21: Die große Ironie bei Tesla hier im WPF: 20.860 Einträge, hauptsächlich kritisch gegenüber Tesla. Tesla kommt sehr gut durch die Krise, und rückwirkend waren die "proaktiven Entlassungen" berechtigt. Der Übergang zu E-Autos kann um Jahre, Jahrzehnte verzögert werden, aber er ist unaufhaltsam. TL;DR @Holgerli hatte recht. Bei SMCI warst Du auch euphorisch: und siehst jetzt, wie sehr Du daneben lagst. Bei Tesla läuft es auf die gleiche Geschichte raus. Es dauert nur (wie bei Wirecard) länger. Diesen Beitrag teilen Link zum Beitrag
herbert_21 31. Oktober · bearbeitet 31. Oktober von herbert_21 Nö, nicht euphorisch, fällt bei mir unter "Invest in what you know" (Peter Lnych), da ich beruflich mit Supermicro Servern und High Performance Computing in Berührung gekommen bin, lange vor dem AI Hype. Persönliche /sachliche Kritik aber bitte im Supermicro Thread, nicht hier @Michalski. Diesen Beitrag teilen Link zum Beitrag
Michalski 31. Oktober vor 1 Minute von herbert_21: Nö, nicht euphorisch, fällt bei mir unter "Invest in what you know" (Peter Lnych), da ich beruflich mit Supermicro Servern und High Performance Computing in Berührung gekommen bin, lange vor dem AI Hype. Persönliche /sachliche Kritik aber bitte im Supermicro Thread, nicht hier @Michalski. Hattest Du schon längst dort bekommen. Du bist derjenige, der hier voreilig @Holgerli zum "Gewinner" ernennen will. Das Erwachen bei Tesla wird genauso ernüchternd werden. Diesen Beitrag teilen Link zum Beitrag
herbert_21 31. Oktober · bearbeitet 31. Oktober von herbert_21 Selbe These, anders ausgedrückt: Die Tesla Anleger haben schon vor 4-5 Jahren erkannt dass "Legacy Auto doomed ist" d.h. aich die etablierten Hersteller vor dem Dilemma sehen, wenigernzu verkaufen und dafür mehr Marge zu machen. Das haben wir im Wesentlichen in den letzten 24 Monaten überall gesehen. Wer den Zeitpunkt richtig erwischt hat, konnte mit BMW und Co Aktien gutes Geld verdienen. Diese Zeiten sind, nach meiner bescheidenen Ansicht nach, nun endgültig vorbei. Der Verbrenner wird langfristig zu einem Nischenprodukt und globale Verkaufszahlen mehr und mehr schrumpfen. Wachstumszahlen wird es, auf globaler Ebene, nur bei BEV geben, weil es die günstigstere, einfachere, nachhaltigere, saubere und effizientere Technologie ist. Da helfen weder Leugnen und Zweifel säen, noch Importzölle auf chinesische BEV. Diesen Beitrag teilen Link zum Beitrag
Michalski 31. Oktober vor 17 Minuten von herbert_21: Wachstumszahlen wird es, auf globaler Ebene, nur bei BEV geben, weil es die günstigstere, einfachere, nachhaltigere, saubere und effizientere Technologie ist. Da helfen weder Leugnen und Zweifel säen, noch Importzölle auf chinesische BEV. Nur Tesla ist beim Wachstum nicht mehr mit dabei. Die versuchen nur noch mit immer mehr Rabatten und Subventionierung von Finanzierungen ihren Absatz zu halten, was die Margen in den Keller drückt. Dazu die übliche Bilanzkosmetik - wo soll das langfristig hinführen? BYD hat Tesla mittlerweile nicht nur bei der Zahl der ausgelieferten Elektroautos überholt, sondern auch beim Umsatz mit Elektroautos: BYD Revenue Eclipses Tesla (TSLA) for First Time as EV Giants Go Head to Head - Bloomberg Diesen Beitrag teilen Link zum Beitrag
alex08 31. Oktober vor einer Stunde von Michalski: Nur Tesla ist beim Wachstum nicht mehr mit dabei. Die versuchen nur noch mit immer mehr Rabatten und Subventionierung von Finanzierungen ihren Absatz zu halten, was die Margen in den Keller drückt. Dazu die übliche Bilanzkosmetik - wo soll das langfristig hinführen? BYD hat Tesla mittlerweile nicht nur bei der Zahl der ausgelieferten Elektroautos überholt, sondern auch beim Umsatz mit Elektroautos: BYD Revenue Eclipses Tesla (TSLA) for First Time as EV Giants Go Head to Head - Bloomberg Stichwort Rabatt: der 1.000€ Referral Bonus wurde um die Hälfte gekürzt. Diesen Beitrag teilen Link zum Beitrag
Barqu 31. Oktober Um noch mal zu den Halluzinationen zurueck zu kommen: Quote https://de.wikipedia.org/wiki/Halluzination_(Künstliche_Intelligenz) Ursachen Forscher haben unerwünschte Halluzinationen als ein statistisches Phänomen bezeichnet oder Halluzinationen auf unzureichende Trainingsdaten zurückgeführt. Da große Sprachmodelle kein vollständiges Wissen der Welt besitzen, wird fehlendes Wissen interpoliert bzw. konfabuliert.[6] Diese Eigenschaft von Sprachmodellen ermöglicht es, Anfragen an das Modell auf eine kreative Weise zu beantworten, anstatt ausschließlich auf vorhandenes Wissen zurückgreifen zu können. Allerdings führt dies auch dazu, dass eine Anfrage des Benutzers, auf die eine objektiv richtige Antwort existiert, dem Modell aber unbekannt ist, auf eine Weise beantwortet wird, die richtig erscheinen kann, jedoch nicht den Tatsachen entspricht. (...) Halluzination wurde als statistisch unvermeidliches Nebenprodukt eines jeden unvollkommenen generativen Modells erkannt, das darauf trainiert ist, die Trainingswahrscheinlichkeit zu maximieren, wie zum Beispiel GPT-3. Ebenfalls können Fehler beim Kodieren und Dekodieren zwischen Text und Repräsentationen Halluzinationen verursachen. (...) Sofern - wie ich weiter oben angedacht hatte - Teslas Problem vergleichbar mit Halluzinationen sind, wird es vermutlich nie moeglich sein auf "supervised" zu verzichten. Unsere Welt ist dynamisch und es wird nie aufhoeren, dass die KI "neue" Situationen beurteilen muss. Aber genau unter diesen Bedingungen kommt es zu Halluzinationen, die mal korrekt geraten sind, aber manchmal eben auch voellig verkehrt. Mit einem solchem Risiko kann es keine Freigabe fuer den Strassenverkehr geben. Der eingeschlagene Weg ist eine Sackgasse. Diesen Beitrag teilen Link zum Beitrag
Nyx 31. Oktober vor 9 Stunden von Michalski: Nenn doch mal Beispiele, wo ein Computer mit Deep Learning anhand weniger Trainingsdaten eine Aufgabe zu lösen gelernt hat. https://arxiv.org/pdf/2003.12843 und da ist quasi keine data augmentation dabei geschweige denn Modelarchitektur & Parameteroptimierung. Ansonsten probiere es einfach selbst: https://github.com/fchollet/deep-learning-with-python-notebooks/blob/master/first_edition/5.2-using-convnets-with-small-datasets.ipynb https://github.com/LinggarM/Dog-vs-Cat-Classification-with-Transfer-Learning-using-VGG16 Oder bei einer anderen Domäne: "PINNs" können meistens gut mit wenigen Trainingsdaten umgehen. https://www.sciencedirect.com/science/article/abs/pii/S1474034623003609 Etc. pp. https://arxiv.org/pdf/1904.09135 https://ieeexplore.ieee.org/document/8962219 https://www.sciencedirect.com/science/article/abs/pii/S0925231218310749?via%3Dihub Das ist jetzt aber schon lange OT. Das Interview erinnert mich an vereinzelte Professoren die sich wehement gegen das IPCC und den Klimawandel stemmen. DIe implizite Hypothese dabei ist, dass alle anderen / die überwältigende Mehrheit der Wissenschaftler keinerlei wissenschaftliche Expertise besitzt. Analog denkt hier ein Prof der Uni Ulm (laut Auszug), dass die große Mehrheit an Wissenschaftlern von den renommiertesten Universitäten & Institutionen komplett falsch liegt. A là "kann gar nicht funktionieren". Aber wie heißt es so schön: extraordinary claims require extraordinary evidence. Diesen Beitrag teilen Link zum Beitrag
Michalski 1. November vor 19 Stunden von Nyx: https://arxiv.org/pdf/2003.12843 und da ist quasi keine data augmentation dabei geschweige denn Modelarchitektur & Parameteroptimierung. Hast Du auch das Ergebnis gelesen? „In dieser Arbeit haben wir uns mit dem Problem der Bildklassifikation bei wenigen Beispielen pro Klasse auseinandergesetzt. Obwohl die Ergebnisse noch weit von den Erfolgen leistungsstarker Modelle mit großen Datenmengen entfernt sind, ermutigen wir die Community, die Fähigkeiten von tiefen Netzwerken mit kleinen Datensätzen weiter zu untersuchen und zu verbessern. […] Andererseits erreichen größere Netzwerke bei Verwendung von Datenaugmentation schnell eine höhere Leistung, selbst bei grundlegenden Augmentierungsstrategien, da die künstliche Ergänzung von Trainingsbildern hilft.“ Full Self Driving wird man so nicht lösen können. Teslas FSD-Chef blamiert sich auf Twitter gerade mit völliger Ahnungslosigkeit, welche Features eigentlich nun alle zu FSD gehören sollen, aber sie „streben an“, mit v13 irgendwann feature complete zu sein. Etwas, was Elon Musk für Ende 2019 versprochen hatte. Währenddessen hat mit Zoox (Amazon) eine zweite Firma die Erlaubnis erteilt bekommen, autonome Robotaxis in San Francisco und Las Vegas ausrollen zu können und die haben weder ein Lenkrad, noch Pedalen und können sowohl vorwärts wie rückwärts fahren, weil sie symmetrisch aufgebaut sind: https://www.iotworldtoday.com/transportation-logistics/zoox-self-driving-taxis-set-for-san-francisco-vegas Jesse Levinson, Chef von Zoox, zweifelt derweil öffentlich an Teslas Fähigkeiten und teilt aus. Während Tesla seit Jahren mit einer baldigen Verfügbarkeit wirbt, sieht Levinson nicht, dass das Unternehmen überhaupt über die nötige Technologie zum autonomen Fahren verfügt: https://www.winfuture.de/news/146418 Die Fans, die letzte Woxhe noch darauf setzten, dass Tesla jetzt auf über $300 hochschiessen wird, sind mittlerweile enttäuscht. Den wievielten Tag in Folge gibt die Aktie schon wieder Gewinne nach dem Earnings Call ab? Willkommen zurück unter $250. Bei aktuell $248 hat die Aktie seit Jahresbeginn sogar an Wert verloren, während der NASDAQ 100 um +21% zugelegt hat. Wie war das nochmal mit dem Beta von Tesla? Diesen Beitrag teilen Link zum Beitrag
Barqu 2. November ESG relevant? Quote Körperliche Beschwerden und Überlastung zählen zu den häufigsten Klagen der Mitarbeiter des Werks in Grünheide. Die IG Metall macht basierend auf der Umfrage Verbesserungsvorschläge. https://www.faz.net/aktuell/wirtschaft/unternehmen/umfrage-arbeit-bei-tesla-in-gruenheide-ist-ein-knochenjob-110085118.html Diesen Beitrag teilen Link zum Beitrag
Nyx 2. November vor 16 Stunden von Michalski: Hast Du auch das Ergebnis gelesen? „In dieser Arbeit haben wir uns mit dem Problem der Bildklassifikation bei wenigen Beispielen pro Klasse auseinandergesetzt. Obwohl die Ergebnisse noch weit von den Erfolgen leistungsstarker Modelle mit großen Datenmengen entfernt sind, ermutigen wir die Community, die Fähigkeiten von tiefen Netzwerken mit kleinen Datensätzen weiter zu untersuchen und zu verbessern. […] Andererseits erreichen größere Netzwerke bei Verwendung von Datenaugmentation schnell eine höhere Leistung, selbst bei grundlegenden Augmentierungsstrategien, da die künstliche Ergänzung von Trainingsbildern hilft.“ Natürlich Diesen Beitrag teilen Link zum Beitrag
Michalski 3. November · bearbeitet 4. November von Michalski So sieht übrigens ein Cybertruck nach einem Überschlag aus. Ist der jemals Crash getestet worden? Naja, ist bei dem Nachfrageeinbruch wohl auch egal. Nur 2,5% der Cybertruck-Vorbestellungen konnten zu einem Abschluss geführt werden, trotz der Einführung des billigeren Modells: Tesla Only Has 10 Days of Cybertruck Order Backlog Before Being Forced to Halt the Production Line | Torque News Ach ja, und Elon blamiert sich gerade mit einer fehlerhaften Türklopf-App, bei der Musks America PAC Werber bezahlt, ohne dass überprüft werden kann, ob die Freiwilligen tatsächlich ihre Aufträge ausführen: Elon Musk’s $100 Million Plan to Help Trump Has a Hilarious Flaw | The New Republic Aber hey, Tesla ist eine Technologiefirma. Diesen Beitrag teilen Link zum Beitrag