Zum Inhalt springen
StockJunky

NVIDIA Corporation (NVDA)

Empfohlene Beiträge

Vette
vor einer Stunde von LongtermInvestor:

und wer hat bei NVDA nachgekauft? 

Here I am.

Diesen Beitrag teilen


Link zum Beitrag
alex08
· bearbeitet von alex08

Das ist in der Tat klassisches Bubble-Verhalten. Priced to absolute perfection und dann beim ersten Hauch von Wind geplatzt. DeepSeek scheint zwar tatsächlich eine Wende zu sein, aber noch ist es nicht wirklich bestätigt. Sollte die Effizienz stimmen, ist bei Nvidia mit -18% natürlich noch längst nicht durch. 

2000 Nvidia GPU statt 16000 wie bei OpenAi... Aber z.B. Skalierung fehlt noch. Das sind aber wohl keine 14000.

Edit: und DeepSeek scheint auch auf dem Huawei Ascend Beschleuniger (viel günstiger, wenn auch langsamer) zu basieren. Das wäre der eigentliche Genickbruch für die Nvidia-Bewertung.

Diesen Beitrag teilen


Link zum Beitrag
Dr.Akula
vor 4 Stunden von LongtermInvestor:

und wer hat bei NVDA nachgekauft? Sehr, sehr interessant wie nervös der Markt auf so eine "News" reagiert. 

Habe für mittleren 5-stelligen Betrag gekauft (nicht „nachgekauft“, hatte vorher keine nvidia position). Finanzier per Lombardkredit. Hoffe ich habe mich nicht verrannt. 

Diesen Beitrag teilen


Link zum Beitrag
LongtermInvestor
· bearbeitet von LongtermInvestor

Drücke euch die Daumen, bin nicht bei

nvda dabei. Habe das Modell getestet, wenn die Ersteller nicht lügen hinsichtlich Ressourcen, ist der Hype um die Chips vorbei. Wir werden es sehen.

Diesen Beitrag teilen


Link zum Beitrag
Dandy

Ich finde das ein bisschen einfach gedacht. Bin zwar nicht in NVIDIA investiert und bei der ganzen KI Thematik immer schon skeptisch gewesen (wenn auch erstaunt über deren Fortschritte), aber, wenn man sich mal bei anderen Technologien die Vergangenheit ansieht, dann kann ich mir sogar einen gesteigerten Bedarf nach Rechenleistung durch solche optimierten Modelle vorstellen. Der Grund ist einfach, dass besser optimierte Modelle es ermöglichen, mit den gleichen Ressourcen bessere Modelle zu erstellen, was zu mehr Möglichkeiten und höherer Nachfrage führt.

 

Mal einfach angenommen, wir hätten heute schon die Möglichkeit, eine deutlich stärkere KI, die zudem ressourcenschonender ist, einzusetzen. Dann würde diese auch entsprechend viel breiter eingesetzt, einfach weil es mehr Anwendungsmöglichkeiten gäbe und die Vorteile beim Einsatz größer würden.

 

Um einen Vergleich zu bemühen: Je leistungsfähiger und sparsamer Prozessoren wurden, desto größer wurde ihre Verbreitung. Von Großrechnern zu PC und Heimcomputer, zum Smartphone und jetzt IoT. Der Bedarf an entsprechenden Halbleitern ist seitdem explodiert, obwohl die Prozessoren immer sparsamer wurden und auch die Siliziumfläche pro Prozessor stark zurückgegangen ist (deren Kosten weniger).

 

Natürlich hinkt der Vergleich etwas, weil wir hier Hardware (Siliziumchips) mit Software (KI-Modelle) vergleichen, aber die Treiber dahinter sind meiner Ansicht nach ähnlich.

Diesen Beitrag teilen


Link zum Beitrag
Maestro315
· bearbeitet von Maestro315

Ich finds ja lustig, wie auf X und anderen Plattformen die Bären jetzt auf Nvidia los gehen.

Sorry aber wenn man nicht gerade erst seit letztem Monat bei Nvidia dabei ist, sind die -15% einfach nix...

Klar die ganzen Mainstream Medien berichten jetzt wieder über den größten Wertverlust in der Geschichte der US Aktien, da können sich dann viele wieder bestätigt fühlen dass Aktien nur zockerei sind, obwohl die vielleicht keine Ahnung haben.

 

Nüchtern betrachtet sind wir aufm Stand von Oktober 2024...

Diesen Beitrag teilen


Link zum Beitrag
Caveman8

Es geht doch nicht um die -15%. Wenn es die Chinesen wirklich geschafft haben, eine Leistungsfähige KI zu einem Bruchteil der Kosten zu bauen (die auf günstigen Chips läuft), welche Gründe sollte man dann noch haben auf die teuren NVIDIA Chips zu setzen? 
Die aktuelle Bewertung von NVIDIA setzt ein Quasimonopol voraus. Damit KÖNNTE nun Schluss sein. Die Zeit wird es zeigen, ich vermute wir sehen hier nun eine ähnliche Entwicklung wie in der Autoindustrie. 

Diesen Beitrag teilen


Link zum Beitrag
Maestro315
vor 2 Minuten von Caveman8:

Es geht doch nicht um die -15%. Wenn es die Chinesen wirklich geschafft haben, eine Leistungsfähige KI zu einem Bruchteil der Kosten zu bauen (die auf günstigen Chips läuft), welche Gründe sollte man dann noch haben auf die teuren NVIDIA Chips zu setzen? 
Die aktuelle Bewertung von NVIDIA setzt ein Quasimonopol voraus. Damit KÖNNTE nun Schluss sein. Die Zeit wird es zeigen, ich vermute wir sehen hier nun eine ähnliche Entwicklung wie in der Autoindustrie. 

Ob man den Aussagen von China so trauen kann, wie viel Geld da wirklich reingesteckt wurde... warten wir mal ab.

Zumal darf man nicht unterschätzen dass Nvidia als US Unternehmen sicherlich einen Vorzug hat. 


Die größere Gefahr für Nvidia sehe ich persönlich bei AMD, die Chips sind um einiges günstiger, da könnten viele umschwenken und so drückts die Preise etwas. Mal abwarten was AMD im Earningscall parat hat

Diesen Beitrag teilen


Link zum Beitrag
Vette
· bearbeitet von Vette
vor 27 Minuten von Caveman8:

...Wenn es die Chinesen wirklich geschafft haben, eine Leistungsfähige KI zu einem Bruchteil der Kosten zu bauen...

 

...ich vermute wir sehen hier nun eine ähnliche Entwicklung wie in der Autoindustrie. 

 

Die Chinesen haben das Rad nicht neu erfunden. Genau wie es in der Autoindustrie lief: man hat früher keine oder schlechte Autos gebaut, man hat sich über Jahre westliche Know-How und Mitarbeiter geholt und baut nun vergleichbar gute Autos.

 

Neu entwickeln oder kopieren und verbessern sind Unterschiede. Ist klar das die Entwicklung des ersten Chat GPT deutlich mehr gekostet hat, als wenn es nun auf den Markt einige Anwendungen dieser Art nun gibt und sich was daraus bastelt und optimiert. Vielleicht haben die Chinesen ja auch einen besseren Ansatz gefunden, um leistungsfähiger zu sein. Das wird sich noch herausstellen.

 

https://www.deraktionaer.de/artikel/medien-ittk-technologie/nvidia-die-wahrheit-hinter-deepseek-laut-musk-offensichtlich-20373795.html

 

"Es ist jedenfalls ein offenes Geheimnis, dass sich Händler in China über Partner in Südostasien von anderen Herstellern die Hardware kaufen, in der die benötigten Chips enthalten sind."

Diesen Beitrag teilen


Link zum Beitrag
c^3
2 hours ago, Vette said:

 

Die Chinesen haben das Rad nicht neu erfunden. Genau wie es in der Autoindustrie lief: man hat früher keine oder schlechte Autos gebaut, man hat sich über Jahre westliche Know-How und Mitarbeiter geholt und baut nun vergleichbar gute Autos.

 

Neu entwickeln oder kopieren und verbessern sind Unterschiede. Ist klar das die Entwicklung des ersten Chat GPT deutlich mehr gekostet hat, als wenn es nun auf den Markt einige Anwendungen dieser Art nun gibt und sich was daraus bastelt und optimiert. Vielleicht haben die Chinesen ja auch einen besseren Ansatz gefunden, um leistungsfähiger zu sein. Das wird sich noch herausstellen.

 

https://www.deraktionaer.de/artikel/medien-ittk-technologie/nvidia-die-wahrheit-hinter-deepseek-laut-musk-offensichtlich-20373795.html

 

"Es ist jedenfalls ein offenes Geheimnis, dass sich Händler in China über Partner in Südostasien von anderen Herstellern die Hardware kaufen, in der die benötigten Chips enthalten sind."

Ich bin auch der Meinung dass westliche Hardware zum Einsatz kommt, dies erklärt aber nur ansatzweise den Performance-Boost. Als ich für mein Natural Language Modul (zur Textinterpretation) in meine AlgoTrading-Software eingebaut habe, musste ich vorher den ganzen Python-Code auf C portieren, was die Laufzeiteffizient zum das 10-Fache gesteigert hat. Das ist der übliche Faktor wenn man von einer bytecode kompilierten Sprache in eine nativ kompilierte Sprache portiert. Gut möglich dass bei denen etwas ähnlichen gelaufen ist.

Diesen Beitrag teilen


Link zum Beitrag
slowandsteady

Zeit dieses alte Memo (Mai 2023) von Google rauszuholen: Google “We Have No Moat, And Neither Does OpenAI” – SemiAnalysis

Zitat

We’ve done a lot of looking over our shoulders at OpenAI. Who will cross the next milestone? What will the next move be?

But the uncomfortable truth is, we aren’t positioned to win this arms race and neither is OpenAI. While we’ve been squabbling, a third faction has been quietly eating our lunch.

I’m talking, of course, about open source. Plainly put, they are lapping us. Things we consider “major open problems” are solved and in people’s hands today. Just to name a few:

  • LLMs on a Phone: People are running foundation models on a Pixel 6 at 5 tokens / sec.
  • Scalable Personal AI: You can finetune a personalized AI on your laptop in an evening.
  • Responsible Release: This one isn’t “solved” so much as “obviated”. There are entire websites full of art models with no restrictions whatsoever, and text is not far behind.
  • Multimodality: The current multimodal ScienceQA SOTA was trained in an hour.

While our models still hold a slight edge in terms of quality, the gap is closing astonishingly quickly. Open-source models are faster, more customizable, more private, and pound-for-pound more capable. They are doing things with $100 and 13B params that we struggle with at $10M and 540B. And they are doing so in weeks, not months. This has profound implications for us:

  • We have no secret sauce. Our best hope is to learn from and collaborate with what others are doing outside Google. We should prioritize enabling 3P integrations.
  • People will not pay for a restricted model when free, unrestricted alternatives are comparable in quality. We should consider where our value add really is.
  • Giant models are slowing us down. In the long run, the best models are the ones which can be iterated upon quickly. We should make small variants more than an afterthought, now that we know what is possible in the <20B parameter regime.

 

Diesen Beitrag teilen


Link zum Beitrag
WalleWalle
· bearbeitet von WalleWalle

KI für Endverbraucher uninteressant?

 

"A whopping 73% of iPhone users and 87% of Samsung users say the AI features available to them "add little to no value, highlighting widespread apathy across both brands."

https://www.pcmag.com/news/survey-apple-intelligence-galaxy-ai-add-little-to-no-value-for-smartphone

 

Für produktive Anwendungen muss das Geschäftsmodell überdacht werden, mit kostenloser chinesischer KI, die auf Toastern läuft.

Diesen Beitrag teilen


Link zum Beitrag
krett

Nur das 100% aller Smartphone-Nutzer seit Jahren KI nutzen. Jedes Foto was gemacht wird nutzt KI.

Diesen Beitrag teilen


Link zum Beitrag
WalleWalle

Der Begriff KI wird inzwischen inflationär verwendet für Dinge, die nicht auf Maschinenlernen beruhen. Früher wurden Chatbots wie Siri, Alexa und diverse Photofilter nicht als KI bezeichnet. Digitale Photos gibt es schon lange vor "KI". Mein Handy bietet auch "KI-Verbesserung" an, hat aber weder KI-Chips an Bord, noch funkt es an eine KI-Serverfarm, also ein umgelabelter altmodischer Photofilter. Nvidia Chips braucht man jedenfalls nicht dafür.

Diesen Beitrag teilen


Link zum Beitrag
hattifnatt
· bearbeitet von hattifnatt
vor 39 Minuten von WalleWalle:

Der Begriff KI wird inzwischen inflationär verwendet für Dinge, die nicht auf Maschinenlernen beruhen. Früher wurden Chatbots wie Siri, Alexa und diverse Photofilter nicht als KI bezeichnet.

Die beruhen aber durchaus auf Machine Learning :-*

vor 39 Minuten von WalleWalle:

Nvidia Chips braucht man jedenfalls nicht dafür.

Die sind ja auch nur eine Krücke, um effizient Matrixmultiplikationen etc. durchführen zu können. Wenn sowas mal produktisiert wäre,  würde Nvidia gaanz alt aussehen :P

 

Diesen Beitrag teilen


Link zum Beitrag
Holgerli
vor 23 Stunden von Dr.Akula:

Habe für mittleren 5-stelligen Betrag gekauft (nicht „nachgekauft“, hatte vorher keine nvidia position). Finanzier per Lombardkredit. Hoffe ich habe mich nicht verrannt. 

Gratulation. Hat sich ja heute gelohnt. Bist Du schon wieder raus oder willst/wolltest Du länger halten?

Diesen Beitrag teilen


Link zum Beitrag
Dr.Akula
vor einer Stunde von Holgerli:

Gratulation. Hat sich ja heute gelohnt. Bist Du schon wieder raus oder willst/wolltest Du länger halten?

Bin heute kurz vor Börsenschluss wieder raus. hatte von vorne rein auf einen kurzfristigen Rebound gehofft, lange halten bei 8% Kreditzinsen wollte ich nicht. Aber dank tagesgenauer Abrechnung hat sichs gelohnt. Knappe 3k Gewinn an einem Tag. Aber war natürlich reine Zockerei. 

Diesen Beitrag teilen


Link zum Beitrag
chirlu
· bearbeitet von chirlu
vor 8 Stunden von hattifnatt:
vor 9 Stunden von WalleWalle:

Der Begriff KI wird inzwischen inflationär verwendet für Dinge, die nicht auf Maschinenlernen beruhen. Früher wurden Chatbots wie Siri, Alexa und diverse Photofilter nicht als KI bezeichnet.

Die beruhen aber durchaus auf Machine Learning :-*

 

Vermute mal, dass das „nicht“ da nicht hätte stehen sollen:

Zitat

Der Begriff KI wird inzwischen inflationär verwendet für Dinge, die auf Maschinenlernen beruhen.

 

Diesen Beitrag teilen


Link zum Beitrag

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden

×
×
  • Neu erstellen...