reko 28. Juni · bearbeitet 28. Juni von reko Ein neuronales Netz ist extrem einfach aufgebaut das kann mit konfigurierbarer Logik mit integrierten Speicher realisiert werden. Es ist im Wesentlichen immer das gleiche Netzwerk nur mit anderen Parametern. Mir ist keine KI bekannt, die das Netzwerk im Betrieb selbstständig verändert - das macht nur natürliche Intelligenz. Diese einfache parallele Arbeit mit Garfikprozessoren zu emulieren ist sehr aufwendig. Die im Link genannte Energieeinsparung um Faktor 78 ist relevant. Das war auch der Knackpunkt beim Kryptomining. Diesen Beitrag teilen Link zum Beitrag
The Statistician 28. Juni vor 14 Minuten von reko: Es ist im Wesentlichen immer das gleiche Netzwerk nur mit anderen Parametern. Mir ist keine KI bekannt, die das Netzwerk im Betrieb selbstständig verändert Es ist nicht immer das gleiche Netzwerk nur mit anderen Parametern. Dafür muss man sich nur die Entwicklungen der vergangenen Jahre anschauen. Modellarchitekturen können unterschiedlich komplex ausfallen und auch inhaltlich auf gänzlich andere Ansätze aufbauen. Die Anzahl der Parameter ist im Zuge der angestiegenen Komplexität der jeweiligen Netzwerkarchitekturen in den vergangenen Jahren massiv angestiegen. GPT-2 hatte über 1 Milliarde Parameter, GPT-3 über 175 Milliarden und GPT-4 nochmal um Faktor 10 mehr. Dann kommen noch unterschiedliche/neue Layer hinzu (z.B. Nutzung des Attention Mechanismus). In dem Bereich ist einfach zu viel Entwicklung vorhanden, sodass sich ASICs schlicht nicht lohnen. Du stellst dir das zu simple vor a la "Ist ja immer das selbe, nur mit mehr Daten" o.Ä.. Ist es eben nicht und das ist auch der Grund wieso kein Mensch ernsthaft über ASICs im großen Stil für diesen Bereich nachdenkt. Diesen Beitrag teilen Link zum Beitrag
Dandy 28. Juni vor 31 Minuten von The Statistician: Sehe hier kein Potential für ASIC im allgemeinen Kontext von AI. Bei Mining hast du eine spezifische Problemstellung, für die du ASIC perfekt nutzen kannst, da keine großen/stetigen Änderungen zu erwarten sind. Bei AI hast du den Bedarf an Flexibilität und das steht entgegen der Nutzung von ASICs. ASIC heißt nicht gleich starr bzw. unflexibel. Letztlich ist eine NVIDIA GPU auch nur ein ASIC, genauso wie ein Intel-Prozessor. Man kann mittels ASIC aber eben völlig neue Strukturen, bspw. mit eingebettetem Speicher oder reprogrammierbar wie bei FPGAs (sind letztlich auch "nur" ASICs), schaffen, die viel besser an die benötigten Strukturen von KI angepasst sind. Um nur mal ein Beispiel zu nennen: https://www.forbes.com/sites/karlfreund/2024/03/25/cerebras-update-the-wafer-scale-engine-3-is-a-door-opener/ Damit will ich nicht sagen, dass eine solche Lösung die Bessere wäre, aber ob GPU Strukturen sich dauerhaft als die beste technische Lösung herausstellen und welche Rolle NVIDIA dabei spielen wird, da ist das letzte Wort noch längst nicht gesprochen. Wir befinden uns quasi immer noch im Urschlamm der KI. Wie im Micron-Thread schon erwähnt, halte ich In-Memory Computing für besonders interessant in dem Zusammenhang. Man kann dabei die Zahlen über mehrere Spannungsniveaus statt über mehrere Bits darstellen. Dabei kann es zwar zu Fehlern kommen, ähnlich wie bei SSDs (die per Fehlerkorrektur wieder ausgemerzt werden), aber die sind bei neuronalen Netzen weniger kritisch und man kann sogar einfache arithmetische Operationen direkt im analogen Bereich bewerkstelligen. Damit bräuchte man deutlich weniger Ressourcen als für eine rein digitale Realisierung (ein Transistor pro Wert, statt 4-16 derzeit). Eine solche Struktur hätte auch deutlich stärkere Ähnlichkeit mit unserem Nervensystem. Neuronale Netze sind prinzipiell unscharf und daher ist eine exakte (digitale) Berechnung auch nicht notwendig. Diesen Beitrag teilen Link zum Beitrag
reko 28. Juni · bearbeitet 28. Juni von reko vor 51 Minuten von The Statistician: GPT-2 hatte über 1 Milliarde Parameter, GPT-3 über 175 Milliarden und GPT-4 nochmal um Faktor 10 mehr. Das ist nur mehr vom Gleichen. Im Wesentlichen sind es immer viele Knoten mit Additionen und multiplikativen Parametern. Ob man jetzt noch einige Hidden Layer einfügt ist schaltungstechnisch nicht entscheidend. Hidden Layers kann man bei ASICs konfigurierbar machen. Der Vorteil eines Vektorprozessors ist, dass er im Gegensatz zu einer CPU viele Operationen parallel ausführt. Er kann aber niemals so viele Operationen wie ein ASIC parallel ausführen. Die Rechenoperationen sind so einfach, dass man dafür keinen Computer braucht. Diesen Beitrag teilen Link zum Beitrag
Dandy 28. Juni Nochmal: ASIC heißt eigentlich gar nichts. Jeder Chip ist letztlich irgendwo ein ASIC, nähmlich eine anwendungsspezifische integrierte Schaltung. Das gilt auch für NVIDIAs GPUs oder Prozessoren von Intel und Co. Die Frage ist vielmehr, welche Schaltungsstrukturen sich auf Dauer als ideal für das Problemfeld der KI herausstellen. Dass dies zufällig klassische Rechenbeschleuniger auf GPU-Basis von NVIDIA bleiben werden ist absolut nicht gesagt bzw. halte ich sogar eher für unwahrscheinlich. Das heißt natürlich nicht, dass NVIDIA nicht auch andere Strukturen umsetzen könnte, die Frage ist hier aber vielmehr, ob nicht ein innovativer neuer Ansatz eines anderen Unternehmens eher das Rennen machen wird. Die Zeit wird es zeigen. Diesen Beitrag teilen Link zum Beitrag
reko 28. Juni · bearbeitet 28. Juni von reko EIne CPU ist darauf optimiert extrem schnell und wiederholt auf eine beliebige Speicherstelle zuzugeifen, eine beliebige Rechenoperation auszuführen und das Ergebnis an eine ev andere beliebige Speicherstelle auszugeben. Das Gehirn und auch KI arbeitet sehr langsam, parallel, nutzt immer die gleichen Speicherstellen/Operationen und verändert nur beim Lernen die Parameter. GPUs waren nur gerade im Massenmarkt verfügbar, aber sind keinesfalls die optimale Lösung. Diesen Beitrag teilen Link zum Beitrag
Schwachzocker 28. Juni Ich hab`s noch immer nicht verstanden. Kann es bitte jemand nochmal erklären. Diesen Beitrag teilen Link zum Beitrag
The Statistician 29. Juni vor 22 Stunden von reko: Das ist nur mehr vom Gleichen. Im Wesentlichen sind es immer viele Knoten mit Additionen und multiplikativen Parametern. Ob man jetzt noch einige Hidden Layer einfügt ist schaltungstechnisch nicht entscheidend. Hidden Layers kann man bei ASICs konfigurierbar machen. Die Anzahl der Layers ist doch nicht mein Punkt, es geht um die Architektur selbst und damit verbundenen methodischen Aspekten. Ein Transformer unterscheidet sich zu einem GNN beispielsweise extrem stark und das hat nichts mit der Layer Anzahl zu tun. Google bietet über ihre Cloud TPUs an (wäre ein bekanntes Beispiel). TPUs sind dabei vor allem für Transformer Architekturen optimiert. Bei anderen Architekturen hat man nicht zwingend den gleichen Boost bzw. fällt der Mehrwert merklich geringer aus oder ist nicht existent, insbesondere wenn man GNNs nutzt (Graph Neural Networks). Bei GNNs sind andere Operationen relevant (vor allem Sparse Matrix Multiplication) und dafür sind die TPUs nicht optimiert. Auch bringen dir die TPUs nichts, wenn du Custom Funktionalitäten oder nicht supportete Funktionen aus tensorflow nutzen möchtest (kann mal vorkommen). Beim Framework passt das meist, da es für PyTorch zwecks Compiler noch eine eigene Library gibt, aber da kann man auch ein paar nervige Themen haben (idR passt das aber recht gut). Übrigens kann man mit der Batch Size auch noch einiges rausholen, sodass sich TPUs dann teils kaum lohnen. vor 22 Stunden von Dandy: Um nur mal ein Beispiel zu nennen: https://www.forbes.com/sites/karlfreund/2024/03/25/cerebras-update-the-wafer-scale-engine-3-is-a-door-opener/ Ein Beispiel was mit WSE-2 bereits vor 2 (?) Jahren ähnliche Artikel hervorgebracht hat. Bei WSE-2 hat man da bereits die Fantasien bespielt a la "Das wird AI revolutionieren". Die großen Unternehmen kaufen dennoch lieber bei NVIDIA ein und das wird auch mit WSE-3 IMO unverändert bleiben. Ob sich derartige Chips für eine skalierte Anwendung wirklich lohnen, wird sich noch zeigen müssen, die großen Unternehmen machen nach wie vor einen Bogen drum oder kochen ihre eigene Suppe. Derart große Chips haben ihre Nachteile und auch wenn Cerebras meint alles gut gelöst zu haben, habe ich immer noch Zweifel wie gut man das in ökonomischer Hinsicht skalieren kann. Zumal man sich bei der Performance auffällig stark auf LLMs konzentriert. Dürfte daher in eine ähnliche Kerbe schlagen wie die TPUs von Google. Was mich bei Cerebras am meisten skeptisch macht, sind die fehlenden Benchmarks oder hat man seit WSE-2 mal was publiziert? Bei Cerebras brauchst du noch eine Software Lösung bzw. Cerebras bietet eine eigene Plattform an. Muss schließlich alles mit deren Compiler überführt werden. Für einige Ansätze mag das unter Umständen sinnig sein, aber GPUs sind für neue/andere Architekturen, Experimente oÄ immer noch auf Augenhöhe und ökonomisch idR sinniger. NVIDIA bietet ein bekanntes Ökosystem, man findet genügend Experten für eine Implementierung, NVIDIA hat einen soliden Track Record und die Roadmap wirkt ebenso vielversprechend. AI Chips sehe ich primär bei spezialisierten Anwendungen und aktuell vor allem für Inferenz verortet. Einen generischen Performance Boost, wie von einigen oft propagiert, gibt es mit solchen Chips nach wie vor nicht und das scheinen viele nicht zu wissen. Das ist bei den TPUs der Fall und wird bei WSE-2/3 nicht anders sein (da wahrscheinlich auch auf Transformer optimiert). Diesen Beitrag teilen Link zum Beitrag
reko 29. Juni · bearbeitet 29. Juni von reko Video 2024/06/25: Reinhard Panse: Das droht Nvidia und der US-Wirtschaft jetzt tatsächlich // Mission Money (These: Nvidia ist die neue Cisco) Zitat Panse betont die Bedeutung von #Investitionen und erklärt, warum die Bewertung von europäischen Aktien im Vergleich zu amerikanischen Aktien derzeit so viel günstiger ist, und welche Schlüsse Anleger daraus ziehen sollten. Steht er zu seiner These "Raus aus US-Aktien"? Stehen wir kurz vor dem nächsten Tech-Crash, wenn der KI-Hype in den USA platzt? Reinhard Panse sieht beunruhigende Ähnlichkeiten zu vergangenen Marktcrashs und vergleicht die Entwicklung von Cisco mit Nvidia und Co.. Panse verrät außerdem, welche Branchen von künstlicher Intelligenz extrem profitieren werden und warum der US-Wirtschaft und dem Dollar ein historischer Rückschlag bevorstehen könnte. Diesen Beitrag teilen Link zum Beitrag
No.Skill 29. Juni vor 46 Minuten von reko: erklärt, warum die Bewertung von europäischen Aktien im Vergleich zu amerikanischen Aktien derzeit so viel günstiger ist, und welche Schlüsse Anleger daraus ziehen sollten. Steht er zu seiner These "Raus aus US-Aktien"? Stehen wir kurz vor dem nächsten Tech-Crash Das hab ich jetzt 2009/10/11/12/13/14/15/18/19/20/21 gelesen. Wird andauernd wiederholt, gleich dicht gefolgt von dem Tipp Japan, Vietnam und der Rohstoffe die in einem super Zyklus starten. Ach Gold und Silber vergessen Du weißt besser was ich meine. Grüße No.Skill Diesen Beitrag teilen Link zum Beitrag
reko 29. Juni · bearbeitet 29. Juni von reko vor 11 Minuten von No.Skill: Das hab ich jetzt 2009/10/11/12/13/14/15/18/19/20/21 gelesen. Muß es deshalb falsch sein. Meinungen hört man sich an und zieht seine eigenen Schlüsse. Ich will dich nicht davon abhalten in Nvidia zu investieren. Wie auch im Video gesagt, Nvidia ist wie Cisco eine gute Firma. Diesen Beitrag teilen Link zum Beitrag
Mkoll 29. Juni · bearbeitet 29. Juni von Mkoll vor 51 Minuten von No.Skill: Das hab ich jetzt 2009/10/11/12/13/14/15/18/19/20/21 gelesen. Wird andauernd wiederholt, gleich dicht gefolgt von dem Tipp Japan, Vietnam und der Rohstoffe die in einem super Zyklus starten. Ach Gold und Silber vergessen Silber hat aber vor kurzem gut angezogen Ich bleibe bei NV investiert. Diesen Beitrag teilen Link zum Beitrag
No.Skill 29. Juni · bearbeitet 29. Juni von No.Skill vor 2 Stunden von reko: Muß es deshalb falsch sein. Meinungen hört man sich an und zieht seine eigenen Schlüsse. Ich will dich nicht davon abhalten in Nvidia zu investieren. Wie auch im Video gesagt, Nvidia ist wie Cisco eine gute Firma. Ja ne passt, bin eigentlich nur mit ETF und paar Einzelaktien unterwegs. Mich stören nur diese ewigen Warner, immer warnt irgendwer vor irgendwas. Dass es Risiken gibt, ist unumstritten, aber dieses Warnen ist basierend auf der gleichen Glaskugel unseriös wie, Empfehlung Aktie xy steigt weil... Diesen Beitrag teilen Link zum Beitrag
Schwachzocker 29. Juni vor 3 Stunden von No.Skill: Das hab ich jetzt 2009/10/11/12/13/14/15/18/19/20/21 gelesen. 22 und 23 nicht? Diesen Beitrag teilen Link zum Beitrag
No.Skill 29. Juni vor 41 Minuten von Schwachzocker: 22 und 23 nicht? Muss ich mal recherchieren, hab nicht genau hingehört Diesen Beitrag teilen Link zum Beitrag
reko 4. August · bearbeitet 4. August von reko "Four Big Tech companies account for 40 percent of Nvidia's revenue." Ist das ein temporärer Bedarf für die KI-Erstausstattung? Am 29.6.2024 um 19:05 von No.Skill: Mich stören nur diese ewigen Warner, immer warnt irgendwer vor irgendwas. Dass es Risiken gibt, ist unumstritten, aber dieses Warnen ist basierend auf der gleichen Glaskugel unseriös wie, Empfehlung Aktie xy steigt weil... Es geht darum keine Pros und Cons zu übersehen. Abwägen muß jeder selbst. Immer wenn die Masse euphorisch ist werde ich vorsichtig. Es ist die Frage ob man pro- oder antizyklisch orientiert ist. Wenn man auf Momentum setzt, dann muß man schnell sein. Diesen Beitrag teilen Link zum Beitrag
No.Skill 4. August vor einer Stunde von reko: Wenn man auf Momentum setzt, dann muß man schnell sein. Da bin ich voll bei dir Wenn man wie ich auf B&H setzt, muss man zwingend dabei bleiben, was haben mich in frühen Börsenjahren diese "Crashs News" an Geld gekostet. 1 - 2 % Depotanteil in Nvidia einfach laufen lassen und "Nachrichten" ignoriere? Oder wie ich im ETF entspannt zuschauen und den Markt machen lassen. Grüße No.Skill Diesen Beitrag teilen Link zum Beitrag
reko 4. August · bearbeitet 4. August von reko vor 8 Minuten von No.Skill: Wenn man wie ich auf B&H setzt, muss man zwingend dabei bleiben Kann man machen, bei zyklischen Aktien kann das aber anstrengend werden. Viele nehmen sich das vor und Wenige halten es durch. how-to-follow-fund-flows-in-the-stock-market Diesen Beitrag teilen Link zum Beitrag
No.Skill 4. August vor 4 Stunden von reko: Viele nehmen sich das vor und Wenige halten es durch. Ja, das stimmt, bin nun schon seit 2004/5 dabei und hab meine Lektion^^ gelernt. Hoffen wir das es ab jetzt zu unseren Gunsten läuft Viel Erfolg bei deinen Investitionen, grüße No.Skill. Diesen Beitrag teilen Link zum Beitrag
Holgerli 4. August Gerüchten zu Folge, soll sich der neue B200-AI-Chip aufgrund eines Designfehlers um (bis zu) mehere Monate verzögern: Heise: https://www.heise.de/news/NVIDIAs-neue-KI-Chips-der-Reihe-Blackwell-koennten-sich-um-Monate-verspaeten-9823168.html Etwas detailierter ist Golem: https://www.golem.de/news/konstruktionsfehler-nvidias-blackwell-b200-chips-sollen-sich-um-monate-verzoegern-2408-187712.html Diesen Beitrag teilen Link zum Beitrag
StE 4. August Alle Chips dieser Größenordnung haben dutzende oder hunderte Errata. Die meisten Fehler lassen sich mit Software umschiffen, oder man aktiviert sog. "chicken bits" um problematische Einheiten abzuschalten. Danach ist alles ein bisschen langsamer, aber die Chips laufen. Bei den publizierten Nothalts müssen die Fehler so groß gewesen sein, daß das nicht mehr reicht und man ein neues Stepping des Chips erzeugen muss. Klassischer Show-Stopper. Den Vogel hat Intel bei Sapphire Rapids abgeschossen, als sie ein pre-production Stepping nach dem anderen gemacht haben, und der Chip lief danach immer noch nicht zuverlässig: https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/59208-sapphire-rapids-in-12-steppings-und-spaet-dran-intel-hat-ein-post-silicon-problem.html Schuld an der Sache war CEO Krzanich, der dem Vernehmen nach Leute aus der Pre-Fab-Validation Gruppe gefeuert hat. Damit es schneller vorwärts geht. "Velocity velocity velocity" hätte Balmer wohl gebrüllt und mit einem Stuhl geworfen. "We need to move faster. Validation at Intel is taking much longer than it does for our competition. We need to do whatever we can to reduce those times… we can’t live forever in the shadow of the early 90’s FDIV bug, we need to move on. Our competition is moving much faster than we are". Diesen Beitrag teilen Link zum Beitrag
morini 28. August NVIDIA-Aktie sackt trotz Gewinn- und Umsatzssprung ab: https://www.finanzen.ch/nachrichten/aktien/nvidia-aktie-sackt-trotz-gewinn-und-umsatzssprung-ab-1033724204 Diesen Beitrag teilen Link zum Beitrag
Ramstein 30. August · bearbeitet 30. August von Ramstein INTERVIEW: POST-EARNINGS INSIGHT WITH NVIDIA CFO COLETTE KRESS Zitat After Wall Street closed the markets for the day and Nvidia reported its financial results for the second quarter of fiscal 2025, we had the opportunity to chat with Colette Kress, chief financial officer of the accelerated computing giant. We wanted to get a better handle on how the delays with the “Blackwell” GPUs would affect Nvidia’s financials, how its software business is different from that of other platform providers, how Nvidia manages for exponential growth, and how the generative AI revolution might expand the IT budgets of the world as well as cannibalize some of them. CK: Do we know what every day is going to be? Is it all going to grow at this same lovely speed? No. But we know it is going to be with us for decades. And if you keep with that understanding and vision and just continue to plan to make sure that you can do it at speed and meet the expectations on how fast things need to move, that’s all we’re going to do on the planning. And we do plan a lot. Diesen Beitrag teilen Link zum Beitrag
nomad 3. September · bearbeitet 3. September von nomad https://www.boerse-online.de/nachrichten/aktien/milliardaere-verkaufen-nvidia-und-haben-es-jetzt-auf-diese-ki-aktie-abgesehen-20365383.html Milliardäre verkaufen Nvidia-Aktien und setzen auf einen anderen KI-Kandidaten Das Finanzportal „The Motley Fool“ hat die Portfolios bekannter Milliardärsinvestoren anhand der jüngsten 13-F-Einreichungen analysiert. Diese zeigen den Stand der Portfolios zum 30. Juni, also zum Ende des zweiten Quartals. Die Experten haben dabei eine interessante Beobachtung gemacht: Während einige Milliardäre ihre Nvidia-Aktien deutlich reduziert haben, haben sie sich auf einen anderen Kandidaten fokussiert. Folgende Milliardäre haben ihre Nvidia-Aktien verkauft: • Ken Griffin von Citadel Advisors (minus 9.282.018 Aktien) • David Tepper von Appaloosa (minus 3.730.000 Aktien) • Stanley Druckenmiller vom Duquesne Family Office (minus 1.545.370 Aktien) • Cliff Asness von AQR Capital Management (minus 1.360.215 Aktien) • Israel Englander von Millennium Management (minus 676.242 Aktien) • Steven Cohen von Point72 Asset Management (minus 409.042 Aktien) • Philippe Laffont von Coatue Management (minus 96.963 Aktien) Vermutlich handelt es sich dabei hauptsächlich um Gewinnmitnahmen und den Wunsch nach größerer Diversifizierung. Die Nvidia-Aktie gewann stetig an Wert und nahm in den großen Indizes einen immer größeren Anteil ein. Es steht außer Frage, dass Nvidia weiterhin ein führender Akteur im KI-Bereich sein wird und die Aktie laut BÖRSE ONLINE ein Kauf bleibt. Dennoch haben die jüngsten Marktkorrekturen Anfang August gezeigt, wie wichtig es ist, auch alternative Investitionen zu erwägen. Genau das haben die Milliardäre getan und in einen anderen Kandidaten investiert. Kandidat könte Broadcom sein. Diesen Beitrag teilen Link zum Beitrag
hattifnatt 3. September vor 3 Stunden von nomad: Kandidat könte Broadcom sein. Eine überbewertete Aktie durch eine andere überbewertete ersetzen? Typischer Finanzporno ... Diesen Beitrag teilen Link zum Beitrag