Zum Inhalt springen
The Statistician

Bitcoin, Kryptographie und Quantencomputer

Empfohlene Beiträge

ein_johannes
· bearbeitet von ein_johannes

Meiner Meinung nach lesenswerter, skeptischer Kommentar zum Thema KI:

https://de.investing.com/analysis/alarm-kihype-erinnert-erschreckend-an-jahr-2000--was-kommt-als-nachstes-200491247

 

Zitat

Wie im Jahr 2000 wird eine Marktumkehr dann ausgelöst, wenn die Realität den Erwartungen nicht standhält. Derzeit wird ein exponentielles Umsatzwachstum mit steigender Tendenz erwartet.

Während es durchaus möglich ist, dass diese Erwartungen erfüllt werden, besteht auch ein erhebliches Risiko, dass etwas schief geht.

Die Bäume wachsen nicht in den Himmel

Genau wie im Jahr 2000 sind die Bewertungen, die Investoren für Unternehmen wie Cisco Systems (NASDAQ:CSCO) - das Nvidia (NASDAQ:NVDA) des Dot.com-Hypes - zu zahlen bereit waren, hart auf dem Boden der Realität gelandet. Dasselbe könnte in Zukunft mit dem Thema künstliche Intelligenz passieren.

Zitat

Um zu begreifen, was schief gehen könnte, muss man wissen, dass es sich hier nicht um die übliche Spekulationsmanie handelt (obwohl es im letzten Jahr eine kleine KI-Blase gab). Die Gewinne von Nvidia steigen in etwa so schnell wie der Aktienkurs. Wenn es also eine Blase gibt, dann ist es eine Blase bei der Nachfrage nach Chips, keine reine Aktienblase. In dem Maße, in dem es eine Fehlbewertung gibt, ähnelt sie eher den Banken im Jahr 2007 - als die Gewinne unhaltbar hoch waren - und nicht den Dot-Coms der Blase von 2000, die überhaupt keine Gewinne hatten."

Zitat

... vier (4) Dinge, die schief gehen können:

1: Die Nachfrage sinkt, weil KI zu sehr gehypt wird. (Ähnlich wie bei den Dot.com-Unternehmen).

2: Der Wettbewerb drückt die Preise.

3: Lieferanten wollen einen größeren Anteil am Umsatz.

4: Was ist, wenn Skaleneffekte überhaupt keine Rolle spielen?

 

In den Worten von Roger McNamee, einer Investorenlegende aus dem Silicon Valley:

"Einige Unternehmen und Journalisten sind dem KI-Hype unkritisch verfallen. Bevor Investoren auf diesen Zug aufspringen, sollten sie folgende Fragen stellen: Wie verdient das Unternehmen Geld? Und wie plant es, eine Rendite auf eine Investition zu erzielen, die pro Trainingssatz eine halbe Million Dollar kostet, insbesondere in einem Umfeld mit 5 % Zinsen?"

 

Insbesondere das 2. Zitat oben finde ich überzeugend. Die Bewertung von z.B. Nvidia ist ja augenscheinlich nicht einmal übertrieben hoch - zumindest, so lange die Gewinne in dieser Höhe auch nachhaltig zu erzielen sind.

Diesen Beitrag teilen


Link zum Beitrag
EtfAnleger2022
vor 4 Minuten von ein_johannes:

Meiner Meinung nach lesenswerter, skeptischer Kommentar zum Thema KI:

https://de.investing.com/analysis/alarm-kihype-erinnert-erschreckend-an-jahr-2000--was-kommt-als-nachstes-200491247

Insbesondere das 2. Zitat oben finde ich überzeugend. Die Bewertung von z.B. Nvidia ist ja augenscheinlich nicht einmal übertrieben hoch - zumindest, so lange die Gewinne in dieser Höhe auch nachhaltig zu erzielen sind.

Das wird passieren wenn:

1.) Die Leute die von KI schwärmen feststellen das die KI nur so gut ist wie die Daten mit denen sie gefüttert wurde

2.) Die Leute feststellen das man um präzise, korrekte Antworten zu bekommen auch die Frage präzise und korrekt formulieren muss

 

 

Diesen Beitrag teilen


Link zum Beitrag
ein_johannes
· bearbeitet von ein_johannes

Ich zweifle nicht am Nutzen selbst. KI ist gekommen um zu bleiben. Aber das war beim Internet auch so. Es kam, es veränderte alles, wir können uns heute kein Leben ohne mehr vorstellen. Wirklich astronomische Gewinne waren aber nur mit ein paar dutzend Unternehmen zu machen, die allermeisten hingegen sind längst Geschichte - und auf die späteren Gewinner wäre damals wohl kaum jemand gekommen.

 

 

Nvidia etwa hat heute einen Marktanteil bei KI-Chips von 95%, eine einzelne Karte verkaufen sie für 30.000 Dollar und der Flaschenhals ist trotzdem immer noch die Produktion. Die Gesamtunternehmensmarge ist wohl 75% ?!

Ja, wenn das alles so bleibt und der Sektor exponentiell wächst - dann ist auch die Bewertung völlig in Ordnung. Aber nur weil KI bleiben wird bedeutet das mMn. nicht, das dauerhaft jeder dieses Unternehmen mit Geld bewirft wie derzeit. 

Diesen Beitrag teilen


Link zum Beitrag
StE

Mein innerer Nostradamus meint zu KI, daß die Konkurrenz für NVidia nicht von anderen Chipherstellern kommen wird, sondern von algorithmischen Fortschritten. Vielleicht von Facebook, vielleicht von einer chinesischen Uni, vielleicht von einem 15-jährigen Inder mit geborgtem Notebook des Onkels. Plötzlich könnte für Training auch wieder ein PC ausreichen. Wenn auch mit möglichst viel RAM und CPU-Cores. Intel hat kürzlich Chips mit vielen sparsameren E-Cores vorgestellt, sowas. Die Analogie zu Cisco liegt nahe, aber in der Massenpanik könnte es NVidia noch viel schneller und krasser erwischen. Mit ihr auch diverse Indizes, vor allem US-Tech-lastige, also auch jeder All-World. 2000 gab es noch keine Smartphones, 2024 schon. Und die Leute werden da drauf auf Verkaufen drücken, um ihre Profite zu sichern.

 

Wenn es auf CNBC wieder tönt, "The market will open in twenty seconds, and we all wish it didn't" werden die Grundsteine der nächsten Vermögen gelegt.

Diesen Beitrag teilen


Link zum Beitrag
Der Heini
Am 13.6.2024 um 10:29 von StE:

Mit ihr auch diverse Indizes, vor allem US-Tech-lastige, also auch jeder All-World.

Nein warum? Wenn Nvidia fällt, dann kommen andere Unternehmen in den Allworld, langfristig oder sogar mittelfristig wird der Index sich erholen. Kurzfristig wird er fallen.

 

KI wird wichtig bleiben, nicht mit ChatGPT oder für den Konsumenten, aber in den Unternehmen könnte ich mir genug Sinnvolles für eine KI vorstellen, gerade was die Effizienz erhöht.

 

Disclaimer: Habe keine Nvidia-Aktien, aber im MSCI World sind ja genug indirekt drin, aber eben auch Microsoft, Apple, Google usw.

Diesen Beitrag teilen


Link zum Beitrag
Limit
Am 13.6.2024 um 10:29 von StE:

Mein innerer Nostradamus meint zu KI, daß die Konkurrenz für NVidia nicht von anderen Chipherstellern kommen wird, sondern von algorithmischen Fortschritten. Vielleicht von Facebook, vielleicht von einer chinesischen Uni, vielleicht von einem 15-jährigen Inder mit geborgtem Notebook des Onkels. Plötzlich könnte für Training auch wieder ein PC ausreichen. Wenn auch mit möglichst viel RAM und CPU-Cores.

Meiner sieht zwar auch algorithmische Fortschritte, aber die führen nicht zu geringeren, sondern zu höherem Leistungsbedarf. Wenn man immer bessere und zuverlässigere KI-Systeme haben will, kommt man nicht um exponentiell wachsenden Aufwand herum. Sicherlich kann man hier und da durch Optimierungen etwas Rechenleistung einsparen, aber an dem grundsätzlich exponentiellen Wachstum ändern das nichts. Deswegen kommt auch früher oder später der Punkt an dem die immer weiter steigenden Kosten den Nutzen nicht mehr rechtfertigen. Spätestens dann wird die KI-Euphorie abebben. In der Vergangenheit hat es nach einem KI-Hype immer einige Jahre (oder Jahrzehnte) gedauert bis die nächste große Welle, befeuert durch die deutlich gesteigerte Rechenleistung, losgetreten wurde.

 

Am 13.6.2024 um 10:29 von StE:

Intel hat kürzlich Chips mit vielen sparsameren E-Cores vorgestellt, sowas.

Die neuen CPUs sind im Vergleich zu ihren Vorgängern effizienter geworden, allerdings sind das nicht die Chips, die man für KI benutzt.

 

Am 13.6.2024 um 10:29 von StE:

Die Analogie zu Cisco liegt nahe, aber in der Massenpanik könnte es NVidia noch viel schneller und krasser erwischen.

Ich finde die Analogie ganz gut. Der KI-Hype wird früher oder später abebben, aber trotzdem wird der Bedarf an KI-Beschleunigern weiter bestehen bleiben, eben nur auf einem etwas geringerem Niveau.

Diesen Beitrag teilen


Link zum Beitrag
The Statistician
Am 13.6.2024 um 10:29 von StE:

Plötzlich könnte für Training auch wieder ein PC ausreichen. Wenn auch mit möglichst viel RAM und CPU-Cores.

Macht wenig Sinn. GPUs werden auch künftig essentiell sein, schließlich basieren neuronale Netze (und auch viele andere Algos) u.a. auf Berechnungen mit Matrizen. Dafür sind GPUs trivialerweise ausgelegt. CPUs sind bei diesem Thema schlicht viel ineffizienter und das ist nur ein Aspekt von vielen, die GPUs gegenüber CPUs erheblich ansprechender aussehen lassen. Ein anderer Aspekt ist der Punkt, dass GPUs auf parallelisierte Prozesse ausgelegt sind und CPUs nicht.

 

Zu NVIDIA und Co. noch der Hinweis, dass Unternehmen wie Amazon vor nicht einmal all zu langer Zeit über viele Jahre weit höher bewertet waren als NVIDIA aktuell. Wäre daher immer sehr vorsichtig so schnell Parallelen zu dotcom zu ziehen.

 

Ich mach mir da ehrlich gesagt wenig Sorgen. Die Nachfrage nach KI Lösungen ist vor allem seit ChatGPT bei mir im Unternehmen extrem hochgeschossen. Nachfrage nach GenAI ist seither natürlich massiv angestiegen und kommen kaum hinterher. Ebenso kommen noch die anderen "langweiligeren" Use Cases hinzu, die schon vorher stets beliebt waren, da essentiell wichtig. Und all die Unternehmen sind entweder bei einem der größeren Cloud Anbietern oder sehen die Vorteile einer Nutzung dessen. Sehe da weiterhin nur Wachstum...

Diesen Beitrag teilen


Link zum Beitrag
FlintheartG.
· bearbeitet von FlintheartG.
vor 9 Minuten von The Statistician:

Macht wenig Sinn. GPUs werden auch künftig essentiell sein, schließlich basieren neuronale Netze (und auch viele andere Algos) u.a. auf Berechnungen mit Matrizen. Dafür sind GPUs trivialerweise ausgelegt. CPUs sind bei diesem Thema schlicht viel ineffizienter und das ist nur ein Aspekt von vielen, die GPUs gegenüber CPUs erheblich ansprechender aussehen lassen. Ein anderer Aspekt ist der Punkt, dass GPUs auf parallelisierte Prozesse ausgelegt sind und CPUs nicht.

 

Zu NVIDIA und Co. noch der Hinweis, dass Unternehmen wie Amazon vor nicht einmal all zu langer Zeit über viele Jahre weit höher bewertet waren als NVIDIA aktuell. Wäre daher immer sehr vorsichtig so schnell Parallelen zu dotcom zu ziehen.

 

Ich mach mir da ehrlich gesagt wenig Sorgen. Die Nachfrage nach KI Lösungen ist vor allem seit ChatGPT bei mir im Unternehmen extrem hochgeschossen. Nachfrage nach GenAI ist seither natürlich massiv angestiegen und kommen kaum hinterher. Ebenso kommen noch die anderen "langweiligeren" Use Cases hinzu, die schon vorher stets beliebt waren, da essentiell wichtig. Und all die Unternehmen sind entweder bei einem der größeren Cloud Anbietern oder sehen die Vorteile einer Nutzung dessen. Sehe da weiterhin nur Wachstum...

....das evt schon eingepreist ist? 

Diesen Beitrag teilen


Link zum Beitrag
The Statistician
vor 8 Minuten von FlintheartG.:

....das evt schon eingepreist ist? 

Wenn dem so ist, braucht man doch nichts befürchten, sofern die eingepreisten Erwartungen +/- eintreffen. Bei einem dotcom-Vergleich geht man nicht von einer angemessenen Einpreisung aus, sondern von einer starken Fehleinschätzung aufgrund zu optimistischer Erwartungen. Hier passt aber auch wieder Amazon als historisches Beispiel mit ähnlichen Diskussionen ;) 

Diesen Beitrag teilen


Link zum Beitrag
Hoshi123
· bearbeitet von Hoshi123
Am 18.6.2024 um 12:31 von Limit:

Meiner sieht zwar auch algorithmische Fortschritte, aber die führen nicht zu geringeren, sondern zu höherem Leistungsbedarf. Wenn man immer bessere und zuverlässigere KI-Systeme haben will, kommt man nicht um exponentiell wachsenden Aufwand herum

Zum Thema exponentiell wachsender (Hardware-) Aufwand:

 

Es gibt Stimmen, die analoge Chips als Energie-effiziente Hardware-Lösung in den Raum stellen, um die Gleichungssysteme der KI-Algorithmen zu lösen.

Also basierend auf klassischen analogen Rechenwerken wie z.B. Operationsverstärkern.

Eher keine Expertise von NVIDIA.

Die Karten könnten neu gemischt werden, wenn da "plötzlich" was um die Ecke kommt, dass beim Training der Neuronalen Netze um Größenordnungen Energie spart und erfolgreich an verbreitete KI-Software-Frameworks angebunden werden könnte.

 

 

Das Gleiche beim Thema Algorithmen:

 

Wenn ein neue Klasse Algorithmen KI-Use Cases als nicht Mehr-vom-Gleichen, sondern grundsätzlich anders lösen würde, könnte das ebenfalls grundsätzlich andere Hardware-Anforderungen bedeuten.

Eine solche andersartige Klasse von Algorithmen ist aktuell meiner Kenntnis nach aber nicht in Sicht.

 

 

Ziemlich viele Wenn's und eher nichts das kurzfristig passiert, wenn überhaupt.

Aber wenn, könnte NVIDIAs Lösungs-Ansatz basierend auf stromhungrigen GPUs unattraktiv werden.

 

 

Nur mal bisschen prinzipiell herumgesponnen...

Diesen Beitrag teilen


Link zum Beitrag
Limit
vor 6 Stunden von Hoshi123:

Es gibt Stimmen, die analoge Chips als Energie-effiziente Hardware-Lösung in den Raum stellen, um die Gleichungssysteme der KI-Algorithmen zu lösen.

Also basierend auf klassischen analogen Rechenwerken wie z.B. Operationsverstärkern.

Eher keine Expertise von NVIDIA.

Die Karten könnten neu gemischt werden, wenn da "plötzlich" was um die Ecke kommt, dass beim Training der Neuronalen Netze um Größenordnungen Energie spart und erfolgreich an verbreitete KI-Software-Frameworks angebunden werden könnte.

Das hört sich interessant an. Ich habe kA von analogen Rechenwerken, aber ich vermute, dass der Stromverbrauch trotzdem weiterhin exponentiell steigen würde, eben nur mit kleineren Koeffizienten. Mit Quantencomputern könnte man vielleicht den exponentiell wachsenden Aufwand bewältigen ohne dass der Stromverbrauch ebenfalls exponentiell mitwächst.

Diesen Beitrag teilen


Link zum Beitrag
reko
· bearbeitet von reko
vor 2 Stunden von Limit:

Das hört sich interessant an. Ich habe kA von analogen Rechenwerken, aber ich vermute, dass der Stromverbrauch trotzdem weiterhin exponentiell steigen würde, eben nur mit kleineren Koeffizienten. Mit Quantencomputern könnte man vielleicht den exponentiell wachsenden Aufwand bewältigen ohne dass der Stromverbrauch ebenfalls exponentiell mitwächst.

Das analoge Rechnen ist extrem simpel (ich habe an einen Pacer 500 Hybridrechner gearbeitet). Die Domäne der Analogrechner waren bis in die 1970er Differentialgleichungen. Ich gehe von einen Verstärker pro Knoten aus. Man muß irgendwie die programmierbaren/anlernbaren Parameter realisieren. Dafür gibt es digital schaltbare Widerstandsnetzwerke. Wenn es nicht so genau sein muß könnte man eine Kapazität mehr oder weniger aufladen wie es auch bei Multilevel-Speicherzellen gemacht wird. Der Vorteil liegt darin, dass man nicht mehr mit GHz Kapazitäten umladen muß. Das kann alles sehr langsam ablaufen. Der Stromverbrauch wäre in erster Näherung linear zu den  Netzknoten und der Verarbeitungsgeschwindigkeit.

Es wäre auch eine hybride Lösung denkbar, bei der eine digitale CPU die Aufgabe in Teilnetze zerlegt und von einen analogen neuronalen Coprozessor abarbeiten läßt. Das spart aber keinen Strom.

 

vor 2 Stunden von Limit:

Mit Quantencomputern könnte man vielleicht den exponentiell wachsenden Aufwand bewältigen ohne dass der Stromverbrauch ebenfalls exponentiell mitwächst.

Bei nur Additionen und Multiplikationen kann ein Quantencomputer seine Vorteile nicht ausspielen. Das wäre unsinnig.

Diesen Beitrag teilen


Link zum Beitrag
Limit
vor 5 Stunden von reko:

Bei nur Additionen und Multiplikationen kann ein Quantencomputer seine Vorteile nicht ausspielen. Das wäre unsinnig.

Ich kann das nicht wirklich beurteilen, aber in diesem Artikel wird das Thema diskutiert und demnach scheinen sich die Experten noch nicht darauf einigen zu können ob Quantencomputer für KI nun nützlich sind oder nicht.

Diesen Beitrag teilen


Link zum Beitrag

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden

×
×
  • Neu erstellen...