LongtermInvestor Januar 25, 2023 · bearbeitet Januar 25, 2023 von LongtermInvestor vor 57 Minuten von SvenDom: Ach so. Also einfach mal was rausgehauen, weils für dich sowieso nicht mehr von Relevanz sein wird (höchstwahrscheinlich). Na denn, kannste dich ja zurücklehnen.... Beim richtigen Preis würde ich aufstocken - die Basis für den genannten Kurs ist mein Bewertungsmodell was leicht unter 180 liegt. Diesen Beitrag teilen Link zum Beitrag
nolske Januar 25, 2023 Großstörung bei diversen Microsoftprodukten. Diesen Beitrag teilen Link zum Beitrag
herbert_21 Januar 26, 2023 · bearbeitet Januar 26, 2023 von herbert_21 Am 25.1.2023 um 09:16 von LongtermInvestor: Beim richtigen Preis würde ich aufstocken - die Basis für den genannten Kurs ist mein Bewertungsmodell was leicht unter 180 liegt. Wir könnten die Tiefs schon gesehen haben: Viel schlimmeres als beim wichtigsten Wachstummotor, Azure, zu verfehlen sollte es nicht geben. Ist nun eingepreist. Der Markt wird sich erinnern, dass wir bei MSFT ein "recession-proof AAA business" sehen, und bei steigenden Zinsen gibt's auf den Cashanteil beträchtliche Einnahmen. Diesen Beitrag teilen Link zum Beitrag
Alles Aktien Januar 26, 2023 · bearbeitet Januar 26, 2023 von yes I squat Am 24.1.2023 um 20:50 von yes I squat: Knapp unter 200. Genauer sage ich erst nach Ausführung Ich habe erst die 1/2 meiner Wunschgröße bei Microsoft, insofern würde ich eine kurze negative Überraschung begrüßen. Da war ich wohl zu gierig mit dem Limit. Nach den mittelmäßigen Zahlen überrascht mich hier die kräftige Aufwärtsbewegung schon etwas. Die Chat GPT Story sorgt auch gerade etwas für Hype. Wir stehen aber auch gerade am SMA50 an, das könnte nochmal einen Rutsch verursachen. Diesen Beitrag teilen Link zum Beitrag
Owl Februar 3, 2023 · bearbeitet Februar 3, 2023 von Owl Zitat Microsoft rolls out ChatGPT-powered Teams Premium Feb 1 (Reuters) - Microsoft Corp (MSFT.O) on Wednesday rolled out a premium Teams messaging offering powered by ChatGPT to simplify meetings using the AI chatbot that has taken Silicon Valley by a storm. The premium service will cost $7 per month in June before increasing to $10 in July, Microsoft said. OpenAI-owned ChatGPT will generate automatic meeting notes, recommend tasks and help create meeting templates for Teams users. https://www.reuters.com/technology/microsoft-rolls-out-chatgpt-powered-teams-premium-2023-02-02/ Diesen Beitrag teilen Link zum Beitrag
The Statistician März 10, 2023 Man spekuliert nun schon lange zu GPT-4, vor allem wie viele Parameter das am Ende sein werden. Microsoft wird voraussichtlich nächste Woche GPT-4 veröffentlichen. Es wird dabei ein Multimodal Language Model sein: Zitat Auf einer Microsoft-Veranstaltung mit dem Titel KI im Fokus - Digitaler Kickoff hat Andreas Braun, CTO von Microsoft Deutschland, das bevorstehende Release von GPT-4 angekündigt. Das KI-Sprachmodell soll kommende Woche veröffentlicht werden. [...] Er erwähnte, dass die neuen Modelle neben der Spracherkennung auch Videos verstehen könnten Quelle: Golem Übrigens gab es erst kürzlich mit PaLM-E eine Publikation von einem Multimodal Language Model: PaLM-E: An Embodied Multimodal Language Model Könnte spannend werden, auch wenn das Thema ordentlich gehyped wird gerade. Diesen Beitrag teilen Link zum Beitrag
Schlumich März 10, 2023 vor 50 Minuten von The Statistician: Man spekuliert nun schon lange zu GPT-4, vor allem wie viele Parameter das am Ende sein werden. Microsoft wird voraussichtlich nächste Woche GPT-4 veröffentlichen. Es wird dabei ein Multimodal Language Model sein: Quelle: Golem Übrigens gab es erst kürzlich mit PaLM-E eine Publikation von einem Multimodal Language Model: PaLM-E: An Embodied Multimodal Language Model Könnte spannend werden, auch wenn das Thema ordentlich gehyped wird gerade. Gestern Abend bei Markus Lanz war Sascha Lobo (der mit dem roten Irokesen) zu Gast: Aussage. GPT-4 kommt voraussichtlich noch 2023, vermutloich in HJ 2 und hat 100x mehr Parameter als GPT-3 (ich meine irgendwas von 10 Billionen gehört zu haben). Diesen Beitrag teilen Link zum Beitrag
basti_ März 10, 2023 vor 11 Minuten von Schlumich: Gestern Abend bei Markus Lanz war Sascha Lobo (der mit dem roten Irokesen) zu Gast: Aussage. GPT-4 kommt voraussichtlich noch 2023, vermutloich in HJ 2 und hat 100x mehr Parameter als GPT-3 (ich meine irgendwas von 10 Billionen gehört zu haben). Sorry für die blasphemische Frage, aber könnte ihr auch einschätzen was das bedeutet oder heißt oder ist man einfach nur begeistert weil jemand anderes sagt das man davon begeistert sein muss? Diesen Beitrag teilen Link zum Beitrag
chirlu März 10, 2023 vor 15 Minuten von basti_: Sorry für die blasphemische Frage, aber könnte ihr auch einschätzen was das bedeutet oder heißt Klar: Der Aufwand für die Berechnung wird noch höher, und der Energieverbrauch somit auch. Ansonsten nimmt die Genauigkeit des Sprachmodells natürlich auch zu und in einem gewissen Umfang das (implizite) „Faktenwissen“. An den prinzipiellen Problemen (Halluzinationen) ändert sich allerdings nichts. Diesen Beitrag teilen Link zum Beitrag
Schlumich März 10, 2023 vor 6 Minuten von basti_: Sorry für die blasphemische Frage, aber könnte ihr auch einschätzen was das bedeutet oder heißt oder ist man einfach nur begeistert weil jemand anderes sagt das man davon begeistert sein muss? Korrekter Einwand. Von GPT-4 erwartet man einen enormen Leistungssprung gegenüber GPT-3 im Hinblick auf bspw: Verbesserung bei der Generierung von Texten und bei der Nachahmung von menschlichem Verhalten. Weiterhin sollen wohl e.g. Sprachübersetzungen und Textzusammenfassungen noch umfassender möglich werden. Das bedeutet im Prinzip, dass je mehr "Parameter" verwendet werden, das Ergebnis umso "menschlicher" und besser wird. Man wird am Ende wohl Schwierigkeiten haben nachzuvollziehen, ob des Text ein Mensch oder ein Bot geschrieben hat. Spannend und ein wenig gruselig. Diesen Beitrag teilen Link zum Beitrag
Schlumich März 10, 2023 Und noch einer in diesem Zusammenhang: Ich hatte kürzlich eine komplexere Anfrage per mail an EstateGuru geschickt und bekam innerhalb kürzester Zeit eine sehr gute Antwort in perfektem Deutsch. Im Anschluss wurde ich gebeten, den Bot (!) zu bewerten, der diese Anfrage generiert hat. Hätte man mich gefragt, ob die Antwort ein Mensch oder eine Machine geschrieben hat, hätte ich mit hoher Wahrscheinlichkeit auf einen Mensch getippt.... Diesen Beitrag teilen Link zum Beitrag
The Statistician März 10, 2023 · bearbeitet März 10, 2023 von The Statistician vor 40 Minuten von basti_: Sorry für die blasphemische Frage, aber könnte ihr auch einschätzen was das bedeutet oder heißt oder ist man einfach nur begeistert weil jemand anderes sagt das man davon begeistert sein muss? Die Anzahl der Parameter bestimmt sich durch die Netzwerkarchitektur. Wenn du ein simples Netzwerk mit einem Dense layer und einem Neuron erstellst, gibt es zwei trainierbare Parameter. Bei simplen Netzwerken, die du auch lokal trainieren kannst, bist du schnell bei 90 Millionen Parametern. Mal exemplarisch erstellt, wobei hier das Dense layer entsprechend reinhaut: Wenn du mehrere Convolutional Layers nehmen würdest, kannst du auch nur bei 10 Mio. Parametern landen und bekommst dennoch gute Ergebnisse bei klassischen Datensätzen. Aktuell ist die Anzahl der Parameter nach wie vor der effektivste Weg um die Performance derart großer Modelle signifikant zu steigern. Es gibt zwar auch Paper, die mit deutlich weniger Parametern vergleichbare Performance wie GPT-3 o.Ä. erzielen, ist jedoch nach wie vor nicht der aktuelle Ansatz in der Praxis. Hierzu auch vielleicht noch der Hinweis auf das Universal Approximation Theorem. Je mehr Parameter ein Netzwerk aufweist, desto tendenziell besser ist es in der Lage komplexe Problemstellungen zu lösen (gilt aber auch einschränkend). Man kann auch sagen, dass die Fähigkeit der Approximation mit der Netzwerkgröße exponentiell zunimmt. GPT-2 hat 1,5 Mrd. Parameter und GPT-3 hat mit 175 Mrd. Parameter nochmals erheblich mehr. Und nun kommt GPT-4, wo es bisher Spekulationen gab, die teils bei 100 Billionen Parametern lagen. Aber das wird man dann erst in der kommenden Woche erfahren. Man kann aber sehr sicher sein, dass es erneut ein Vielfaches mehr sein wird als beim Vorgänger GPT-3. Was ich persönlich am reizvollsten finde ist die multimodale Komponente, es wird nicht nur auf Textdaten trainiert, sondern zusätzlich auch auf Bildern. Diesen Beitrag teilen Link zum Beitrag
wolf666 März 10, 2023 Ich frage mich ob man mit (neuesten Versionen) Chat GPT massenhaft Geld verdient werden kann. Energieverbrauch ist groß und Weiterleitung auf andere Seiten ist nicht gegeben, da werden doch Webseitenbetreiber keine Interesse haben ihre Webseiten zu pflegen wenn kaum neue Besucher kommen. Diesen Beitrag teilen Link zum Beitrag
s1lv3r März 10, 2023 · bearbeitet März 10, 2023 von s1lv3r vor 31 Minuten von Schlumich: Und noch einer in diesem Zusammenhang: Ich hatte kürzlich eine komplexere Anfrage per mail an EstateGuru geschickt und bekam innerhalb kürzester Zeit eine sehr gute Antwort in perfektem Deutsch. Im Anschluss wurde ich gebeten, den Bot (!) zu bewerten, der diese Anfrage generiert hat. Hätte man mich gefragt, ob die Antwort ein Mensch oder eine Machine geschrieben hat, hätte ich mit hoher Wahrscheinlichkeit auf einen Mensch getippt.... Wow ... ich frage mich ja immer, ob Firmen sich wirklich trauen, einen freilaufenden Bot auf ihre Kunden loszulassen, oder ob da dann nur "KI" genutzt wird, um aus vorgefertigten Textbausteinen den "passendsten" auszusuchen. (Den Eindruck hatte ich in der Vergangenheit bei Onlinehändlern des öfteren, dass in der Kunkenkommunikation per Email ohne Hinweis eine KI nur Textbausteine zurückspuckt, da das eigentliche Problem jeweils so beharrlich ignoriert wurde, dass man sich nicht mehr vorstellen kann, dass da wirklich ein Mensch sitzt, der liest was man schreibt ...) Wenn ich in der Compliance-Abteilung einer Finanzfirma wie EstateGuru wäre, hätte ich einen Herzinfarkt bei der Vorstellung einen Bot auf die Kunden loszulassen ... ich meine, das ist immer noch rechtsverbindliche Kundenkommunikation und die Haftungsfälle, die daraus erwachsen können sind quasi unendlich. Ehrlich gesagt würde ich mich nicht einmal trauen, einen Bot in der Kundenkommunikation einzusetzen, wenn ich einen Onlineversandhandel für Farben & Lacke hätte. Ich meine da muss ja nur ein Kunde kommen und fragen ob man den Scheiß trinken kann, wenn dann der Bot einen schlechten Tag hat ... Diesen Beitrag teilen Link zum Beitrag
The Statistician März 10, 2023 vor 6 Minuten von wolf666: Ich frage mich ob man mit (neuesten Versionen) Chat GPT massenhaft Geld verdient werden kann. Mit Abos oder Lizenzierungen dürfte sich in dem Themenbereich sehr viel Geld verdienen lassen. Hinzu kommt, dass auf derart großen Modellen andere Lösungen aufbauen können, bei welchen dann ein Finetuning des Modells erfolgt. Und das kann man ebenso kostenpflichtig über Lizenzierungen o.Ä. gestalten. Selbiges gilt mit der Einbindung von ChatGPT auf eigenen Seiten o.Ä.. In Azure wurde ChatGPT bereits eingebunden und bietet dahingehend natürlich auch noch einmal einen weiteren Anreiz Azure zu nutzen, statt andere Cloud Anbieter. Generell befindet man sich hierbei aber noch in einer nach wie vor früheren Phase. In 2-3 Jahren wird ChatGPT in der aktuellen Form IMO keine nennenswerte Relevanz mehr spielen. Ich würde zudem eher von Plattformen ausgehen, auf welchen es entsprechende Zugänge zu derart großen Modellen gibt, die man dann weiterverwenden kann. Da nochmal differenziert zwischen Endnutzern und Entwicklern. Ich sehe da sehr viel Potential. Diesen Beitrag teilen Link zum Beitrag
chirlu März 10, 2023 vor 26 Minuten von s1lv3r: Den Eindruck hatte ich in der Vergangenheit bei Onlinehändlern des öfteren, dass in der Kunkenkommunikation per Email ohne Hinweis eine KI nur Textbausteine zurückspuckt, da das eigentliche Problem jeweils so beharrlich ignoriert wurde, dass man sich nicht mehr vorstellen kann, dass da wirklich ein Mensch sitzt, der liest was man schreibt ... Alles eine Frage der Anreize. vor 27 Minuten von s1lv3r: Wenn ich in der Compliance-Abteilung einer Finanzfirma wie EstateGuru wäre, hätte ich einen Herzinfarkt bei der Vorstellung einen Bot auf die Kunden loszulassen ... ich meine, das ist immer noch rechtsverbindliche Kundenkommunikation und die Haftungsfälle, die daraus erwachsen können sind quasi unendlich. Du sagst doch selbst, menschliche Bots sind auch nicht besser. Und eine vernünftige Serviceabteilung einzurichten, die auch die Zeit hat, Anfragen tatsächlich zu lesen, kostet wiederum sehr viel Geld. Diesen Beitrag teilen Link zum Beitrag
wolf666 März 10, 2023 vor 52 Minuten von The Statistician: Mit Abos ... ok, ich dachte dabei eher an Konkurrez zu Suchmaschinen, ob so eine ChatGPT Google ablösen kann und in Zukunft man nicht mehr googelt sondern so eine KI benutzt. Diesen Beitrag teilen Link zum Beitrag
howhardgerrard87 März 10, 2023 als Google Aktionär bin ich echt verärgert, Google ist seit Jahren stark im Bereich AI/KI unterwegs und lässt sich in Ihrem so starken Bereich (Suche) so überholen und vorführen. Ich ärgere mich noch immer über Googls rush schnell eine Konferenz abzuhalten wo dann das Handy fehlte und die Suchergebnisse fehlerhaften waren.... Klar ist aktuell Hype drin aber Hypes können durchaus Jahre andauern! Diesen Beitrag teilen Link zum Beitrag
The Statistician März 11, 2023 vor 23 Stunden von wolf666: ok, ich dachte dabei eher an Konkurrez zu Suchmaschinen, ob so eine ChatGPT Google ablösen kann und in Zukunft man nicht mehr googelt sondern so eine KI benutzt. Suchmaschinen wie Google werden durch ChatGPT nicht abgelöst. ChatGPT zu nutzen um schnell nach Quellen oder nach Seiten mit Themenschwerpunkten zu suchen, ist viel zu ineffizient. ChatGPT macht für andere Probleme wesentlich mehr Sinn und man sieht auch aktuell, dass ChatGPT nicht wie eine Suchmaschine genutzt wird. Wenn, dann werden solche Anwendungen in bestehende Suchmaschinen eingebunden, aber ein kompletter Ersatz dürfte kaum in Frage kommen, zumindest nicht in heutiger Form. Da gibt es noch viele Ineffizienzen, die man zuvor lösen müsste. vor 23 Stunden von howhardgerrard87: Google ist seit Jahren stark im Bereich AI/KI unterwegs und lässt sich in Ihrem so starken Bereich (Suche) so überholen und vorführen. Bei der Suchmaschine kann Google immer noch nicht das Wasser gereicht werden. Das ändert sich auch nicht durch ChatGPT. Google hat leider das Nachsehen was experimentelle Releases o.Ä. angeht, da macht das OpenAI wesentlich massentauglicher. Das Research von Google ist nach wie vor top und bei OpenAI sind u.a. auch Leute tätigt, die ehemals bei Google Brain waren. Google muss einfach bei der Außendarstellung besser werden. Diesen Beitrag teilen Link zum Beitrag
hattifnatt März 11, 2023 vor 26 Minuten von The Statistician: Bei der Suchmaschine kann Google immer noch nicht das Wasser gereicht werden. Das ändert sich auch nicht durch ChatGPT. +1 - und man sieht ja auch, wie unausgereift die Technologie in Bezug auf Fakten ist. Diesen Beitrag teilen Link zum Beitrag
bondholder März 11, 2023 Am 10.3.2023 um 12:31 von s1lv3r: Wenn ich in der Compliance-Abteilung einer Finanzfirma wie EstateGuru wäre, hätte ich einen Herzinfarkt bei der Vorstellung einen Bot auf die Kunden loszulassen ... ich meine, das ist immer noch rechtsverbindliche Kundenkommunikation und die Haftungsfälle, die daraus erwachsen können sind quasi unendlich. Meine Vermutung dazu ist, dass der Bot nur Textbausteine senden darf, die von den Juristen abgesegnet worden sind. Diesen Beitrag teilen Link zum Beitrag
The Statistician März 14, 2023 GPT-4 ist nun veröffentlicht: GPT-4 GPT-4 Technical Report Kann Text und Bilder als Input verarbeiten. GPT-4 kann zudem über ChatGPT (Plus) und der API genutzt werden. Diesen Beitrag teilen Link zum Beitrag
hattifnatt März 14, 2023 · bearbeitet März 14, 2023 von hattifnatt Eindrucksvoll: Diesen Beitrag teilen Link zum Beitrag