Zum Inhalt springen
Aktiencrash

Microsoft Corporation (MSFT)

Empfohlene Beiträge

Value86

Microsoft erhöht Dividende um

10% sowie 60 Mrd USD SBB Programm

 

Press Release Microsoft

Diesen Beitrag teilen


Link zum Beitrag
Maestro315

https://stock3.com/news/microsoft-uebertrifft-die-erwartungen-15635190

 

Zitat

Microsoft konnte den Konzernumsatz im ersten Geschäftsquartal 2025 (das dem dritten Kalenderquartal 2024 entspricht) um 16 % auf 65,6 Mrd. USD steigern und damit die Erwartungen von 64,5 Mrd. USD übertreffen. Der operative Gewinn verbesserte sich um 14 % auf 30,6 Mrd. USD. Unter dem Strich konnte der Nettogewinn um 11 % auf 24,7 Mrd. USD zulegen. Der verwässerte Gewinn je Aktie verbesserte sich von 2,99 USD auf 3,30 USD, während die Analysten mit 3,10 USD gerechnet hatten.

 

image.thumb.png.af09a712f688871be92b96482621fd98.png

Diesen Beitrag teilen


Link zum Beitrag
morini
· bearbeitet von morini

Microsoft mit Umsatz- und Gewinnplus - Microsoft-Aktie fällt dennoch: https://www.finanzen.net/nachricht/aktien/it-riese-mit-zahlen-microsoft-aktie-faellt-dennoch-microsoft-mit-umsatz-und-gewinnplus-13959266

 

Nach dem Kursrückgang bietet sich jetzt eine Kaufgelegenheit, weswegen ich meine Microsoft-Depotposition aufgestockt habe. :)

Diesen Beitrag teilen


Link zum Beitrag
ghost_69

Microsoft-Prototypen mit unbegrenzter Speicherkapazität sollen bis 2025 verfügbar sein und ermöglichen dauerhafte, evolutionäre KI-Interaktionen.

 

 

Ghost_69 :-*

Diesen Beitrag teilen


Link zum Beitrag
ghost_69

Copilot für alle: Einführung von Microsoft 365 Copilot Chat

 

  • Kostenloser, sicherer KI- Chat mit GPT-4o.
  • Agenten sind direkt im Chat erreichbar.
  • IT-Kontrollen , einschließlich Unternehmensdatenschutz und Agentenverwaltung.

 

Ghost_69 :-*

Diesen Beitrag teilen


Link zum Beitrag
Maestro315

Der Ausblick fürs nächste Quartal enttäuscht ein wenig.

 

image.thumb.png.7524217a26917b46afc79e924d5a92db.png

Diesen Beitrag teilen


Link zum Beitrag
LongtermInvestor

Na da hoffe ich mal auf viele enttäuschte Aktionäre, die ihre Anteile angeben...

Diesen Beitrag teilen


Link zum Beitrag
kublai
vor 6 Minuten von LongtermInvestor:

Na da hoffe ich mal auf viele enttäuschte Aktionäre, die ihre Anteile angeben...

m2

Diesen Beitrag teilen


Link zum Beitrag
Mithrandir77

Waren ja keine schlechten Zahlen. Für mich weiterhin von den großen Techkonzernen die sicherste Wahl.

(soviel fehlt bei mir nicht mehr und sie sind bei 2000% plus) 

Diesen Beitrag teilen


Link zum Beitrag
ghost_69

Innovation fördern: Die nächste Generation der Phi-Familie

Zitat

 

Wir freuen uns, Phi-4-multimodal und Phi-4-mini ankündigen zu dürfen, die neuesten Modelle der Phi-Familie kleiner Sprachmodelle (SLMs) von Microsoft. Diese Modelle wurden entwickelt, um Entwicklern erweiterte KI-Funktionen zu bieten. Phi-4-multimodal mit seiner Fähigkeit, Sprache, Bild und Text gleichzeitig zu verarbeiten, eröffnet neue Möglichkeiten für die Erstellung innovativer und kontextsensitiver Anwendungen. Phi-4-mini hingegen zeichnet sich durch textbasierte Aufgaben aus und bietet hohe Genauigkeit und Skalierbarkeit in kompakter Form. Jetzt verfügbar in Azure AI Foundry , HuggingFace und im NVIDIA API-Katalog , wo Entwickler das volle Potenzial von Phi-4-multimodal im NVIDIA API-Katalog erkunden und problemlos experimentieren und Innovationen entwickeln können. 

Was ist Phi-4-multimodal?

Phi-4-multimodal markiert als unser erstes multimodales Sprachmodell einen neuen Meilenstein in der KI-Entwicklung von Microsoft. Im Mittelpunkt der Innovation steht die kontinuierliche Verbesserung, und diese beginnt damit, dass wir unseren Kunden zuhören. Als direkte Reaktion auf Kundenfeedback haben wir Phi-4-multimodal entwickelt , ein 5,6-B -Parametermodell, das Sprach-, Bild- und Textverarbeitung nahtlos in eine einzige, einheitliche Architektur integriert.

Durch den Einsatz fortschrittlicher modalübergreifender Lerntechniken ermöglicht dieses Modell natürlichere und kontextbezogenere Interaktionen, sodass Geräte mehrere Eingabemodalitäten gleichzeitig verstehen und berücksichtigen können. Ob es um die Interpretation gesprochener Sprache, die Analyse von Bildern oder die Verarbeitung von Textinformationen geht, es liefert hocheffiziente Inferenzen mit geringer Latenz – und das alles bei optimierter Ausführung auf dem Gerät und reduziertem Rechenaufwand.

Von Haus aus für multimodale Erlebnisse konzipiert

Phi-4-multimodal ist ein einzelnes Modell mit einer Mischung aus LoRAs, das Sprache, Sehen und Sprache umfasst und alle gleichzeitig im selben Darstellungsraum verarbeitet. Das Ergebnis ist ein einzelnes, einheitliches Modell, das Text-, Audio- und visuelle Eingaben verarbeiten kann – ohne dass komplexe Pipelines oder separate Modelle für verschiedene Modalitäten erforderlich sind.

Phi-4-Multimodal basiert auf einer neuen Architektur, die Effizienz und Skalierbarkeit verbessert. Es verfügt über ein größeres Vokabular für eine verbesserte Verarbeitung, unterstützt mehrsprachige Funktionen und integriert Sprachschlussfolgerung mit multimodalen Eingaben. All dies wird in einem leistungsstarken, kompakten und hocheffizienten Modell erreicht, das für den Einsatz auf Geräten und Edge-Computing-Plattformen geeignet ist.

Dieses Modell stellt einen Fortschritt für die Phi-Modellfamilie dar und bietet verbesserte Leistung in einem kleinen Paket. Egal, ob Sie nach erweiterten KI-Funktionen auf Mobilgeräten oder Edge-Systemen suchen, Phi-4-multimodal bietet eine leistungsstarke Option, die sowohl effizient als auch vielseitig ist.

Neue Möglichkeiten erschließen

Mit seinem erweiterten Funktionsumfang und seiner Flexibilität eröffnet Phi-4-multimodal spannende neue Möglichkeiten für App-Entwickler, Unternehmen und Branchen, die die Leistungsfähigkeit der KI auf innovative Weise nutzen möchten. Die Zukunft der multimodalen KI ist da und bereit, Ihre Anwendungen zu transformieren.

Phi-4-multimodal kann sowohl visuelle als auch Audiosignale gleichzeitig verarbeiten. Die folgende Tabelle zeigt die Modellqualität, wenn die Eingabeabfrage für visuelle Inhalte synthetische Sprache bei Aufgaben zum Verstehen von Diagrammen/Tabellen und zum Schlussfolgerungsschreiben von Dokumenten ist. Im Vergleich zu anderen bestehenden Omni-Modellen auf dem neuesten Stand der Technik, die Audio- und visuelle Signale als Eingabe ermöglichen können, erzielt Phi-4-multimodal bei mehreren Benchmarks eine viel bessere Leistung.

Abbildung 1: Phi-4-multimodale Audio- und visuelle Benchmarks.

Phi-4-multimodal hat bemerkenswerte Fähigkeiten bei sprachbezogenen Aufgaben gezeigt und sich in mehreren Bereichen als führendes offenes Modell etabliert. Es übertrifft spezialisierte Modelle wie WhisperV3 und SeamlessM4T-v2-Large sowohl bei der automatischen Spracherkennung (ASR) als auch bei der Sprachübersetzung (ST). Das Modell hat mit einer beeindruckenden Wortfehlerrate von 6,14 % die Spitzenposition auf der Huggingface OpenASR- Bestenliste eingenommen und übertrifft damit die bisherige Bestleistung von 6,5 % (Stand: Februar 2025). Darüber hinaus ist es eines der wenigen offenen Modelle, das die Sprachzusammenfassung erfolgreich implementiert und ein Leistungsniveau erreicht, das mit dem Modell GPT-4o vergleichbar ist. Das Modell weist bei Aufgaben zur Beantwortung sprachlicher Fragen (QA) eine Lücke zu ähnlichen Modellen wie Gemini-2.0-Flash und GPT-4o-realtime-preview auf, da die kleinere Modellgröße zu einer geringeren Kapazität führt, um faktisches QA-Wissen zu behalten. Es wird daran gearbeitet, diese Fähigkeit in den nächsten Iterationen zu verbessern.

Abbildung 2: Phi-4-multimodale Sprachbenchmarks.

Phi-4-multimodal mit nur 5,6 Milliarden Parametern zeigt bemerkenswerte visuelle Fähigkeiten in verschiedenen Benchmarks und erreicht vor allem eine starke Leistung bei mathematischem und wissenschaftlichem Denken. Trotz seiner geringeren Größe weist das Modell eine konkurrenzfähige Leistung bei allgemeinen multimodalen Fähigkeiten auf, wie z. B. Dokument- und Diagrammverständnis, optische Zeichenerkennung (OCR) und visuelles wissenschaftliches Denken, und erreicht oder übertrifft ähnliche Modelle wie Gemini-2-Flash-lite-preview/Claude-3.5-Sonnet.

Abbildung 3: Phi-4-multimodale Sehbenchmarks.

Was ist Phi-4-mini?

Phi-4-mini ist ein 3,8-B-Parametermodell und ein dichter, nur auf Decoder basierender Transformer mit gruppierter Abfrageaufmerksamkeit, 200.000 Vokabeln und gemeinsam genutzten Input-Output-Einbettungen, der auf Geschwindigkeit und Effizienz ausgelegt ist. Trotz seiner kompakten Größe übertrifft es weiterhin größere Modelle bei textbasierten Aufgaben, darunter Argumentation, Mathematik, Codierung, Anweisungsbefolgung und Funktionsaufruf. Es unterstützt Sequenzen mit bis zu 128.000 Token, bietet hohe Genauigkeit und Skalierbarkeit und ist damit eine leistungsstarke Lösung für fortgeschrittene KI-Anwendungen.

Um die Modellqualität zu verstehen, vergleichen wir Phi-4-mini mit einer Reihe von Modellen anhand verschiedener Benchmarks, wie in Abbildung 4 dargestellt.

Abbildung 4: Phi-4-mini-Sprachbenchmarks.

Funktionsaufruf, Anweisungsverfolgung, langer Kontext und Argumentation sind leistungsstarke Funktionen, die es kleinen Sprachmodellen wie Phi-4-mini ermöglichen, trotz ihrer begrenzten Kapazität auf externes Wissen und Funktionen zuzugreifen. Über ein standardisiertes Protokoll ermöglicht der Funktionsaufruf dem Modell die nahtlose Integration in strukturierte Programmierschnittstellen. Wenn ein Benutzer eine Anfrage stellt, kann Phi-4-Mini die Abfrage durchdenken, relevante Funktionen mit entsprechenden Parametern identifizieren und aufrufen, die Funktionsausgaben empfangen und diese Ergebnisse in seine Antworten integrieren. Dadurch entsteht ein erweiterbares agentenbasiertes System, in dem die Funktionen des Modells erweitert werden können, indem es über gut definierte Funktionsschnittstellen mit externen Tools, Anwendungsprogrammierschnittstellen (APIs) und Datenquellen verbunden wird. Das folgende Beispiel simuliert einen Smart-Home-Steuerungsagenten mit Phi-4-mini.

Bei Headwaters nutzen wir fein abgestimmte SLM wie Phi-4-mini am Rand, um die Betriebseffizienz zu steigern und innovative Lösungen bereitzustellen. Edge AI zeigt selbst in Umgebungen mit instabilen Netzwerkverbindungen oder in Bereichen, in denen Vertraulichkeit von größter Bedeutung ist, hervorragende Leistung. Dies macht es äußerst vielversprechend für die Förderung von Innovationen in verschiedenen Branchen, darunter Anomalieerkennung in der Fertigung, schnelle Diagnoseunterstützung im Gesundheitswesen und Verbesserung des Kundenerlebnisses im Einzelhandel. Wir freuen uns darauf, mit Phi-4 mini neue Lösungen im KI-Agentenzeitalter bereitzustellen.
 
– Masaya Nishimaki, Unternehmensleiter, Headwaters Co., Ltd. 

Anpassung und plattformübergreifend

Dank ihrer geringeren Größe können Phi-4-mini- und Phi-4-multimodal-Modelle in rechenbeschränkten Inferenzumgebungen verwendet werden. Diese Modelle können auf dem Gerät verwendet werden, insbesondere wenn sie mit ONNX Runtime für plattformübergreifende Verfügbarkeit weiter optimiert werden. Ihr geringerer Rechenbedarf macht sie zu einer kostengünstigeren Option mit viel besserer Latenz. Das längere Kontextfenster ermöglicht die Aufnahme und Argumentation großer Textinhalte – Dokumente, Webseiten, Code und mehr. Phi-4-mini und multimodal weisen starke Argumentations- und Logikfähigkeiten auf und sind daher ein guter Kandidat für analytische Aufgaben. Ihre geringe Größe macht auch die Feinabstimmung oder Anpassung einfacher und kostengünstiger. Die folgende Tabelle zeigt Beispiele für Feinabstimmungsszenarien mit Phi-4-multimodal.

AufgabenBasismodellFeinabgestimmtes ModellBerechnen

Sprachübersetzung vom Englischen ins Indonesische17.435,53 Stunden, 16 A100

Medizinische visuelle Fragen und Antworten47,656,75 Stunden, 8 A100

Weitere Informationen zur Anpassung oder zu den Modellen finden Sie im Phi Cookbook auf GitHub. 

Wie können diese Modelle in der Praxis eingesetzt werden?

Diese Modelle sind darauf ausgelegt, komplexe Aufgaben effizient zu bewältigen, was sie ideal für Randszenarien und rechenbeschränkte Umgebungen macht. Angesichts der neuen Möglichkeiten, die Phi-4-multimodal und Phi-4-mini bieten, werden die Einsatzmöglichkeiten von Phi immer weiter zunehmen. Phi-Modelle werden in KI-Ökosysteme eingebettet und verwendet, um verschiedene Anwendungsfälle in verschiedenen Branchen zu erkunden.

Sprachmodelle sind leistungsstarke Denkmaschinen, und die Integration kleiner Sprachmodelle wie Phi in Windows ermöglicht es uns, effiziente Rechenkapazitäten aufrechtzuerhalten und öffnet die Tür zu einer Zukunft kontinuierlicher Intelligenz, die in alle Ihre Apps und Erlebnisse integriert ist. Copilot+-PCs werden auf den Fähigkeiten von Phi-4-multimodal aufbauen und die Leistung der fortschrittlichen SLMs von Microsoft ohne Energieverlust liefern. Diese Integration wird die Produktivität, Kreativität und bildungsorientierte Erlebnisse verbessern und zu einem Standardteil unserer Entwicklerplattform werden.

—Vivek Pradeep, Vizepräsident und angesehener Ingenieur für angewandte Windows-Wissenschaften.

Direkt in Ihr Smartgerät integriert:  Telefonhersteller, die Phi-4-Multimodal direkt in ein Smartphone integrieren, könnten Smartphones in die Lage versetzen, Sprachbefehle zu verarbeiten und zu verstehen, Bilder zu erkennen und Text nahtlos zu interpretieren. Benutzer könnten von erweiterten Funktionen wie Echtzeit-Sprachübersetzung, verbesserter Foto- und Videoanalyse und intelligenten persönlichen Assistenten profitieren, die komplexe Anfragen verstehen und beantworten. Dies würde das Benutzererlebnis verbessern, indem leistungsstarke KI-Funktionen direkt auf dem Gerät bereitgestellt werden und so geringe Latenz und hohe Effizienz gewährleistet werden.

Unterwegs: Stellen Sie sich ein Automobilunternehmen vor, das Phi-4-Multimodal in seine Assistenzsysteme im Auto integriert. Das Modell könnte es Fahrzeugen ermöglichen, Sprachbefehle zu verstehen und darauf zu reagieren, Gesten des Fahrers zu erkennen und visuelle Eingaben von Kameras zu analysieren. So könnte es beispielsweise die Sicherheit des Fahrers erhöhen, indem es Schläfrigkeit durch Gesichtserkennung erkennt und Echtzeitwarnungen ausgibt. Darüber hinaus könnte es nahtlose Navigationshilfe bieten, Verkehrsschilder interpretieren und Kontextinformationen bereitstellen und so ein intuitiveres und sichereres Fahrerlebnis schaffen, während es mit der Cloud verbunden ist und offline, wenn keine Verbindung verfügbar ist.

Mehrsprachige Finanzdienstleistungen: Stellen Sie sich ein Finanzdienstleistungsunternehmen vor, das Phi-4-mini integriert, um komplexe Finanzberechnungen zu automatisieren, detaillierte Berichte zu erstellen und Finanzdokumente in mehrere Sprachen zu übersetzen. Beispielsweise kann das Modell Analysten unterstützen, indem es komplexe mathematische Berechnungen durchführt, die für Risikobewertungen, Portfoliomanagement und Finanzprognosen erforderlich sind. Darüber hinaus kann es Finanzberichte, behördliche Dokumente und Kundenkommunikation in verschiedene Sprachen übersetzen und so die Kundenbeziehungen weltweit verbessern.

Microsofts Engagement für Sicherheit und Schutz

Azure AI Foundry bietet Benutzern eine Reihe robuster Funktionen, mit denen Unternehmen KI-Risiken im gesamten KI-Entwicklungszyklus für herkömmliche maschinelle Lern- und generative KI-Anwendungen messen, mindern und verwalten können. Azure AI-Auswertungen in AI Foundry ermöglichen Entwicklern die iterative Bewertung der Qualität und Sicherheit von Modellen und Anwendungen mithilfe integrierter und benutzerdefinierter Metriken, um Risikominderungen zu ermitteln.

Beide Modelle wurden von unseren internen und externen Sicherheitsexperten mithilfe von Strategien des Microsoft AI Red Teams (AIRT) auf Sicherheit und Schutz getestet. Diese Methoden, die im Rahmen früherer Phi-Modelle entwickelt wurden, berücksichtigen globale Perspektiven und Muttersprachler aller unterstützten Sprachen. Sie decken Bereiche wie Cybersicherheit, nationale Sicherheit, Fairness und Gewalt ab und berücksichtigen aktuelle Trends durch mehrsprachige Sondierungen. Mithilfe des Open-Source-Python Risk Identification Toolkit (PyRIT) von AIRT und manueller Sondierung führten die Red Team-Mitglieder Single-Turn- und Multi-Turn-Angriffe durch. AIRT arbeitete unabhängig von den Entwicklungsteams und teilte seine Erkenntnisse kontinuierlich mit dem Modellteam. Mit diesem Ansatz wurde die neue KI-Sicherheitslandschaft bewertet, die durch unsere neuesten Phi-Modelle eingeführt wurde, und die Bereitstellung hochwertiger Funktionen sichergestellt.

Werfen Sie einen Blick auf die Modellkarten für Phi-4-multimodal und Phi-4-mini sowie das technische Dokument , um einen Überblick über die empfohlenen Verwendungszwecke und Einschränkungen dieser Modelle zu erhalten.

Erfahren Sie mehr über Phi-4

Wir laden Sie ein, die Möglichkeiten mit Phi-4-multimodal und Phi-4-mini in Azure AI Foundry , Hugging Face und NVIDIA API Catalog mit einem umfassenden multimodalen Erlebnis zu erkunden . Wir können es kaum erwarten, Ihr Feedback zu hören und die unglaublichen Dinge zu sehen, die Sie mit unseren neuen Modellen erreichen werden. 

 

Ghost_69 :-*

Diesen Beitrag teilen


Link zum Beitrag

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden

×
×
  • Neu erstellen...