Microsoft stellt zwei neue KI-Modelle vor, um unabhängiger von OpenAI zu werden.
In Kürze
- MAI-Voice-1 generiert Audio in Rekordzeit
- MAI-1-Preview wird auf LMArena getestet
- Microsoft plant Integration in Copilot
Microsofts Neue KI-Modelle
Microsoft hat kürzlich zwei neue KI-Modelle vorgestellt: MAI-Voice-1 AI und MAI-1-Preview. Mit diesen Entwicklungen möchte der Tech-Riese unabhängiger von OpenAI werden, in das er bisher erheblich investiert hat.
MAI-Voice-1-Modell
Das MAI-Voice-1-Modell ist ein echtes Kraftpaket. Es kann eine Minute Audio in weniger als einer Sekunde generieren – und das mit nur einer GPU. Dieses Modell findet bereits Anwendung in der Funktion „Copilot Daily“ sowie in verschiedenen Podcasts. Es scheint, als ob Microsoft hier einen echten Schritt in Richtung Effizienz und Benutzerfreundlichkeit macht.
MAI-1-Preview-Modell
Das zweite Modell, MAI-1-Preview, wird auf der Plattform LMArena getestet. Es wurde mit rund 15.000 leistungsstarken Nvidia H100-GPUs trainiert, was seine Leistungsfähigkeit unterstreicht. Nutzer können das Modell ausprobieren, indem sie Anweisungen geben und hilfreiche Antworten auf alltägliche Fragen erhalten. Microsoft plant, MAI-1-Preview in seinen KI-Assistenten Copilot zu integrieren, der derzeit noch auf den Sprachmodellen von OpenAI basiert.
Microsofts Strategische Ausrichtung
Dieser Schritt könnte darauf hindeuten, dass Microsoft sich von der komplexen Partnerschaft mit OpenAI entfernen möchte. OpenAI hat eigene Pläne, um unabhängiger und gewinnorientierter zu agieren. Es bleibt spannend zu beobachten, wie sich diese Entwicklungen auf die KI-Landschaft auswirken werden.
Quellen
- Quelle: Microsoft
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




