Durch ein neues Update von OpenAI soll ChatGPT zu einem authentischen Gesprächspartner werden. Mit einer neuen Sprachsteuerung ausgestattet, sollen sich Nutzerinnen und Nutzer nun kontinuierlich mit dem Chatbot unterhalten können.


Quelle: Foto von BoliviaInteligente auf Unsplash

Das neueste Update GPT-4o erweitert einige von ChatGPT’s Fähigkeiten. Eine verbesserte Kontexterkennung ermöglicht es dem Chatbot, Gespräche besser zu verfolgen und angemessener zu reagieren. Dadurch kann ChatGPT natürlicher und flüssiger mit Nutzerinnen und Nutzern interagieren und besser auf vorherige Fragen und Antworten Bezug nehmen. Zusätzlich zu einer erweiterten Wissensbasis kann ChatGPT jetzt detaillierter über verschiedene Fachgebiete sprechen und relevante und informative Antworten auf eine Vielzahl von Fragen liefern. Die verbesserte Fähigkeit, komplexe Anfragen zu verarbeiten, ermöglicht es ChatGPT, auch komplizierte Fragen präzise zu beantworten, selbst wenn sie mehrere Konzepte umfassen oder eine tiefere Analyse erfordern. Insgesamt passt sich das Update besser an die Bedürfnisse der Nutzerinnen und Nutzer an.

Sprachassistent

OpenAI präsentierte die neuen Updates für GPT-4 und ChatGPT auf OpenAIs Spring-Update-Event, das auf YouTube gestreamt wurde.
Bei GPT-4o steht das “o” für “omni”, was im Lateinischen “alles” bedeutet. In diesem Zusammenhang bezieht sich das auf ein Modell, das Sprache mit Text- und Bildfunktionen vereint.


Bitte akzeptieren Sie YouTube-Cookies, um dieses Video abzuspielen. Wenn Sie dies akzeptieren, greifen Sie auf Inhalte von YouTube zu, einem Dienst, der von einer externen dritten Partei bereitgestellt wird.

YouTube privacy policy

Wenn Sie diesen Hinweis akzeptieren, wird Ihre Wahl gespeichert und die Seite wird aktualisiert.



Die Präsentation konzentrierte sich insbesondere auf das neue und verbesserte Sprachmodell. Dieses Modell kombiniert Sprache mit Text- und Bildfunktionen, um ein möglichst flüssiges und nahtloses Gesprächserlebnis zu bieten. Die Antwortzeit auf Spracheingaben soll teilweise in weniger als 2032 Millisekunden erfolgen, wobei der Durchschnitt bei 320 Millisekunden liegt. Laut OpenAI ist dies vergleichbar mit den Antwortzeiten in menschlichen Gesprächen. OpenAI bezeichnet dies als “real-time responsiveness,” bei der die Antwort sofort und ohne Verzögerungen oder Bearbeitungszeit erfolgt. Dadurch soll das Gespräch mit dem Chatbot sich wie ein echtes, menschliches Gespräch anfühlen.

Zudem kann die KI-Stimme des Chatbots verschiedene Emotionen ausdrücken. So kann sie beispielsweise beruhigend auf Menschen eingehen. Der Chatbot ist außerdem in der Lage, bei verschiedenen Aufgaben zu helfen und diese über Bild- oder Videoaufnahmen zu erkennen. Das Sprachmodell kann Live-Übersetzungen durchführen und als Dolmetscher fungieren. In einer Präsentation demonstrierte der Chatbot problemlos die Übersetzung von Italienisch auf Englisch. Darüber hinaus kann GPT-4o über einen Videochat menschliche Emotionen erkennen und interpretieren.

Sprachmodell in der Testphase

Weitere Demos des neuen Sprachmodells zeigen, wie vielseitig einsetzbar der KI-Bot sein kann. OpenAI präsentiert auf seinem YouTube Kanal zu welchen Zwecken das neue Sprachmodell verwendet werden kann. Vom Singen im Duett über Spiele, bis hin zu Interaktionen mit Tieren. OpenAI präsentiert zahllose Einsatzmöglichkeiten, die das neue Update bieten soll. Ob das natürlich in Zukunft der Realität entsprechen wird bleibt abzuwarten. Die KI-Entwicklung steckt noch in ihren Kinderschuhen, daher sollte man abwarten, wie viele der Versprechen auch wirklich eingehalten werden können.

Derzeit befinden sich die neuen Funktionen noch in der Testphase. Diese sollen dann aber schrittweise veröffentlicht werden. ChatGPT bekommt zunächst die neuen Text- und Bildfunktionen von GPT4-o verpasst. Das Sprachmodell erscheint dann in der Alpha-Version für Nutzerinnen und Nutzer der kostenpflichtigen ChatGPT-Plus-Variante.

Die Text- und Bildvariante von GPT-4o ist auch über die API verfügbar. Im Vergleich zu GPT-4 Turbo hat sich die Geschwindigkeit verdoppelt und der Preis wurde halbiert. Das vollständige Modell mit den Sprachfunktionen wird jedoch zunächst einer ausgewählten Gruppe von Testern zur Verfügung gestellt.

0 0 votes
Article Rating