
ChatGPT kann jetzt sehen, hören und sprechen. Mit der nahtlosen Integration des Bildmodells DALL-E 3 und dem neuen GPT-4 Turbo bietet OpenAI noch mehr Kontrolle und Funktionalität.
Sam Altman begrüßt uns auf der Entwicklerkonferenz von OpenAI in San Francisco mit einem Lächeln.
Er spricht über die Bedeutung der Stadt für das Unternehmen und die Branche. Er teilt die Aufregung über das Wachstum, das noch bevorsteht.
Vor einem Jahr, am 30. November, startete OpenAI ChatGPT als “unauffällige Forschungsvorschau”. Das Ergebnis? Ein voller Erfolg. Im März folgte GPT-4, das leistungsstärkste Modell der Welt. In den letzten Monaten kamen weitere Funktionen hinzu, sodass ChatGPT nun sehen, hören und sprechen kann.
Die neueste Errungenschaft? Das Bildmodell DALL-E 3 lässt sich nahtlos in ChatGPT integrieren. Für Unternehmenskunden gibt es ChatGPT Enterprise, das Unternehmenssicherheit und Datenschutz, schnelleren GPT-4-Zugang, längere Kontextfenster und vieles mehr bietet.
Heute nutzen etwa 2 Millionen Entwickler die API von OpenAI für eine Vielzahl von Anwendungsfällen. Mehr als 92 Prozent der Fortune-500-Unternehmen setzen auf ihre Produkte. Und ChatGPT hat etwa hundert Millionen wöchentlich aktive Nutzer.
Das Beeindruckende daran? All das wurde ausschließlich durch Mundpropaganda erreicht. Die Menschen finden die Produkte nützlich und erzählen es weiter.
Altman zeigt ein Video, in dem Menschen erzählen, wie sie ChatGPT in ihrem Alltag nutzen – von Hausaufgaben bis zur Ernährungsberatung. . Altman spricht über eine Reihe von Verbesserungen, die auf dem Feedback der Entwickler basieren. Er stellt GPT-4 Turbo vor, ein neues Modell, das viele der gewünschten Funktionen erfüllt.
GPT-4 Turbo unterstützt bis zu 128.000 Kontext-Tokens, das sind 300 Seiten eines Standardbuchs, 16 Mal länger als der 8k-Kontext von GPT-4. Es bietet mehr Kontrolle über die Antworten und Ausgaben des Modells. Es kann auf Wissen aus externen Dokumenten oder Datenbanken zugreifen und hat Wissen über die Welt bis zum April 2023.
Neue Modalitäten werden in die API aufgenommen, darunter DALL-E 3, GPT-4 Turbo mit Vision und ein neues Text-to-Speech-Modell. Mit diesem Modell können Entwickler aus Text unglaublich natürlich klingende Audiosignale erzeugen.
Altman spricht auch über Anpassungen. Die Feinabstimmung hat bei GPT-3.5 sehr gut funktioniert und wird nun auf die 16K-Version des Modells ausgeweitet. OpenAI stellt auch ein neues Programm namens Custom Models vor, bei dem die Forscher eng mit einem Unternehmen zusammenarbeiten, um ein benutzerdefiniertes Modell zu erstellen.
“Copyright Shield” ist ein Versprechen von OpenAI, seine Kunden bei Auseinandersetzungen zu unterstützen, sollte es zu Urheberrechtsverletzungen kommen – eine Zusage, die das Vertrauen in die Produkte ChatGPT Enterprise und die API signifikant stärken dürfte. In einer Welt, in der rechtliche Komplexitäten oft Innovationen lähmen können, stellt dies eine Art Rettungsschirm dar, unter dem kreative Geister unbeschwert experimentieren und erschaffen können.
Die Verbindung von OpenAI und Microsoft, verdeutlicht durch den Auftritt von Microsoft-CEO Satya Nadella, wirft ein Schlaglicht auf die Zukunft der KI-Entwicklung. Nadella betonte die Bedeutung einer Infrastruktur, die mit der Schnelllebigkeit der KI-Innovationen Schritt hält, und beteuerte Microsofts Engagement, als Plattform für Entwickler zu fungieren, um die KI-Vorteile breit zu streuen.