banner
Nachrichtenzentrum
Wir sind bestrebt, qualitativ hochwertige Produkte zu wettbewerbsfähigen Preisen zu liefern.

OpenAI veröffentlicht GPT

Apr 11, 2024

OpenAI hat mit GPT-4 ein leistungsstarkes neues KI-Modell zum Bild- und Textverständnis veröffentlicht, das das Unternehmen als „den neuesten Meilenstein in seinen Bemühungen zur Ausweitung des Deep Learning“ bezeichnet.

GPT-4 ist ab sofort für zahlende OpenAI-Benutzer über ChatGPT Plus (mit einer Nutzungsbeschränkung) verfügbar, und Entwickler können sich auf einer Warteliste eintragen, um auf die API zuzugreifen.

Der Preis beträgt 0,03 $ pro 1.000 „Prompt“-Tokens (ca. 750 Wörter) und 0,06 $ pro 1.000 „Completion“-Tokens (wiederum ca. 750 Wörter). Token stellen Rohtext dar; Beispielsweise würde das Wort „fantastic“ in die Token „fan“, „tas“ und „tic“ aufgeteilt. Prompt-Tokens sind die Teile von Wörtern, die in GPT-4 eingegeben werden, während Completion-Tokens der von GPT-4 generierte Inhalt sind.

Wie sich herausstellte, hat sich GPT-4 in aller Deutlichkeit versteckt. Microsoft hat heute bestätigt, dass Bing Chat, seine gemeinsam mit OpenAI entwickelte Chatbot-Technologie, auf GPT-4 läuft.

Zu den weiteren Early Adopters gehört Stripe, das GPT-4 verwendet, um Unternehmenswebsites zu scannen und eine Zusammenfassung an die Mitarbeiter des Kundensupports zu liefern. Duolingo hat GPT-4 in eine neue Abonnementstufe zum Sprachenlernen integriert. Morgan Stanley entwickelt ein GPT-4-gestütztes System, das Informationen aus Unternehmensdokumenten abruft und sie Finanzanalysten zur Verfügung stellt. Und die Khan Academy nutzt GPT-4, um eine Art automatisierten Tutor zu entwickeln.

Die neuen Fähigkeiten von GPT-4 ermöglichen einen „virtuellen Freiwilligen“ für Sehbehinderte

GPT-4 kann Text generieren und Bild- und Texteingaben akzeptieren – eine Verbesserung gegenüber GPT-3.5, seinem Vorgänger, der nur Text akzeptierte – und schneidet bei verschiedenen professionellen und akademischen Benchmarks auf „menschlichem Niveau“ ab. Beispielsweise besteht GPT-4 eine simulierte Anwaltsprüfung mit einer Punktzahl, die etwa unter den besten 10 % der Prüfungsteilnehmer liegt; Im Gegensatz dazu lag der Wert von GPT-3.5 bei etwa den unteren 10 %.

OpenAI verbrachte sechs Monate damit, GPT-4 mithilfe von Lehren aus einem internen kontradiktorischen Testprogramm und ChatGPT „iterativ anzupassen“, was nach Angaben des Unternehmens zu „besten Ergebnissen aller Zeiten“ in Bezug auf Faktizität, Steuerbarkeit und der Weigerung führte, die Leitplanken zu verlassen. Wie frühere GPT-Modelle wurde GPT-4 mithilfe öffentlich verfügbarer Daten trainiert, darunter von öffentlichen Webseiten, sowie anhand von OpenAI-lizenzierten Daten.

OpenAI arbeitete mit Microsoft zusammen, um einen „Supercomputer“ von Grund auf in der Azure-Cloud zu entwickeln, der zum Trainieren von GPT-4 verwendet wurde.

„In einem lockeren Gespräch kann der Unterschied zwischen GPT-3.5 und GPT-4 subtil sein“, schrieb OpenAI in einem Blogbeitrag zur Ankündigung von GPT-4. „Der Unterschied zeigt sich, wenn die Komplexität der Aufgabe einen ausreichenden Schwellenwert erreicht – GPT-4 ist zuverlässiger, kreativer und in der Lage, viel differenziertere Anweisungen zu verarbeiten als GPT-3.5.“

Einer der interessanteren Aspekte von GPT-4 ist zweifellos seine Fähigkeit, sowohl Bilder als auch Text zu verstehen. GPT-4 kann relativ komplexe Bilder beschriften und sogar interpretieren, beispielsweise um einen Lightning-Kabeladapter anhand eines Bildes eines angeschlossenen iPhone zu identifizieren.

Die Bildverständnisfunktion steht noch nicht allen OpenAI-Kunden zur Verfügung – OpenAI testet sie zunächst mit einem einzigen Partner, Be My Eyes. Die neue Virtual Volunteer-Funktion von Be My Eyes basiert auf GPT-4 und kann Fragen zu an sie gesendeten Bildern beantworten. Wie es funktioniert, erklärt das Unternehmen in einem Blogbeitrag:

„Wenn ein Benutzer beispielsweise ein Bild vom Inneren seines Kühlschranks sendet, kann der virtuelle Freiwillige nicht nur korrekt identifizieren, was sich darin befindet, sondern auch ableiten und analysieren, was mit diesen Zutaten zubereitet werden kann.“ Das Tool kann dann auch eine Reihe von Rezepten für diese Zutaten anbieten und eine Schritt-für-Schritt-Anleitung zu deren Herstellung senden.“

Eine möglicherweise bedeutsamere Verbesserung von GPT-4 ist das oben erwähnte Lenkbarkeitstool. Mit GPT-4 führt OpenAI eine neue API-Funktion ein, „System“-Nachrichten, die es Entwicklern ermöglichen, Stil und Aufgabe durch die Beschreibung spezifischer Richtungen vorzuschreiben. Systemnachrichten, die in Zukunft auch bei ChatGPT eingehen werden, sind im Wesentlichen Anweisungen, die den Ton angeben – und Grenzen setzen – für die nächsten Interaktionen der KI.

Eine Systemmeldung könnte beispielsweise lauten: „Sie sind ein Tutor, der immer im sokratischen Stil antwortet.“ Sie geben dem Schüler nie die Antwort, sondern versuchen immer, genau die richtige Frage zu stellen, damit er lernt, selbstständig zu denken. Sie sollten Ihre Frage immer auf das Interesse und Wissen des Schülers abstimmen und das Problem in einfachere Teile zerlegen, bis es genau das richtige Niveau für ihn erreicht.“

Selbst mit Systemmeldungen und den anderen Upgrades erkennt OpenAI jedoch an, dass GPT-4 alles andere als perfekt ist. Es „halluziniert“ immer noch Fakten und macht Denkfehler, manchmal mit großer Zuversicht. In einem von OpenAI zitierten Beispiel beschrieb GPT-4 Elvis Presley als „Sohn eines Schauspielers“ – ein offensichtlicher Fehltritt.

„GPT-4 mangelt es im Allgemeinen an Kenntnissen über Ereignisse, die eingetreten sind, nachdem die überwiegende Mehrheit seiner Daten abgeschnitten wurde (September 2021), und es lernt nicht aus seinen Erfahrungen“, schrieb OpenAI. „Manchmal kann es zu einfachen Denkfehlern kommen, die nicht mit der Kompetenz in so vielen Bereichen vereinbar zu sein scheinen, oder es kann zu leichtgläubig sein, wenn es darum geht, offensichtlich falsche Aussagen eines Benutzers zu akzeptieren. Und manchmal kann es bei schwierigen Problemen auf die gleiche Weise scheitern wie Menschen, beispielsweise bei der Einführung von Sicherheitslücken in den von ihm erstellten Code.“

OpenAI stellt jedoch fest, dass es in bestimmten Bereichen Verbesserungen vorgenommen hat; Zum einen ist es weniger wahrscheinlich, dass GPT-4 Anfragen zur Synthese gefährlicher Chemikalien ablehnt. Das Unternehmen gibt an, dass GPT-4 im Vergleich zu GPT-3.5 insgesamt mit einer um 82 % geringeren Wahrscheinlichkeit auf Anfragen nach „unzulässigen“ Inhalten antwortet und auf sensible Anfragen reagiert – z. B. medizinische Beratung und alles, was mit Selbstverletzung zu tun hat – im Einklang mit den Richtlinien von OpenAI 29 % öfters.

Bildnachweis:OpenAI

Bei GPT-4 gibt es eindeutig viel zu entpacken. Aber OpenAI seinerseits schreitet mit Volldampf voran – offensichtlich zuversichtlich in die erzielten Verbesserungen.

„Wir freuen uns darauf, dass GPT-4 ein wertvolles Werkzeug zur Verbesserung des Lebens der Menschen wird, indem es viele Anwendungen unterstützt“, schrieb OpenAI. „Es gibt noch viel zu tun, und wir freuen uns darauf, dieses Modell durch die gemeinsamen Anstrengungen der Community zu verbessern, indem wir auf dem Modell aufbauen, es erforschen und dazu beitragen.“

Bildnachweis: