Wenn Sie eine Pause von den Nachrichtensendung oberhalb Bankausfälle erfordern, hier ist irgendwas Erfrischendes. GPT-4 von OpenAI wurde gestriger Tag veröffentlicht. Dies neue Prototyp ist dieser Nachfolger von GPT-3.5-turbo und verspricht „sicherere“ und „nützlichere“ Reaktionen. Zwar welches bedeutet dies genau? Und wie unterscheiden sich die beiden Modelle?
Wir nach sich ziehen sechs Sachen, die Sie oberhalb GPT-4 wissen sollten, aufgeschlüsselt.
Verarbeitet sowohl Grafik- wie unter ferner liefen Texteingaben
GPT-4 akzeptiert Bilder wie Eingaben und kann den Inhalt eines Bildes neben Text aufgliedern. Z. B. können Benutzer ein Grafik einer Haufen von Zutaten uploaden und dies Prototyp fragen, welches Rezept sie mit den Zutaten hinauf dem Grafik zubereiten können. Darüber hinaus können sehbehinderte Benutzer Screenshots einer überladenen Website erstellen und GPT-4 bitten, den Text zu entschlüsseln und zusammenzufassen. Im Spannungsfeld zu DALL-E 2 kann GPT-4 jedoch keine Bilder erzeugen.
Pro Banken und Fintechs könnte sich die Bildverarbeitung von GPT-4 wie nützlich erweisen, um Kunden zu helfen, die während des Onboarding-Prozesses stecken bleiben. Dieser Bot könnte hierbei helfen, Screenshots dieser Benutzererfahrung zu entschlüsseln und verwirrten Kunden eine Anweisung zu eröffnen.
Reagiert weniger wahrscheinlich hinauf unangemessene Anfragen
Laut OpenAI reagiert GPT-4 mit 82 % geringerer Wahrscheinlichkeit wie GPT-3.5 hinauf unzulässige Inhalte. Es ist unter ferner liefen 40 % wahrscheinlicher, sachliche Position beziehen zu spendieren wie GPT-3.5.
Pro die Finanzdienstleistungsbranche bedeutet dies, dass die Verwendung von GPT-4 zum Produktionsstätte eines Chatbots weniger riskant ist wie zuvor. Dies neue Prototyp ist weniger empfänglich z. Hd. ethische und Sicherheitsrisiken.
Verarbeitet rund 25.000 Wörter pro Nachfrage
OpenAI misst seine Eingaben und Ausgaben nicht in Wortzahl oder Zeichenzahl. Vielmehr misst es Text hinauf dieser Grundlage von Einheiten, die wie Token bezeichnet werden. Obwohl dies Verhältnis von Wörtern zu Token nicht reibungslos ist, schätzt OpenAI, dass GPT-4 etwa 25.000 Wörter pro Nachfrage verarbeiten kann, verglichen mit dieser Kondensator von GPT-3.5-turbo von 3.000 Wörtern pro Nachfrage.
Sie Erhöhung ermöglicht es Benutzern, längere Gespräche zu resultieren, tief Inhalte zu erstellen, Text zu durchsuchen und Dokumente zu aufgliedern. Pro Banken und Fintechs könnte sich die erhöhte Zeichenbegrenzung nebst dieser Suche und Studie von Dokumenten z. Hd. Underwriting-Zwecke wie nützlich erweisen. Es könnte unter ferner liefen verwendet werden, um Compliance-Fehler und Betrug anzuzeigen.
Bessere Leistung nebst akademischen Tests
Während ChatGPT im 10. Prozentzahl dieser Uniform BAR-Prüfung punktete, erzielte GPT-4 im 90. Prozentzahl. Darüber hinaus schnitt GPT-4 nebst anderen standardisierten Tests gut ab, darunter LSAT, GRE und wenige dieser AP-Tests.
Während welche spezielle Unterprogramm z. Hd. Banken nicht praktisch ist, bedeutet sie irgendwas Wichtiges. Es unterstreicht die Fähigkeit dieser KI, strukturiertes Wissen zu speichern und zu reproduzieren.
Schon in Benutzung
Während GPT-4 erst gestriger Tag veröffentlicht wurde, wird es schon von einer Handvoll Organisationen eingesetzt. Microsoft zum Exempel verwendet GPT-4, um seinen Bing-Chatbot zu betreiben, seitdem er im Februar hinauf den Markt kam. Beryllium My Eyes, eine Technologieplattform, die blinden oder sehbehinderten Benutzern hilft, verwendet dies neue Prototyp zur Studie von Bildern.
Dies Prototyp wird unter ferner liefen in dieser Finanzdienstleistungsbranche eingesetzt. Stripe verwendet derzeit GPT-4, um seine Benutzererfahrung zu optimieren und Betrug zu bekämpfen. Und JP Morgan nutzt GPT-4, um seine Wissensbasis zu zusammenbringen. „Im Wesentlichen verfügen Sie sofort oberhalb dies Wissen dieser sachkundigsten Person im Wealth Management. Wir Vertrauen schenken, dass dies eine transformative Fähigkeit z. Hd. unser Unternehmen ist“, sagte Jeff McMillan, Head of Analytics, Data & Neuerung nebst Morgan Stanley Wealth Management.
Vermasselt es immer noch
Ein sehr menschlicher Hinsicht von OpenAIs GPT-4 ist, dass es Fehler macht. Tatsächlich sagt dieser technische Nachprüfung von OpenAI oberhalb GPT-4, dass dies Prototyp manchmal „sicherlich falsch in seinen Vorhersagen“ ist.
Ein gutes Exempel hierfür liefert die New York Times in ihrem jüngsten Geschlechtswort „10 Ways GPT-4 Is Impressive but Still Flawed“. Dieser Geschlechtswort beschreibt zusammenführen Benutzer, dieser GPT-4 bat, ihm beim Erlernen dieser Grundlagen dieser spanischen Sprache zu helfen. In seiner Auskunft bot GPT-4 eine Handvoll Ungenauigkeiten an, einschließlich dieser Mitteilung an den Benutzer, dass „gracias“ wie „grassy ass“ extrem wurde.
Foto von BoliviaInteligente hinauf Unsplash