Zum Hauptinhalt springen
OpenAI ChatGPT ist ein sehr leistungsstarkes KI-Dialogsystem, das in nur wenigen Sekunden flüssige und natürliche Antworten generieren kann, sobald ein Eingabewort eingegeben wird. ChatGPT hebt sich durch seine hervorragenden Sprachverständnis- und Generierungsfähigkeiten in der Branche hervor. Heute wird ChatGPT bereits in verschiedenen Branchen und Bereichen weit verbreitet eingesetzt, und sein Einfluss wird immer deutlicher. Egal ob bei alltäglichen Gesprächen, kreativem Schreiben oder professioneller Beratung und Programmierung, ChatGPT kann erstaunliche intelligente Unterstützung bieten und die Effizienz und Kreativität der Menschen erheblich steigern. Dieses Dokument beschreibt hauptsächlich den Ablauf der Nutzung der OpenAI Chat Completion API, mit der wir die Dialogfunktionen des offiziellen OpenAI ChatGPT einfach nutzen können.

Antragsprozess

Um die OpenAI Chat Completion API zu nutzen, können Sie zunächst auf die Seite OpenAI Chat Completion API gehen und auf die Schaltfläche „Acquire“ klicken, um die benötigten Anmeldeinformationen zu erhalten: Wenn Sie noch nicht angemeldet oder registriert sind, werden Sie automatisch zur Anmeldeseite weitergeleitet, um sich zu registrieren und anzumelden. Nach der Anmeldung werden Sie automatisch zur aktuellen Seite zurückgeleitet. Bei der ersten Antragstellung gibt es ein kostenloses Kontingent, mit dem Sie die API kostenlos nutzen können.

Grundlegende Nutzung

Als Nächstes können Sie die entsprechenden Inhalte im Interface ausfüllen, wie im Bild gezeigt:

Bei der ersten Nutzung dieser Schnittstelle müssen wir mindestens drei Inhalte ausfüllen: einer ist authorization, den Sie einfach aus der Dropdown-Liste auswählen können. Ein weiterer Parameter ist model, model ist die Modellkategorie, die wir für die Nutzung des OpenAI ChatGPT auf der offiziellen Website auswählen. Hier haben wir hauptsächlich 20 Modelle zur Auswahl, die Details können Sie in den bereitgestellten Modellen einsehen. Der letzte Parameter ist messages, messages ist das Array der von uns eingegebenen Fragen, es handelt sich um ein Array, das mehrere Fragen gleichzeitig hochladen kann, wobei jede Frage role und content enthält, wobei role die Rolle des Fragestellers angibt. Wir bieten drei Identitäten an: user, assistant, system. Das andere content ist der spezifische Inhalt unserer Frage. Gleichzeitig können Sie auf der rechten Seite den entsprechenden Code zur Aufrufgenerierung sehen, den Sie kopieren und direkt ausführen oder einfach auf die Schaltfläche „Try“ klicken können, um einen Test durchzuführen. Häufig verwendete optionale Parameter:
  • max_tokens: Begrenzung der maximalen Token-Anzahl pro Antwort.
  • temperature: Generierungsrandomisierung, zwischen 0-2, je höher der Wert, desto divergenter.
  • n: Anzahl der zu generierenden Antwortvorschläge auf einmal.
  • response_format: Einstellung des Rückgabeformats.

Nach dem Aufruf stellen wir fest, dass das Rückgabeergebnis wie folgt aussieht:
{
  "id": "chatcmpl-Cmd6uwSxN75F4PAdQSFEO8f2QPs4E",
  "object": "chat.completion",
  "created": 1765706120,
  "model": "gpt-5.2",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Hallo! Wie kann ich Ihnen heute helfen?",
        "refusal": null,
        "annotations": []
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 7,
    "completion_tokens": 13,
    "total_tokens": 20,
    "prompt_tokens_details": {
      "cached_tokens": 0,
      "audio_tokens": 0
    },
    "completion_tokens_details": {
      "reasoning_tokens": 0,
      "audio_tokens": 0,
      "accepted_prediction_tokens": 0,
      "rejected_prediction_tokens": 0
    }
  },
  "service_tier": "default",
  "system_fingerprint": null
}
Das Rückgabeergebnis enthält mehrere Felder, die wie folgt beschrieben werden:
  • id, die ID der generierten Dialogaufgabe, die zur eindeutigen Identifizierung dieser Dialogaufgabe dient.
  • model, das gewählte OpenAI ChatGPT-Modell.
  • choices, die Antwortinformationen von ChatGPT auf die Fragen.
  • usage: Statistische Informationen zu den Tokens für diese Frage-Antwort-Interaktion.
Dabei ist choices das, was die Antwortinformationen von ChatGPT enthält, und innerhalb von choices können wir sehen, wie im Bild gezeigt.

Wie zu sehen ist, enthält das Feld content innerhalb von choices den spezifischen Inhalt der Antwort von ChatGPT.

Stream-Antwort

Diese Schnittstelle unterstützt auch Stream-Antworten, was für die Integration in Webseiten sehr nützlich ist, da es ermöglicht, die Ausgabe zeilenweise anzuzeigen. Wenn Sie eine Stream-Antwort zurückgeben möchten, können Sie den stream-Parameter im Header der Anfrage auf true ändern. Die Änderung ist wie im Bild gezeigt, jedoch muss der Aufrufcode entsprechend geändert werden, um Stream-Antworten zu unterstützen.

Nachdem Sie stream auf true geändert haben, gibt die API die entsprechenden JSON-Daten zeilenweise zurück. Auf der Code-Ebene müssen wir entsprechende Änderungen vornehmen, um die zeilenweisen Ergebnisse zu erhalten. Beispielaufrufcode in Python:
import requests

url = "https://api.acedata.cloud/openai/chat/completions"

headers = {
    "accept": "application/json",
    "authorization": "Bearer {token}",
    "content-type": "application/json"
}

payload = {
    "model": "gpt-4",
    "messages": [{"role":"user","content":"hello"}],
    "stream": True
}

response = requests.post(url, json=payload, headers=headers)
print(response.text)
Die Ausgabe sieht wie folgt aus:
data: {"choices": [{"delta": {"role": "assistant"}, "index": 0}], "created": 1721007348, "id": "chatcmpl-YzczYjVhNjhjMzMwNDQ5MDkyNGYzOGZjZGE1ZGQ5OGU", "model": "gpt-4", "object": "chat.completion.chunk", "recipient": "all"}

data: {"choices": [{"delta": {"content": "Hallo", "role": "assistant"}, "index": 0}], "created": 1721007348, "id": "chatcmpl-YzczYjVhNjhjMzMwNDQ5MDkyNGYzOGZjZGE1ZGQ5OGU", "model": "gpt-4", "object": "chat.completion.chunk", "recipient": "all"}

data: {"choices": [{"delta": {"content": " da", "role": "assistant"}, "index": 0}], "created": 1721007348, "id": "chatcmpl-YzczYjVhNjhjMzMwNDQ5MDkyNGYzOGZjZGE1ZGQ5OGU", "model": "gpt-4", "object": "chat.completion.chunk", "recipient": "all"}

data: {"choices": [{"delta": {"content": "!", "role": "assistant"}, "index": 0}], "created": 1721007348, "id": "chatcmpl-YzczYjVhNjhjMzMwNDQ5MDkyNGYzOGZjZGE1ZGQ5OGU", "model": "gpt-4", "object": "chat.completion.chunk", "recipient": "all"}

data: {"choices": [{"delta": {"content": " Wie", "role": "assistant"}, "index": 0}], "created": 1721007348, "id": "chatcmpl-YzczYjVhNjhjMzMwNDQ5MDkyNGYzOGZjZGE1ZGQ5OGU", "model": "gpt-4", "object": "chat.completion.chunk", "recipient": "all"}

data: {"choices": [{"delta": {"content": " kann", "role": "assistant"}, "index": 0}], "created": 1721007348, "id": "chatcmpl-YzczYjVhNjhjMzMwNDQ5MDkyNGYzOGZjZGE1ZGQ5OGU", "model": "gpt-4", "object": "chat.completion.chunk", "recipient": "all"}

data: {"choices": [{"delta": {"content": " ich", "role": "assistant"}, "index": 0}], "created": 1721007348, "id": "chatcmpl-YzczYjVhNjhjMzMwNDQ5MDkyNGYzOGZjZGE1ZGQ5OGU", "model": "gpt-4", "object": "chat.completion.chunk", "recipient": "all"}

data: {"choices": [{"delta": {"content": " Ihnen", "role": "assistant"}, "index": 0}], "created": 1721007348, "id": "chatcmpl-YzczYjVhNjhjMzMwNDQ5MDkyNGYzOGZjZGE1ZGQ5OGU", "model": "gpt-4", "object": "chat.completion.chunk", "recipient": "all"}

data: {"choices": [{"delta": {"content": " heute", "role": "assistant"}, "index": 0}], "created": 1721007348, "id": "chatcmpl-YzczYjVhNjhjMzMwNDQ5MDkyNGYzOGZjZGE1ZGQ5OGU", "model": "gpt-4", "object": "chat.completion.chunk", "recipient": "all"}

data: {"choices": [{"delta": {"content": "?", "role": "assistant"}, "index": 0}], "created": 1721007348, "id": "chatcmpl-YzczYjVhNjhjMzMwNDQ5MDkyNGYzOGZjZGE1ZGQ5OGU", "model": "gpt-4", "object": "chat.completion.chunk", "recipient": "all"}

data: {"choices": [{"delta": {"role": "assistant"}, "index": 0}], "created": 1721007348, "id": "chatcmpl-YzczYjVhNjhjMzMwNDQ5MDkyNGYzOGZjZGE1ZGQ5OGU", "model": "gpt-4", "object": "chat.completion.chunk", "recipient": "all"}

data: {"choices": [{"delta": {"role": "assistant"}, "finish_reason": "stop", "index": 0}], "created": 1721007349, "id": "chatcmpl-YzczYjVhNjhjMzMwNDQ5MDkyNGYzOGZjZGE1ZGQ5OGU", "model": "gpt-4", "object": "chat.completion.chunk", "recipient": "all"}

data: [DONE]

Sie können sehen, dass die Antwort viele data enthält, wobei data die neuesten Antwortinhalte in choices sind, die mit dem oben beschriebenen Inhalt übereinstimmen. choices sind die neuen Antwortinhalte, die Sie in Ihr System integrieren können. Das Ende der Streaming-Antwort wird anhand des Inhalts von data bestimmt; wenn der Inhalt [DONE] ist, bedeutet dies, dass die Streaming-Antwort vollständig beendet ist. Die zurückgegebenen data-Ergebnisse haben mehrere Felder, die wie folgt beschrieben werden:
  • id, die ID der generierten Dialogaufgabe, um diese eindeutig zu kennzeichnen.
  • model, das gewählte OpenAI ChatGPT-Modell.
  • choices, die Antwortinformationen von ChatGPT auf die Fragen.
JavaScript wird ebenfalls unterstützt, zum Beispiel sieht der Code für den Streaming-Aufruf in Node.js wie folgt aus:
const options = {
  method: "post",
  headers: {
    accept: "application/json",
    authorization: "Bearer {token}",
    "content-type": "application/json",
  },
  body: JSON.stringify({
    model: "gpt-4",
    messages: [{ role: "user", content: "hallo" }],
    stream: true,
  }),
};

fetch("https://api.acedata.cloud/openai/chat/completions", options)
  .then((response) => response.json())
  .then((response) => console.log(response))
  .catch((err) => console.error(err));
Java-Beispielcode:
JSONObject jsonObject = new JSONObject();
jsonObject.put("model", "gpt-4");
jsonObject.put("messages", [{"role":"user","content":"hallo"}]);
jsonObject.put("stream", true);
MediaType mediaType = "application/json; charset=utf-8".toMediaType();
RequestBody body = jsonObject.toString().toRequestBody(mediaType);
Request request = new Request.Builder()
  .url("https://api.acedata.cloud/openai/chat/completions")
  .post(body)
  .addHeader("accept", "application/json")
  .addHeader("authorization", "Bearer {token}")
  .addHeader("content-type", "application/json")
  .build();

OkHttpClient client = new OkHttpClient();
Response response = client.newCall(request).execute();
System.out.print(response.body!!.string())
Andere Sprachen können entsprechend umgeschrieben werden, das Prinzip ist dasselbe.

Mehrere Runden im Dialog

Wenn Sie die Funktion für mehrere Runden im Dialog integrieren möchten, müssen Sie mehrere Fragen im Feld messages hochladen. Ein konkretes Beispiel für mehrere Fragen ist im folgenden Bild dargestellt:

Python-Beispielaufrufcode:
import requests

url = "https://api.acedata.cloud/openai/chat/completions"

headers = {
    "accept": "application/json",
    "authorization": "Bearer {token}",
    "content-type": "application/json"
}

payload = {
    "model": "gpt-4",
    "messages": [{"role":"user","content":"Hallo"},{"role":"assistant","content":"Hallo! Wie kann ich Ihnen heute helfen?"},{"role":"user","content":"Was habe ich gerade gesagt?"}]
}

response = requests.post(url, json=payload, headers=headers)
print(response.text)
Durch das Hochladen mehrerer Fragen kann man leicht eine mehrstufige Konversation führen und erhält folgende Antwort:
{
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Sie haben gesagt: \"Hallo.\""
      },
      "finish_reason": "stop"
    }
  ],
  "created": 1721323012,
  "id": "chatcmpl-NWZmOTA5MDlkZjBjNDRjNGEwMzRjYzA5NmM1MzQwMWY",
  "model": "gpt-4",
  "object": "chat.completion.chunk",
  "recipient": "all",
  "usage": {
    "prompt_tokens": 31,
    "completion_tokens": 6,
    "total_tokens": 37
  }
}
Man kann sehen, dass die Informationen in choices mit dem grundlegenden Inhalt übereinstimmen, der die spezifischen Antworten von ChatGPT auf mehrere Gespräche enthält, sodass man basierend auf mehreren Gesprächsinhalten die entsprechenden Fragen beantworten kann.

Anbindung an OpenAI-Python

Der OpenAI Chat Completion API-Dienst wird von dem offiziellen OpenAI-Dienst bereitgestellt, weitere Informationen finden Sie in der offiziellen OpenAI-Python. In diesem Artikel wird kurz erläutert, wie man den bereitgestellten Dienst nutzen kann.
  1. Zuerst müssen Sie eine lokale Python-Umgebung einrichten, dieser Prozess kann durch eine Google-Suche gefunden werden.
  2. Installieren Sie eine Entwicklungsumgebung, z. B. den VSCode-Editor.
  3. Konfigurieren Sie die OpenAI-Umgebungsvariablen.
  • Erstellen Sie im Projektordner eine Datei mit dem Namen .env und speichern Sie sie.
  • Inhalt der .env-Datei:
OPENAI_API_KEY="sk-xxx"
OPENAI_BASE_URL="https://api.acedata.cloud/openai"  # Nochmals zur Erinnerung: Wenn Sie den Key von der offiziellen OpenAI verwenden, verwenden Sie diese Adresse nicht.
Ersetzen Sie sk-xxx durch Ihren eigenen Key. OPENAI_BASE_URL ist die Proxy-Schnittstelle zum Zugriff auf OpenAI.
  1. Installieren Sie die Abhängigkeiten des Projekts
pip install openai
Der Befehl für Mac OS lautet:
pip3 install openai
  1. Erstellen Sie eine Beispiel-Quellcodedatei
Angenommen, wir haben eine Beispielcode-Datei index.py erstellt, deren Inhalt wie folgt aussieht:
import os
from openai import OpenAI

client = OpenAI(api_key=os.environ.get("OPENAI_API_KEY"))

response = client.chat.completions.create(
    messages=[
        {
            "role": "user",
            "content": "Hallo",
        }
    ],
    model="gpt-4",
)

print(response.text)

Online-Modell

Die Modelle gpt-3.5-browsing und gpt-4-browsing unterscheiden sich von anderen Modellen, da sie basierend auf den Fragen eine Online-Suche durchführen können und die Ergebnisse der Online-Suche entsprechend anpassen und zurückgeben. In diesem Artikel wird ein konkretes Beispiel zur Demonstration der Online-Funktionalität gegeben, und Sie können die entsprechenden Inhalte im OpenAI Chat Completion API-Bereich ausfüllen, wie im Bild gezeigt:

Gleichzeitig können Sie auf der rechten Seite den entsprechenden generierten Code sehen, den Sie direkt ausführen oder auf die Schaltfläche „Try“ klicken können, um einen Test durchzuführen.

Nach dem Aufruf stellen wir fest, dass das Rückgabeergebnis wie folgt aussieht:
{
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Für die neuesten Nachrichten in China heute können Sie große Nachrichtenwebsites wie:\n\n- [BBC News China](https://www.bbc.com/news/world/asia/china)\n- [CNN China News](https://edition.cnn.com/china)\n- [Reuters China](https://www.reuters.com/news/archive/china-news)\n\nDiese Quellen haben aktuelle Informationen zu den Ereignissen in China."
      },
      "finish_reason": "stop"
    }
  ],
  "created": 1721009347,
  "id": "chatcmpl-YzA0M2RjZDVkYThlNDkxNTkzOThmZWQ4OGMzNzdhNzA",
  "model": "gpt-4-browsing",
  "object": "chat.completion.chunk",
  "recipient": "all",
  "usage": {
    "prompt_tokens": 325,
    "completion_tokens": 82,
    "total_tokens": 407
  }
}
Man kann sehen, dass die Antwortinformationen in choices basierend auf der Online-Abfrage erhalten wurden und auch die entsprechenden Links bereitgestellt wurden. Die Antwortinformationen in choices müssen mit Markdown-Syntax gerendert werden, um die beste Erfahrung zu erzielen, und letztendlich zeigt dies auch die starke Vorteilhaftigkeit der Online-Funktionalität unseres Modells.

Visuelles Modell

gpt-4o ist ein multimodales großes Sprachmodell, das von OpenAI entwickelt wurde und auf GPT-4 basiert, wobei die visuelle Verständnisfähigkeit hinzugefügt wurde. Dieses Modell kann gleichzeitig Text- und Bild-Eingaben verarbeiten und ermöglicht ein übergreifendes Verständnis und Generierung. Die Textverarbeitung mit dem gpt-4o-Modell ist mit dem grundlegenden Inhalt der vorherigen Verwendung identisch. Im Folgenden wird kurz erläutert, wie man die Bildverarbeitungsfähigkeiten des Modells nutzen kann. Die Bildverarbeitungsfähigkeiten des gpt-4o-Modells werden hauptsächlich durch das Hinzufügen eines type-Feldes zu den ursprünglichen content-Inhalten aktiviert, durch das man erkennen kann, ob Text oder Bild hochgeladen wurde, um die Bildverarbeitungsfähigkeiten des gpt-4o-Modells zu nutzen. Im Folgenden werden hauptsächlich zwei Methoden zur Nutzung dieser Funktion beschrieben: Curl und Python.
  • Curl-Skript-Methode
curl -X POST 'https://api.acedata.cloud/openai/chat/completions' \
-H 'accept: application/json' \
-H 'authorization: Bearer {token}' \
-H 'content-type: application/json' \
-d '{
    "model": "gpt-4o",
    "messages": [
      {
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": "Was ist auf diesem Bild?"
          },
          {
            "type": "image_url",
            "image_url": {
              "url": "https://upload.wikimedia.org/wikipedia/commons/thumb/d/dd/Gfp-wisconsin-madison-the-nature-boardwalk.jpg/2560px-Gfp-wisconsin-madison-the-nature-boardwalk.jpg"
            }
          }
        ]
      }
    ]
  }'
  • Python-Skript-Methode
```python
import requests

url = "https://api.acedata.cloud/openai/chat/completions"

headers = {
    "accept": "application/json",
    "authorization": "Bearer {token}",
    "content-type": "application/json"
}

payload = {
    "model": "gpt-4o",
    "messages": [
        {
            "role": "user",
            "content": [
                {
                    "type": "text", "text": "Was ist in diesem Bild?"
                },
                {
                    "type": "image_url",
                    "image_url": {
                        "url": "https://upload.wikimedia.org/wikipedia/commons/thumb/d/dd/Gfp-wisconsin-madison-the-nature-boardwalk.jpg/2560px-Gfp-wisconsin-madison-the-nature-boardwalk.jpg"
                    }
                },
            ],
        }
    ]
}

response = requests.post(url, json=payload, headers=headers)
print(response.text)
Dann kann man das folgende Ergebnis erhalten, dessen Feldinformationen mit dem obigen Text übereinstimmen, konkret wie folgt:
{
  "id": "chatcmpl-123",
  "object": "chat.completion",
  "created": 1677652288,
  "model": "gpt-4-vision-preview",
  "system_fingerprint": "fp_44709d6fcb",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "\n\nDieses Bild zeigt einen Holzsteg, der durch ein üppiges grünes Sumpfland führt."
      },
      "logprobs": null,
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 9,
    "completion_tokens": 12,
    "total_tokens": 21
  }
}
Man kann sehen, dass der Inhalt der Antwort auf dem Bild basiert, daher kann man mit den oben genannten zwei Methoden die Text- und Bildverarbeitungsfähigkeiten des gpt-4-vision Modells leicht nutzen. Neben gpt-4o gibt es ein kostengünstigeres Modell namens gpt-4o-mini. gpt-4o-mini ist das neueste große Sprachmodell, das von OpenAI entwickelt wurde. Es ist nicht nur schnell in der Reaktionszeit, sondern auch günstiger und unterstützt multimodale Funktionen. Die Nutzung der Vision-Funktion kann auf den obigen Inhalt zur Verwendung des gpt-4o-Modells verwiesen werden.

GPT-4o Zeichnungsmodell

Beispielanfrage:
{
  "model": "gpt-4o-image",
  "messages": [
    {
      "role": "user",
      "content": [
        {
          "type": "text",
          "text": "Generiere ein Bild im Ghibli-Stil und setze einen Hut auf"
        },
        {
          "type": "file_url",
          "file_url": {
            "url": "https://cdn.acedata.cloud/qzx2z1.png"
          }
        }
      ]
    }
  ],
  "stream": false
}
Beispielergebnis:
{
  "id": "chatcmpl-89CXTr5EHi7WgiO3qSzWxvmqwfryP",
  "object": "chat.completion.chunk",
  "model": "gpt-4o-image",
  "created": 1744395060,
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "{\n  \"prompt\": \"Eine junge Frau mit langen schwarzen Haaren, die ein weißes Kleid trägt und in einer malerischen Umgebung steht. Das Bild ist im Stil der Studio Ghibli-Animation gehalten, mit sanften Farben und zarten Details. Sie trägt einen niedlichen, stilvollen Hut und hat ein warmes, fröhliches Lächeln. Der Hintergrund zeigt üppiges Grün und eine friedliche Atmosphäre, mit Sonnenlicht, das durch die Bäume filtert.\",\n  \"size\": \"1024x1024\"\n}\n\n\n![file-96TSnzJ6MipkZwCmmYEZSA](https://filesystem.site/cdn/20250412/s8EFrYVqeRWc5SfTmF1SbgBS2WFGXb.webp)\n[Herunterladen⏬](https://filesystem.site/cdn/download/20250412/s8EFrYVqeRWc5SfTmF1SbgBS2WFGXb.webp)\n\nHier ist das im Stil von Studio Ghibli erstellte Bild, das eine junge Frau zeigt, die ein weißes Kleid und einen stilvollen Hut in einer malerischen Umgebung trägt. Die sanfte, warme Atmosphäre wird mit zarten Details und lebendigen Farben eingefangen."
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 70,
    "completion_tokens": 17,
    "total_tokens": 87
  }
}

Fehlerbehandlung

Bei der API-Anfrage, wenn ein Fehler auftritt, gibt die API den entsprechenden Fehlercode und die Informationen zurück. Zum Beispiel:
  • 400 token_mismatched: Ungültige Anfrage, möglicherweise aufgrund fehlender oder ungültiger Parameter.
  • 400 api_not_implemented: Ungültige Anfrage, möglicherweise aufgrund fehlender oder ungültiger Parameter.
  • 401 invalid_token: Unbefugt, ungültiger oder fehlender Autorisierungstoken.
  • 429 too_many_requests: Zu viele Anfragen, Sie haben das Rate-Limit überschritten.
  • 500 api_error: Interner Serverfehler, etwas ist auf dem Server schiefgelaufen.

Beispiel für eine Fehlerantwort

{
  "success": false,
  "error": {
    "code": "api_error",
    "message": "Abruf fehlgeschlagen"
  },
  "trace_id": "2cf86e86-22a4-46e1-ac2f-032c0f2a4e89"
}

Fazit

Durch dieses Dokument haben Sie gelernt, wie Sie die OpenAI Chat Completion API nutzen können, um die Dialogfunktionen von OpenAI ChatGPT einfach zu implementieren. Wir hoffen, dass dieses Dokument Ihnen hilft, die API besser zu integrieren und zu nutzen. Bei Fragen wenden Sie sich bitte jederzeit an unser technisches Support-Team.