Denn hinter jeder Antwort, die alleine ChatGPT liefert, steckt ein nicht zu unterschätzender Energieaufwand: Rund 0,02 Kilowattstunden (kWh) werden laut Studien pro Prompt benötigt. Irgendjemand muss für diese Kosten aufkommen.

Ich will mich nachfolgend ein wenig mit dem Kostenanteil, der bei der Nutzung von ChatGPT & Co auf dich persönlich zukommen wird, befassen.


ChatGPT vs. OpenAI API im Vergleich

ChatGPT und OpenAI sind das gleiche und doch nicht dasselbe (oder umgekehrt). Das führt ein wenig zu Verwirrungen, v.a. was die Bezahlung der Dienstleistungen angeht. Das ganze Thema kommt nun infolge der Einbindung von KI-Tools in der Beta-Version von Devonthink 4 auf.

Ich will das nachfolgend ein wenig aufdröseln:


Kostenlos ausprobieren – aber nur begrenzt

Es gibt bei vielen Anbietern kostenlose Einstiegsmöglichkeiten, auch bei OpenAI. Allerdings sind diese stark limitiert und reichen allenfalls zum kurzen Ausprobieren, bevor du zur Kreditkarte greifen musst.

Ob es noch kostenlose API-Guthaben bei OpenAI gibt, ist mittlerweile schwer zu sagen. In der Vergangenheit war das möglich, inzwischen scheint diese Option aus den Einstellungen verschwunden zu sein. Hier ein Link zu einem englischen Tutorial, das diese kostenlose Nutzung beschreibt (Stand 2025 – ich habe das selbst nicht durchexerziert bzw. getestet):

How to Use OpenAI API Key for Free in 2025


Kosten steuern durch Modellwahl

Wenn du weniger bezahlen möchtest, kannst du in DEVONthink (oder anderen Programmen) ein kostengünstigeres Modell wählen.

Zum Beispiel GPT-4o Nano – das ist zwar nicht besonders leistungsfähig, aber reicht zum Experimentieren, ohne zu viel Budget zu verbrauchen. Dieses Modell ist in DEVONthink voreingestellt.


Zwei Abrechnungsmodelle – zwei Nutzungswege

Obwohl ChatGPT und die OpenAI API technisch unter demselben Konto laufen,
werden sie getrennt abgerechnet:

NutzungKostenmodellLink zur Abrechnung
ChatGPT (chat.openai.com)Pauschale ca. 20 USD/Monat (Flatrate)ChatGPT Pricing
OpenAI API (platform.openai.com)Verbrauchsabhängig pro 1.000 Tokens (ab ca. 0,005 USD)API Billing Dashboard

Wichtig: Einen API-Schlüssel kannst du nur über die Developer-Plattform erstellen, nicht über die ChatGPT-Oberfläche.


Was bekommst du für dein Geld?

ChatGPT Plus (ca. 20 USD/Monat)

  • Quasi unbegrenzte Nutzung im Browser oder in der App.
  • Modelleinschränkungen je nach Abo, aber keine Token-Begrenzung.

OpenAI API (verbrauchsabhängig)

  • Sehr günstige Tokenpreise ab 0,005 USD pro 1.000 Tokens (Input) und 0,015 USD pro 1.000 Tokens (Output).
  • Rechnen wir das durch:

Beispiel: 20 USD API-Guthaben

  • Input + Output zusammen kosten ca. 0,01 USD pro 1.000 Tokens.
  • Du bekommst also rund 2 Millionen Tokens.
  • Eine durchschnittliche Frage + Antwort verbrauchen ca. 250 Tokens.
  • Das reicht für etwa 8.000 Fragerunden.


Was ist günstiger?

Rein rechnerisch kommst du mit der API oft günstiger weg, besonders wenn du die KI gezielt und effizient nutzt.

Aber: Die Praxis ist unterschiedlich. Die Stand-alone-Nutzung in ChatGPT fühlt sich oft flüssiger und nicht limitiert an, während die API-Nutzung technisches Wissen und ein bisschen Disziplin im Umgang mit dem Verbrauch erfordert.


Fazit

Beide Modelle haben ihre Stärken und Schwächen. Wenn du ohne technisches Setup einfach loslegen willst, bist du mit ChatGPT Plus gut bedient. Wenn du gezielt Funktionen in deine eigenen Workflows einbauen möchtest, kann die API günstiger und flexibler sein. Am Ende hängt es von deinem persönlichen Nutzungsstil und deinem Ziel ab. Soweit die Theorie. Trotzdem würde ich die Kosten aufmerksam beobachten um Überraschungen zu entgehen.


Sonst noch…

Noch eine Anmerkung zu den gesamtgesellschaftlichen Kosten, weil die immer wieder ins Feld geführt werden:

Allein ChatGPT braucht rund 15 Milliarden kWh Strom pro Jahr. Das hört sich dramatisch an, aber: Im Vergleich dazu lag der Bruttostromverbrauch Deutschlands im Jahr 2023 bei rund 449,8 Milliarden kWh.Der Stromverbrauch von ChatGPT entspricht somit etwa 0,05 % des gesamten deutschen Stromverbrauchs im Jahr 2023.

Während der Energiebedarf von KI-Anwendungen wie ChatGPT nicht unerheblich ist, liegt er dennoch weit unter dem Gesamtstromverbrauch großer Industrienationen wie Deutschland. Allerdings: Mit Windrädchen und Sonnenkollektoren alleine werden wir das nicht hinbekommen. Aber jetzt wird‘s politisch...