Wat kost een vraag aan ChatGPT?

9 weergave

De kosten zijn afhankelijk van je verbruik. Een schatting kan gemaakt worden door je jaarlijkse vraagvolume te bepalen en dit te relateren aan de energiekosten van een gemiddelde zoekopdracht (ongeveer €0,0000x per vraag, afhankelijk van de complexiteit). Vergelijk dit met je huishoudelijk energieverbruik voor een beter beeld. Precieze kosten zijn moeilijk te bepalen zonder meer details.

Opmerking 0 leuk

Wat kost een vraag aan ChatGPT? De onzichtbare prijs van artificiële intelligentie

De vraag “Wat kost een vraag aan ChatGPT?” is niet zo eenvoudig te beantwoorden als het lijkt. Er is geen prijslijst met tarieven per vraag, zoals bij een betaalde telefonische helpdesk. In plaats daarvan is de kostprijs verweven met een complex web van factoren, voornamelijk gerelateerd aan het energieverbruik van de enorme servers die ChatGPT draaien.

Het is belangrijk te begrijpen dat OpenAI, het bedrijf achter ChatGPT, de dienst op verschillende manieren aanbiedt. De gratis versie, die veel mensen gebruiken, wordt gesubsidieerd. De kosten worden dus niet rechtstreeks aan de gebruiker doorberekend, maar gedekt door OpenAI zelf. Dit betekent dat elke vraag die je stelt, bijdraagt aan het totale energieverbruik en dus aan de operationele kosten van het bedrijf.

Een poging tot een grove schatting van de kosten per vraag kan gemaakt worden door het jaarlijkse energieverbruik van OpenAI’s servers te schatten en te delen door het totale aantal vragen gesteld. Dit is echter een extreem complexe berekening, omdat het energieverbruik enorm varieert afhankelijk van de complexiteit van de vraag. Een eenvoudige vraag vereist minder rekenkracht dan een complexe vraag die uitgebreide teksten, code of uitgebreide redeneringen vereist.

Denk bijvoorbeeld aan het verschil tussen de vraag: “Wat is de hoofdstad van Frankrijk?” en “Schrijf een essay van 500 woorden over de socio-economische gevolgen van de Franse Revolutie.” De tweede vraag kost aanzienlijk meer rekenkracht en dus meer energie.

Daarnaast spelen factoren als server locatie, energieprijzen en de efficiëntie van de hardware een cruciale rol. OpenAI publiceert deze gegevens niet openbaar, waardoor een nauwkeurige berekening onmogelijk is. De vaak genoemde schatting van €0,0000x per vraag is dus een zeer ruwe indicatie en kan sterk variëren.

Een nuttige analogie is je eigen huishoudelijk energieverbruik. Een lamp laten branden kost weinig energie, terwijl het gebruik van een wasmachine of oven aanzienlijk meer verbruikt. Zo is het ook met ChatGPT: de ‘kost’ van een vraag is variabel en hangt volledig af van de vraag zelf.

In conclusie: een directe prijs voor een vraag aan ChatGPT bestaat niet in de gratis versie. De werkelijke kosten zijn verborgen in het enorme energieverbruik van de onderliggende infrastructuur en zijn moeilijk, zo niet onmogelijk, te kwantificeren zonder toegang tot interne OpenAI data. De gratis service wordt dus gesubsidieerd, en elke vraag draagt, hoe minimaal ook, bij aan de algehele operationele kosten.