Wat is de ChatGPT-tokenlimiet en kunt u deze overschrijden?

Wat is de ChatGPT-tokenlimiet en kunt u deze overschrijden?
Lezers zoals jij steunen MUO. Wanneer u een aankoop doet via links op onze site, kunnen we een aangesloten commissie verdienen. Lees verder.

ChatGPT heeft de technologische wereld stormenderhand veroverd en er is geen tekort aan verbeteringen en updates. Maar ondanks het gebruik van geavanceerde technologie zijn er nogal wat beperkende factoren binnen de huidige versie.





Een van die factoren is het tokensysteem, dat de evolutiecyclus blijft doorbreken, waardoor het nut van de app op de knieën gaat. Als je ChatGPT gebruikt, wil je misschien meer weten over de tokens van ChatGPT en wat je moet doen als je geen tokens meer hebt.





MAAK GEBRUIK VAN DE VIDEO VAN DE DAG SCROLL OM DOOR TE GAAN MET INHOUD

Laten we een stap terug doen en u inzicht geven in alles wat er te weten valt over de onderliggende werkingsmechanismen van de app.





Wat is een ChatGPT-token?

Als je de façade van de app volgt, zie je alleen een computertaal die je commando's gehoorzaamt en je de antwoorden geeft die je zoekt. De backend is echter gewoon een heleboel code, die elke minuut leert en op de hoogte blijft van de vragen die het beantwoordt.

ChatGPT zet elk woord om in een leesbaar token wanneer je een vraag stelt. Om het verder uit te splitsen: tokens zijn tekstfragmenten en elke programmeertaal gebruikt een andere set tokenwaarden om de vereisten te begrijpen.



photoshop hoe alles van één kleur te selecteren
  Vergelijkingsoperatoren en booleaanse logica met cpp

Omdat computers tekstwaarden niet direct begrijpen, splitsen ze ze op in een combinatie van getallen, vaak insluitingen genoemd. U kunt zelfs inbeddingen overwegen zoals Python-lijsten , die lijken op een lijst met gerelateerde nummers, zoals [1.1,2.1,3.1,4.1…n].

Zodra ChatGPT de eerste invoer heeft ontvangen, probeert het de volgende mogelijke invoer te voorspellen op basis van de eerdere informatie. Het kiest de volledige lijst met eerdere tokens en probeert, met behulp van zijn coderingssynthese, de daaropvolgende invoer door de gebruiker te voorkomen. Het gebruikt en voorspelt één token tegelijk om het voor de taal eenvoudiger te maken om het gebruik te begrijpen.





Om voorspellingen te verbeteren en de nauwkeurigheid te verbeteren, pikt het de volledige lijst met inbeddingen op en geeft deze door transformatorlagen om associaties tussen woorden tot stand te brengen. Als u bijvoorbeeld een vraag stelt als 'Wie is Thomas Edison?', pikt ChatGPT de meest waardevolle woorden in de lijst op: WHO En Edison .

Transformatorlagen spelen hun rol in het hele proces. Deze lagen zijn een vorm van neurale netwerkarchitectuur die is getraind om de meest relevante trefwoorden uit een reeks woorden op te pikken. Het trainingsproces is echter niet zo eenvoudig als het klinkt, want het duurt lang om transformatorlagen te trainen op gigabytes aan gegevens.





Hoewel ChatGPT slechts één token tegelijk voorspelt, is de auto-regressieve technologie geprogrammeerd om te voorspellen en terug te koppelen naar het primaire model om de uitvoer vrij te geven. Het model is zo afgesteld dat het voor elk token maar één keer wordt uitgevoerd, dus het resultaat wordt woord voor woord afgedrukt. De uitvoer stopt automatisch wanneer de toepassing een stoptokenopdracht tegenkomt.

Als u bijvoorbeeld naar de tokencalculator op de ChatGPT-website kijkt, kunt u uw tokengebruik berekenen op basis van uw vragen.

Laten we wat voorbeeldtekst invoeren, zoals:

 How do I explain the use of tokens in ChatGPT?

Volgens de rekenmachine zijn er 46 tekens in deze string, die 13 tokens zullen verbruiken. Als je het opsplitst in Token-ID's, ziet het er ongeveer zo uit:

 [2437, 466, 314, 4727, 262, 779, 286, 16326, 287, 24101, 38, 11571, 30]
  Tokenizer-berekening van OpenAI's website

Volgens de OpenAI-tokencalculator :