# LLMapi: "Зберігати його живим і живим," "Кункти" та "Каштування"

# Вступ

В моєму проекті LLMapi я хотів мати можливість підтримати запит на LOTS даних, однак LLM має дуже обмежену кількість даних, які вони можуть виводити в один час, і не особливо швидко про це робити.

Тому мені потрібно було додати розумний спосіб попередньої обробки цих даних і доставити їх у вигляді "упаковок," щоб ви могли швидко отримати непотрібні дані.

<!--category-- AI, LLMApi, LLM, ASP.NET Core, API, Nuget, mockllmapi, SignalR, AI-Article-->
<datetime class="hidden">2025-11-06T13:35</datetime>

<fetch class="hidden" markdownurl="https://raw.githubusercontent.com/scottgal/LLMApi/refs/heads/features/big-results-cache/CHUNKING_AND_CACHING.md" pollFrequency="2h" transformlinks="true"/>  
