This is a viewer only at the moment see the article on how this works.
To update the preview hit Ctrl-Alt-R (or ⌘-Alt-R on Mac) or Enter to refresh. The Save icon lets you save the markdown file to disk
This is a preview from the server running through my markdig pipeline
Sunday, 18 January 2026
МСМ (Больші мовні моделі МSK1 використовують як датчики МSK2 Це помилка категорії: за допомогою вероятностного синтезатора, де вимагається детермінативний граничний пристрій
Це не "'", а "" разработчики "". МSK1 "" - помилка. МSK2 "" Більшість головних прикладів та інструкцій показують найпростішу демонстрацію, МSK3 "", МSK4 "" просто надсилати її на модель "" МSK5 "". Це робить посадку на борт "" легшою "".
Ця стаття про Reduced RAG - архітектура, де детерміністичними трубними лініями, що по feed можливих компонентів, не навпаки . В правильному RAG-системі
До прикладу: В OCR (Опtical Character RecognitionM SK2 pipeline, Vision LLM - це рівень МSK4, а не рівень \ 1. Він працює лише після тексту M SK6 heuristika подібності і локального провалу OCR . Це не оптимізація MSC8 Це правила кордону - архітектурна перешкода, яка запобігає неправильнему використанню інструментів, незважаючи на відчуття зручності
Ось ідентичні architectural failures across different domains:
flowchart TD
subgraph Wrong["❌ Common Anti-Pattern"]
Raw[Raw Data<br/>Pixels, Waveforms, Frames] -->|Direct feed| LLM1[Vision/Audio LLM<br/>$$$, variance, hallucination]
LLM1 --> Unreliable[Unreliable Output<br/>High cost, non-deterministic]
end
style Wrong fill:none,stroke:#dc2626,stroke-width:3px
style Raw fill:none,stroke:#6b7280,stroke-width:2px
style LLM1 fill:none,stroke:#dc2626,stroke-width:2px
style Unreliable fill:none,stroke:#dc2626,stroke-width:2px
Ці архітектурні помилки викликають передбачувані невдачі:
Галюциноване сприйняття: LLMs повинна видавати टोकони. У стані невизначеності вони заповнюють прогалини plausible completions Це головна проблема.
Неможливий детермінативний провал: Розбіжність між температурою та схемою бюджетного рухуM SK1 Один і той самий вхід МSK2 різні виходи. Помилання стає статистичним аналізомMSC4
Ресурсні відходи: Неважливо, чи ви платите за один токен ( API МSK3 або працюєте з місцевими моделями
Проблема в тому, що локально організований LLM галюцинуючий результат OCR такий же поганий, як важкий API виклик, який робить те ж саме.
Ця помилка існує, тому що сенсор і синтезатор є фундаментально різними інструментами:
Сенсор - це граничний пристрій:
LLM - це високий синтезізатор -variance МSK1
flowchart LR
subgraph Sensor["Sensor (Boundary Device)"]
World[Physical World<br/>∞ dimensions] -->|Reduce| Signal[Structured Signal<br/>Bounded dimensions]
Signal -->|Confidence| Facts[Facts<br/>± certainty]
end
subgraph LLM["LLM (Synthesizer)"]
Input[Structured Input] -->|Synthesize| Prose[Unstructured Output<br/>High entropy]
Prose -->|No confidence| Tokens[Token stream<br/>No 'nothing' state]
end
style Sensor fill:none,stroke:#16a34a,stroke-width:2px
style LLM fill:none,stroke:#b45309,stroke-width:2px
style World fill:none,stroke:#6b7280,stroke-width:2px
style Signal fill:none,stroke:#2563eb,stroke-width:2px
style Facts fill:none,stroke:#059669,stroke-width:2px
style Input fill:none,stroke:#6b7280,stroke-width:2px
style Prose fill:none,stroke:#d97706,stroke-width:2px
style Tokens fill:none,stroke:#dc2626,stroke-width:2px
Ось чому StyloFlow сприймає сигнали як незмінні факти
Мозок не починає з мислення. Вони починають з обмеження.
сітківка - це не кора головного мозку
Коли сенсорні обмеження слабшають, галюцинації зростають. Невелике світло, пропущені краєвидиM SK1 двозначні знаки . Це не метафора МSK3 це той самий режим невдачі, що і галюцинації LLM під невизначеною силою МSK4 Інженери вже знають це: коли SNR випадає вгоруMSC6 класифікатори внизу стають нестабільнимиMSL7
Ця проблема - -, модель розв 'язання з' являється у всіх системах сприйняття тварин - МSK1, а не лише людського зору
Ехолокація кажанів (auditoryM SK1
Базування медоносних бджіл (викриття рухуM SK1
flowchart LR
subgraph Bat["Bat Echolocation"]
Echo[Ultrasonic Echo<br/>∞ waveform data] --> Cochlea[Cochlear Filters<br/>Doppler, delay, amplitude]
Cochlea --> BatBrain[Auditory Cortex<br/>Distance, texture facts]
end
subgraph Bee["Honeybee Vision"]
Motion[Visual Field<br/>Rapid motion] --> Lamina[Lamina<br/>Optical flow computation]
Lamina --> BeeBrain[Central Brain<br/>Motion vectors, not pixels]
end
style Bat fill:none,stroke:#7c3aed,stroke-width:2px
style Bee fill:none,stroke:#d97706,stroke-width:2px
style Echo fill:none,stroke:#6b7280,stroke-width:2px
style Cochlea fill:none,stroke:#a855f7,stroke-width:2px
style BatBrain fill:none,stroke:#6366f1,stroke-width:2px
style Motion fill:none,stroke:#6b7280,stroke-width:2px
style Lamina fill:none,stroke:#f59e0b,stroke-width:2px
style BeeBrain fill:none,stroke:#d97706,stroke-width:2px
Поширена модель:
Це не """, а натхнення з природи. МSK1 "". Це конвергентна еволюція обробки інформації під фізичними обмеженнями.
Інженерифікація дуже щільна:
flowchart TD
subgraph Brain["Biological Vision Pipeline"]
Photons[Photons] --> Retina[Retina<br/>Edge detection, contrast]
Retina --> V1[V1 Cortex<br/>Orientation, motion]
V1 --> IT[Inferotemporal Cortex<br/>Object recognition]
IT --> PFC[Prefrontal Cortex<br/>Reasoning, synthesis]
end
subgraph Engineering["Engineering Vision Pipeline"]
Pixels[Raw Pixels] --> OpenCV[OpenCV + Heuristics<br/>Sharpness, text-likeliness]
OpenCV --> Local[Local Models<br/>Florence-2, EAST/CRAFT OCR]
Local --> Structured[Structured Signals<br/>Bounding boxes, confidence]
Structured --> LLM[LLM Synthesis<br/>Only when needed]
end
Brain -.->|Maps to| Engineering
style Brain fill:none,stroke:#7c3aed,stroke-width:2px
style Engineering fill:none,stroke:#2563eb,stroke-width:2px
style Photons fill:none,stroke:#6b7280,stroke-width:2px
style Retina fill:none,stroke:#16a34a,stroke-width:2px
style V1 fill:none,stroke:#059669,stroke-width:2px
style IT fill:none,stroke:#0891b2,stroke-width:2px
style PFC fill:none,stroke:#6366f1,stroke-width:2px
style Pixels fill:none,stroke:#6b7280,stroke-width:2px
style OpenCV fill:none,stroke:#16a34a,stroke-width:2px
style Local fill:none,stroke:#059669,stroke-width:2px
style Structured fill:none,stroke:#0891b2,stroke-width:2px
style LLM fill:none,stroke:#6366f1,stroke-width:2px
Мозок не сприймає "помічатиM SK1 пікселі . Вони ніколи їх не бачать
Кора головного мозку працює на сигналах, які були зменшені, відфільтровані, структуровані попередніми шарами,
Це не філософське сприйняття.
Ескаляція має бути подолана: LLM - це рівень 3, а не рівень \1. Викликати тільки тоді, коли дешеві датчики не працюють
Пороги упевненості повинні бути експлицивнимиМSK0 " Текст, виявлений за допомогою МSK2 довіри " є фактом
Руйтинг має бути детерміністичним: Ті ж самі сигнали МSK1 той самий шлях МSK2 Жодна зміна пропону , ніяких ефектів температури
Цифрова економіка - це обмеження, а не виправлення витрат: Якщо ваша труба ' масштабує витрати з розміром необроблених даних МSK2 ви використовуєте неправильне інструментарій
Факти потребують доказів: Якщо ви можете ' не вказувати на коробку з обертанням МSK2 раму M SK3 або на хвилястий простір
Довідка: Оптимізація filmstrip
В Трубопровод VideoSummarizer, текстM SK1 тільки плівкові дорожки зменшують вартість символа на ~30x, тоді як покращення Вірність OCR. LLM бачить сигнал M SK1відокремлені текстові ділянки МSK2 не сцену МSK3повні RGB кадри ).
Це не оптимізація. Це коректація категоріїM SK1
Це Reduced RAG архітектурна модель. Головний принципM SK1 трубопроводи годують можливими компонентами.
Reduced RAG is Map-Reduce applied to probabilistic systemsM SK1
Традиційний RAG отримує це назад - він відбирає документи і сподівається, що LLM витягує факти . Reduced RAG extracts factos first (mapM SK1 тоді дозволяє LLM синтезувати (reduce).
Модель повторюється у всіх мультиmodaльних системах:
flowchart TD
subgraph Map["MAP PHASE (Parallel, Deterministic)"]
Raw[Raw Data<br/>10,000 frames] --> Split{Split}
Split --> S1[Sensors<br/>Frame 1-1000]
Split --> S2[Sensors<br/>Frame 1001-2000]
Split --> S3[Sensors<br/>Frame 2001-3000]
Split --> SDots[...]
S1 --> L1[Local Models<br/>Batch 1]
S2 --> L2[Local Models<br/>Batch 2]
S3 --> L3[Local Models<br/>Batch 3]
SDots --> LDots[...]
L1 --> F1[Facts: 120]
L2 --> F2[Facts: 98]
L3 --> F3[Facts: 156]
LDots --> FDots[...]
F1 --> Collect[Collect Facts]
F2 --> Collect
F3 --> Collect
FDots --> Collect
Collect --> Facts[(Facts Database<br/>500 total facts)]
end
subgraph Reduce["REDUCE PHASE (Sequential, Probabilistic)"]
Query[User Query] --> Retrieve[Retrieve Relevant Facts<br/>Filter: 50 facts]
Facts --> Retrieve
Retrieve --> LLM[LLM Synthesis<br/>Reason over 50 facts]
LLM --> Answer[Grounded Answer]
end
style Map fill:none,stroke:#16a34a,stroke-width:3px
style Reduce fill:none,stroke:#6366f1,stroke-width:3px
style Raw fill:none,stroke:#6b7280,stroke-width:2px
style Split fill:none,stroke:#16a34a,stroke-width:2px
style S1 fill:none,stroke:#16a34a,stroke-width:2px
style S2 fill:none,stroke:#16a34a,stroke-width:2px
style S3 fill:none,stroke:#16a34a,stroke-width:2px
style SDots fill:none,stroke:#16a34a,stroke-width:1px,stroke-dasharray: 5 5
style L1 fill:none,stroke:#059669,stroke-width:2px
style L2 fill:none,stroke:#059669,stroke-width:2px
style L3 fill:none,stroke:#059669,stroke-width:2px
style LDots fill:none,stroke:#059669,stroke-width:1px,stroke-dasharray: 5 5
style F1 fill:none,stroke:#0891b2,stroke-width:2px
style F2 fill:none,stroke:#0891b2,stroke-width:2px
style F3 fill:none,stroke:#0891b2,stroke-width:2px
style FDots fill:none,stroke:#0891b2,stroke-width:1px,stroke-dasharray: 5 5
style Collect fill:none,stroke:#16a34a,stroke-width:2px
style Facts fill:none,stroke:#0891b2,stroke-width:3px
style Query fill:none,stroke:#6b7280,stroke-width:2px
style Retrieve fill:none,stroke:#7c3aed,stroke-width:2px
style LLM fill:none,stroke:#6366f1,stroke-width:2px
style Answer fill:none,stroke:#16a34a,stroke-width:2px
Dokument-перший RAG протиM SK1 Снижений RAG:
| Аспект МSK1 Документ МSK2перший RAG | Reduced RAG | |
|---|---|---|
| Патерн | Перейти МSK1 Вирізати МSK2 Синтезувати | Карту MSК4 Вилучити МСК5 МСК6 Снизити MSК7 Синтезувати |
| Точность видобутку | Możliwі галюцинації з ЛЛМ. | |
| Заховані дані МСК0 ДокументиМSK1сумки | Структуровані факти МSK3 | |
| Роль LLM | Дві завданняM SK1 вилучення МSK2 синтез МSK3 одна задача : лише синтез | |
| Розладнаність | Проверка пропони слідів МSK1 Перевірка фактової бази даних МSK2 | |
| Скалабельність | Послідковий вузол LLM МSK1 Расподібна мапа МSK2 Центризоване зниження |
Три системи виробництва впроваджують цю модель:
Ось справжні цифри від VideoSummarizer на відео 10-мин. МSK1секундиM SK2 МSK3fps = \18,000 кадри):
| Погляньмо на це МSK1 Точность МSK2 Детермінізм | Знаcznikи မ်SK4 |
|---|---|
| rámок-по-швидший LLM | галюцинаціїM SK1 різниця МSK2 Не-- детерміністична МSK4 мSK5М |
| Найкращі кадри → Keyframes → LLM | Точное МSK1 Детерміністичне видобуток МSK2 ~150K мSK4 |
| Видобуток тексту від стрічки | Найкращий рівень точності запису OCR |
Правильна архітектура точніше. Це також дешевше 180x, але це МSK2 побічний ефект правильних дій МSK3, а не мета . Навіть з безкоштовними локальними LLM \ , \ кадром - \ \ МSK7 \ підход до кадру все ще був би помилковим, тому що він виробляє ненадійний результат \
Якщо ваша система штучного інтелекту починається з LLM, ви вже втратили контроль над нею
Інтелект не починається з мислення. Він починається з обмеженьM SK1
Сенсори зменшують невизначеність. Синтезувальники розширюють значенняM SK1 Заплутають дві системи блокування.
Зробіть синтез останній крок.
© 2026 Scott Galloway — Unlicense — All content and source code on this site is free to use, copy, modify, and sell.