Druhý mozek — Karpathyho dvouvrstvý model znalostní báze

Co to je

Model organizace znalostí navržený Andrejem Karpathym, který rozděluje informace do dvou vrstev: surová data a vyčištěná znalostní báze připravená pro AI agenty. Navazuje na širší koncept „druhého mozku” (Building a Second Brain, Tiago Forte), ale přidává klíčový prvek — explicitní přípravu dat pro nelidské čtenáře.

Jádro myšlenky

Většina firem i jednotlivců hromadí data, ale nerozlišuje mezi surovou informací a znalostí. Surová data (přepisy porad, tikety, interní dokumenty, emaily) jsou pro agenty nepoužitelná bez předzpracování — agent je jen tak dobrý, jak jsou data která dostane. Karpathyho model říká: potřebuješ dvě oddělené složky. První je vstupní proud — tam padají věci tak jak přicházejí. Druhá je čistá znalostní báze — tam AI přepracovává surové vstupy do strukturovaných zápisků, ze kterých mohou agenti spolehlivě čerpat. Zajímavé je, že Karpathy poprvé nezveřejnil kód, ale pouze popis konceptu — s tím, že agent si kód postaví sám. Tím demonstroval princip: záměr (intent) nahrazuje detailní specifikaci. Stačí popsat co chceš, ne jak to udělat.

Jak to funguje v praxi

Václav Šlajs to zatím řeší přes Claude Projects: ručně vytahuje informace ze systémů a dává je do projektů, kde má napojeny MCP konektory na systémy kde je pořádek. Filip zmínil systém PACT (Projects, Agents, Context, Tools) kde se složky pojmenují a AI dostane readme popis — agenti pak pracují řádově lépe. Obsidian je příklad nástroje který toto umožňuje nativně: textové soubory lokálně = plný přístup pro AI agenty.

Propojení

  • Obsidian — nástroj postavený na principu textových souborů; AI ho dokáže číst, prohledávat a reorganizovat
  • MCP protokol — technický most mezi AI agentem a externími systémy s daty
  • Datový nepořádek ve firmách — Microsoft Copilot nad nepořádným SharePointem nefunguje; garbage in, garbage out
  • GitLab Handbook — vzorový příklad firmy která má všechny interní znalosti v jednom přístupném místě
  • Incident management s AI — praktická ukázka jak předzpracovaná data ušetří čas při řešení výpadků

Otevřené otázky

  • Jak automatizovat přesun ze surové vrstvy do čisté bez manuálního zásahu?
  • Jak poznat, která surová data stojí za zpracování a která jsou jen šum?
  • Kdy AI nástroje zvládnou samy rozpoznat zastaralá data a vyřadit je z báze?

Zápisek je živý dokument — doplňuj při nových poznatcích.