Context Injection a správa AI agentů: Jak nezabít architekturu na Change Requestech

Nástup AI asistentů do IDE kompletně přepsal pravidla hry pro vývoj na zelené louce. Napsat boilerplate kód, zadefinovat modely nebo vygenerovat CRUD operace je dnes záležitostí chvilek. Jakmile se ale přesuneme do enterprise prostředí plného proprietárních frameworků, obskurních závislostí a neustálých iterací nad byznys logikou, generativní modely narážejí na své limity.

Context / TL;DR

Největším problémem současného AI-assisted vývoje není kognitivní kapacita LLM modelů, ale správa kontextu a tzv. "Day-2 operations".
Pokud pomocí nástrojů založených na SpecDD (Specification-Driven Development) vygenerujete systém, získáte kód, testy i rozepsané tasky.
Každá dodatečná změna – typicky přidání nového fieldu do doménového objektu – však okamžitě rozbije synchronizaci celého stromu.
Současně se ukazuje, že modely masivně halucinují nad interními knihovnami, ke kterým neexistují veřejná trénovací data.

Cestou ven není pálit tokeny v dražších modelech s obřím kontextovým oknem, ale pragmaticky omezit AI agenty a zavést explicitní Context Injection přímo do pracovního prostředí.

Deep Dive: Strategie pro udržitelný AI vývoj

1. Hardcore Context Injection pro proprietární kód

AI asistent (ať už v Cursoru nebo GitHub Copilotu) nedokáže uhodnout, jak přesně vypadá vaše firemní knihovna pro logování nebo custom OIDC integraci. Pokusy o vytvoření sémantických RAG databází nad firemní wiki často přinášejí nepřesné výsledky s velkým zpožděním.

Nejspolehlivějším a nejlevnějším zásahem je manuální příprava workspace. Zdrojové kódy požadovaných interních knihoven (striktně vázané na správný Git tag) naklonujte jako samostatné složky přímo do lokálního vývojového prostředí v IDE. Pokud je to relevantní, přidejte i sdílené CI/CD šablony. Tím asistentovi předáte surovou definici bez ztráty sémantiky. Modely přestanou vymýšlet neexistující metody a napojí se na reálné API kontrakty vašich utilit.

2. Dekompozice a paralelní refaktoring

Místo toho, abychom při každé změně byznys požadavků nutili orchestrátora přehodnotit celý projekt, ukazuje se jako mnohem stabilnější přístup využívání jednoho sdíleného zdroje pravdy. Běžnou praxí se stává definování architektonických mantinelů do souborů rules.md v kořenu repozitáře.

Při potřebě úprav (Change Requesty) je výhodnější nasadit několik oddělených mikro-agentů. Jeden agent aktualizuje DTO objekty, druhý paralelně fixuje testy. Orchestraci tak přebírá zpět vývojář a práce s AI připomíná spíše asynchronní code review cizích Pull Requestů než klasické psaní kódu.

3. Legacy hranice: Terminál vs. Blackbox

Nasazení AI na systémy staré několik dekád odkrývá jasnou hranici možností strojového učení. Pokud máte standardní zdrojový kód (např. Cobol nebo starší RPG) dostupný přes terminálový plugin přímo z AS400, agenti poměrně spolehlivě detekují dead kód, navrhují optimalizace paměti a nahrazují staré konstrukce modernějšími patterny.

Zcela odlišná je ovšem situace u low-code generátorů a prehistorických CASE toolů jako CA 2E (Synon). Tyto systémy fungují jako sémantický blackbox. Neexistuje v nich přímý textový zdroják, na kterém by se model mohl uchytit. Jakýkoliv pokus o reverzní inženýrství nebo trénování vlastních modelů nad vizuálními abstrakcemi těchto nástrojů se okamžitě překlápí do absurdního FinOps overheadu.

Trade-offs: Kompromisy a rizika přístupu

  • Synchronizace vyklonovaných závislostí: Pokud si pro Context Injection klonujete interní knihovny, hrozí riziko, že je zapomenete updatovat. Jakmile se centrální repozitář posune, vaše AI bude tvrdošíjně generovat deprecated kód podle staré lokální kopie.
  • Skryté náklady na neustálý prompting: Občasné zaseknutí agenta ve slepé uličce vede vývojáře k sáhodlouhému vysvětlování v chatu. Čas strávený vymýšlením "dokonalého promptu" mnohdy převýší čas, za který by seniorní vývojář danou třídu napsal ručně.
  • Rozmazání odpovědnosti: Použití paralelních agentů sice urychluje refaktoring, ale zhoršuje trasovatelnost rozhodnutí. AI nástroje ochotně a rychle replikují technický dluh, pokud na něj dostanou prostor.

Kód samotný postupně ztrácí hodnotu, klíčové se stává držení doménových hranic a striktních kontraktů. I ten nejsilnější AI model vyžaduje mantinely jasně definované architektury, v opačném případě jen automatizuje cestu do slepé uličky.

Co si o tématu myslíte vy? Podělte se o svůj názor na LinkedIn.