Patoarchitekci

Patoarchitekci to podcast o IT bez zbędnego bullshitu. Serwujemy solidną dawkę wiedzy z DevOpsa i okolic, okraszoną błazeńską nutą absurdu. Łukasz Kałużny i Szymon Warda rozbierają technologie na czynniki pierwsze – i to takie, o których reszta świata nawet nie słyszała.

Naszą misją jest pomóc Ci nie tylko przetrwać w tym szalonym świecie IT, ale wręcz go zdominować i to z beztroskim uśmiechem na twarzy! Chcesz wiedzieć, co naprawdę dzieje się w technologii? Wbijaj!


Odcinki od najnowszych:

Intro "Chmura at scale" | #Discord
2026-01-16 08:00:08

“Stworzenie macierzy RACI to jest rzucenie granatu w organizację.” Szymon otwiera odcinek o wdrażaniu chmury at scale najbardziej trafną metaforą roku - bo zanim pomyślisz o Hub and Spoke, Azure Firewall czy politykach bezpieczeństwa, musisz przeżyć wojnę o odpowiedzialność. Szymon dodaje: “Tagi są niewyobrażalnie ważne, są też absurdalnie nudne w realizacji. Tu się zaczyna prawdziwa napierdzielanka z zespołami.”
“Stworzenie macierzy RACI to jest rzucenie granatu w organizację.” Szymon otwiera odcinek o wdrażaniu chmury at scale najbardziej trafną metaforą roku - bo zanim pomyślisz o Hub and Spoke, Azure Firewall czy politykach bezpieczeństwa, musisz przeżyć wojnę o odpowiedzialność. Szymon dodaje: “Tagi są niewyobrażalnie ważne, są też absurdalnie nudne w realizacji. Tu się zaczyna prawdziwa napierdzielanka z zespołami.”

Short #75: IBM kupuje Confluent, Skills vs Agents, WAL Patterns
2026-01-09 08:00:09

Noworoczny Short - pierwszy w 2026! Łukasz i Szymon wracają po przerwie świątecznej, a newsy technologiczne nie czekały. Postanowienia noworoczne? “Mniej YAML-a, więcej Postgresa” - jak zwykle nierealne.
Noworoczny Short - pierwszy w 2026! Łukasz i Szymon wracają po przerwie świątecznej, a newsy technologiczne nie czekały. Postanowienia noworoczne? “Mniej YAML-a, więcej Postgresa” - jak zwykle nierealne.

Jak Łukasz agentów popędza - publikacja pato
2025-12-19 08:00:08

“Najgorsza część publikacji zajmuje mi około 10 minut - tak zwany Human Touch.” Łukasz opisuje swój system automatyzacji publikacji Patoarchitektów, gdzie AI agents robią transkrypcję, generują SEO, intro i posty - ale ostateczny bottleneck to ręczne poprawianie, bo “wygenerowane posty wychodzą takim korporacyjnym marketingiem, że można rzygać tęczą.” Ironia: cała infrastruktura (K3s w Azure, Claude z MCP, OpenAI Agent SDK, Airtable, RenderForm) działa automatycznie, ale człowiek musi ratować jakość contentu. Stos technologiczny? Agent Jane pobiera transkrypcję przez HappyScribe, ekstraktuje linki z Google Drive Szymona, generuje podsumowania przez Anthropic Sonnet (najlepszy polski), a GPT-5 prowadzi główną logikę. GPT-5 mini sprawdza maile - “tani i wystarczający.” Drugi agent obsługuje sprzedaż szkoleń: dostaje webhook z EasyCart i automatycznie zakłada wydarzenie w kalendarzu, dodaje uczestników. Szymon: “To był killer feature.” Kluczowa lekcja? “Agenty stosujemy tam, gdzie na wejściu mamy gołego teksta lub bloba.” Przewidywalne rzeczy to zwykły kod - webhooks, crony, API. Event-driven architecture, gdzie “LLM nie czeka proaktywnie” - wzbudza go cron w czwartki o 18:00. Czy Twój stack publikacji też wymaga Human Touch, żeby nie brzmiało jak korpo? Sprawdź, zanim MCP wygeneruje Ci tęczowy marketing.
“Najgorsza część publikacji zajmuje mi około 10 minut - tak zwany Human Touch.” Łukasz opisuje swój system automatyzacji publikacji Patoarchitektów, gdzie AI agents robią transkrypcję, generują SEO, intro i posty - ale ostateczny bottleneck to ręczne poprawianie, bo “wygenerowane posty wychodzą takim korporacyjnym marketingiem, że można rzygać tęczą.” Ironia: cała infrastruktura (K3s w Azure, Claude z MCP, OpenAI Agent SDK, Airtable, RenderForm) działa automatycznie, ale człowiek musi ratować jakość contentu. Stos technologiczny? Agent Jane pobiera transkrypcję przez HappyScribe, ekstraktuje linki z Google Drive Szymona, generuje podsumowania przez Anthropic Sonnet (najlepszy polski), a GPT-5 prowadzi główną logikę. GPT-5 mini sprawdza maile - “tani i wystarczający.” Drugi agent obsługuje sprzedaż szkoleń: dostaje webhook z EasyCart i automatycznie zakłada wydarzenie w kalendarzu, dodaje uczestników. Szymon: “To był killer feature.” Kluczowa lekcja? “Agenty stosujemy tam, gdzie na wejściu mamy gołego teksta lub bloba.” Przewidywalne rzeczy to zwykły kod - webhooks, crony, API. Event-driven architecture, gdzie “LLM nie czeka proaktywnie” - wzbudza go cron w czwartki o 18:00. Czy Twój stack publikacji też wymaga Human Touch, żeby nie brzmiało jak korpo? Sprawdź, zanim MCP wygeneruje Ci tęczowy marketing.

AWS RE:Invent 2025
2025-12-12 08:00:08

“Billions of Agents - każdy z nas będzie miał minimum 10 agentów.” Łukasz cytuje oficjalny przekaz AWS re:Invent 2025, ale prawdziwy przekaz konferencji jest głębszy: hyperscalerzy mają realną przewagę w dostępie do GPU i infrastruktury do trenowania modeli. AWS Clean Rooms, Nova Forge, AI Factory - to ekosystem do łatwego fine-tuningu bez konieczności budowania własnej farmy GPU. A adopcja własnych modeli AWS? Wszyscy używają Anthropic Claude na Bedrocku, nikt Amazon Nova. Szymon wybiera Nova Act jako najlepsze ogłoszenie: “Najciekawsze podejście z całej konferencji” - RPA z agentami AI do automatyzacji starych systemów przez przeglądarkę. AWS Transform? “Eksplozje, wybuchy, beżowe pecety z lat 90. I disclaimer: AWS realnie nie wykorzystuje materiałów wybuchowych.” Modernizacja COBOL-a, mainframe’ów, webforms do Blazora (“Ktoś poza Microsoftem używa słowa Blazor”), aktualizacja SDK, Terraform, CloudFormation. Lambda na EC2 to gwoździem do trumny: “Pamiętasz migrację Prime’a z Lambdy na EC2, bo koszty były za duże? Już by nie musieli.” 97 newsów, w tym Bedrock z 18 modelami open source, wektory w S3, EKS z Argo CD, Kiro jako kolejny fork VS Code. 97 newsów z AWS re:Invent - ale czy któryś naprawdę zmieni coś w Twojej pracy?
“Billions of Agents - każdy z nas będzie miał minimum 10 agentów.” Łukasz cytuje oficjalny przekaz AWS re:Invent 2025, ale prawdziwy przekaz konferencji jest głębszy: hyperscalerzy mają realną przewagę w dostępie do GPU i infrastruktury do trenowania modeli. AWS Clean Rooms, Nova Forge, AI Factory - to ekosystem do łatwego fine-tuningu bez konieczności budowania własnej farmy GPU. A adopcja własnych modeli AWS? Wszyscy używają Anthropic Claude na Bedrocku, nikt Amazon Nova. Szymon wybiera Nova Act jako najlepsze ogłoszenie: “Najciekawsze podejście z całej konferencji” - RPA z agentami AI do automatyzacji starych systemów przez przeglądarkę. AWS Transform? “Eksplozje, wybuchy, beżowe pecety z lat 90. I disclaimer: AWS realnie nie wykorzystuje materiałów wybuchowych.” Modernizacja COBOL-a, mainframe’ów, webforms do Blazora (“Ktoś poza Microsoftem używa słowa Blazor”), aktualizacja SDK, Terraform, CloudFormation. Lambda na EC2 to gwoździem do trumny: “Pamiętasz migrację Prime’a z Lambdy na EC2, bo koszty były za duże? Już by nie musieli.” 97 newsów, w tym Bedrock z 18 modelami open source, wektory w S3, EKS z Argo CD, Kiro jako kolejny fork VS Code. 97 newsów z AWS re:Invent - ale czy któryś naprawdę zmieni coś w Twojej pracy?

Helm vs Kustomize
2025-12-05 08:00:09

“Dawanie tego ludziom to jak dawanie dziecku brzytwy na plac zabaw.” Łukasz otwiera debatę Helm vs Kustomize prowokacyjnie - i przez pół godziny słyszymy, gdzie w deploymencie na Kubernetes granica między narzędziem a bronią samobójczą. Zgoda jest jedna: pakiety open source (Prometheus, Argo, Ingress) instalujemy Helmem jako package manager bez dyskusji. Reszta? Pole minowe. Master Helm z logiką warunkową dla całego środowiska? “Gdy osoba, która to stworzyła, odchodzi z projektu, pozostali mogą tylko płakać.” Helm + Kustomize razem? “To jak używanie refleksji do dostępu do prywatnych metod.” A migracje bazy w hookach? Szymon kategorycznie: “Kontrolę nad bazą produkcyjną mam ja. Ten Helm powinien zainstalować soft i odczepić się.” Łukasz kontruje: “W produkcie komercyjnym logika warunkowa jest niezbędna.” Finałowy twist: Helm 4.0 z WebAssembly. Szymon przerażony: “O Boże, teraz będzie można pisać jeszcze bardziej skomplikowane funkcje.” Łukasz: “Postgresa odpalisz z WebAssembly w ramach Helma.” Czy Twój zespół pisze charty według zasad SOLID jak w C#? Sprawdź, zanim ktoś zrobi Master Chart na 5000 linii YAML-a. ⚠️     A teraz nie ma co się obijać!
“Dawanie tego ludziom to jak dawanie dziecku brzytwy na plac zabaw.” Łukasz otwiera debatę Helm vs Kustomize prowokacyjnie - i przez pół godziny słyszymy, gdzie w deploymencie na Kubernetes granica między narzędziem a bronią samobójczą. Zgoda jest jedna: pakiety open source (Prometheus, Argo, Ingress) instalujemy Helmem jako package manager bez dyskusji. Reszta? Pole minowe. Master Helm z logiką warunkową dla całego środowiska? “Gdy osoba, która to stworzyła, odchodzi z projektu, pozostali mogą tylko płakać.” Helm + Kustomize razem? “To jak używanie refleksji do dostępu do prywatnych metod.” A migracje bazy w hookach? Szymon kategorycznie: “Kontrolę nad bazą produkcyjną mam ja. Ten Helm powinien zainstalować soft i odczepić się.” Łukasz kontruje: “W produkcie komercyjnym logika warunkowa jest niezbędna.” Finałowy twist: Helm 4.0 z WebAssembly. Szymon przerażony: “O Boże, teraz będzie można pisać jeszcze bardziej skomplikowane funkcje.” Łukasz: “Postgresa odpalisz z WebAssembly w ramach Helma.” Czy Twój zespół pisze charty według zasad SOLID jak w C#? Sprawdź, zanim ktoś zrobi Master Chart na 5000 linii YAML-a. ⚠️     A teraz nie ma co się obijać!

Microsoft Ignite 2025 i okolice
2025-11-28 08:00:08

“Dowcip roku – Microsoft zrobił kolejny rebranding.” Łukasz podsumowuje Microsoft Ignite 2025, gdzie Azure AI Foundry stało się Microsoft Foundry (drugi bezsensowny rebranding w roku), a DocumentDB zmartwychwstał z Cosmosa. Konferencja rozrzucona między Ignite, .NET Conf i KubeCon w ciągu trzech tygodni - “to już mnie denerwuje” - a Book of News skierowany “na giełdę i decision makerów”.
“Dowcip roku – Microsoft zrobił kolejny rebranding.” Łukasz podsumowuje Microsoft Ignite 2025, gdzie Azure AI Foundry stało się Microsoft Foundry (drugi bezsensowny rebranding w roku), a DocumentDB zmartwychwstał z Cosmosa. Konferencja rozrzucona między Ignite, .NET Conf i KubeCon w ciągu trzech tygodni - “to już mnie denerwuje” - a Book of News skierowany “na giełdę i decision makerów”.

Technology Radar Vol. 33 Review
2025-11-21 08:00:08

“AI Radar od Thoughtworksa” - Szymon ironicznie nazywa Technology Radar Vol. 33, który zamienił się w zbierankę AI-owej drobnicy. “Tu jak wcześniej były jakieś większe tematy, to tu jest dużo mikro narzędzi” - fragmentacja ekosystemu AI w pełnej krasie. MCP podbija rynek (każdy vendor dodaje support), A2A umarł (“vendorzy będą się bronić rękami i nogami”), AI-accelerated shadow IT wraca jako antypattern, service mesh bez sidecarów pojawił się dwa lata za późno (“to powinno być w Adopcie już dawno temu”). CloudNativePG? “Naprawdę bardzo dobrze zrobione.” N8N? “Po co ja to robiłem? To mogłyby być trzy linijki kodu.” A Text-to-SQL? Łukasz stawia sprawę jasno: “Kluczem niestety jest to, że schematy baz danych relacyjnych noszą wiedzę plemienną” - i problemem nie jest GenAI, tylko klasyczne: kupa na wejściu, kupa na wyjściu. Plus DeepEval z “LLM as a judge” do testowania AI w CI/CD - wreszcie sposób na pilnowanie, czy model nie zwariował po cichu. Twój stack też wygląda jak zbieranka drobnicy? Przynajmniej teraz wiesz, że nie jesteś sam.
“AI Radar od Thoughtworksa” - Szymon ironicznie nazywa Technology Radar Vol. 33, który zamienił się w zbierankę AI-owej drobnicy. “Tu jak wcześniej były jakieś większe tematy, to tu jest dużo mikro narzędzi” - fragmentacja ekosystemu AI w pełnej krasie. MCP podbija rynek (każdy vendor dodaje support), A2A umarł (“vendorzy będą się bronić rękami i nogami”), AI-accelerated shadow IT wraca jako antypattern, service mesh bez sidecarów pojawił się dwa lata za późno (“to powinno być w Adopcie już dawno temu”). CloudNativePG? “Naprawdę bardzo dobrze zrobione.” N8N? “Po co ja to robiłem? To mogłyby być trzy linijki kodu.” A Text-to-SQL? Łukasz stawia sprawę jasno: “Kluczem niestety jest to, że schematy baz danych relacyjnych noszą wiedzę plemienną” - i problemem nie jest GenAI, tylko klasyczne: kupa na wejściu, kupa na wyjściu. Plus DeepEval z “LLM as a judge” do testowania AI w CI/CD - wreszcie sposób na pilnowanie, czy model nie zwariował po cichu. Twój stack też wygląda jak zbieranka drobnicy? Przynajmniej teraz wiesz, że nie jesteś sam.

GitHub Universe 2025
2025-11-14 08:00:08

“Pozamiatali pewne obszary rynku” - Szymon podsumowuje GitHub Universe 2025, które miało być nudne, a okazało się egzekucją konkurencji. Microsoft pokazał plan monetyzacji: Mission Control (centralne zarządzanie agentami AI), Agentic Code Review z CodeQL wycina SonarQube’y i narzędzia bezpieczeństwa, Custom Agents - w końcu zrozumieli, że nie ma agenta full-stack. Łukasz testuje w praktyce: 50% success rate w automatycznych pull requestach. Enterprise AI Controls, metryki adopcji, MCP Registry, integracje ze Slackiem, Jirą, Teamsami. Efekt? Sensowność używania Bitbucketów spada drastycznie. A jakość prezentacji? “Nie oglądajcie keynote’ów - myślałem, że gorzej z promptera być nie może, a jest gorzej.” Czy GitHub zamknął rynek DevOps toolingu dla Enterprise? Sprawdź, zanim VC-ki wyciągną kasę z AI startupów.
“Pozamiatali pewne obszary rynku” - Szymon podsumowuje GitHub Universe 2025, które miało być nudne, a okazało się egzekucją konkurencji. Microsoft pokazał plan monetyzacji: Mission Control (centralne zarządzanie agentami AI), Agentic Code Review z CodeQL wycina SonarQube’y i narzędzia bezpieczeństwa, Custom Agents - w końcu zrozumieli, że nie ma agenta full-stack. Łukasz testuje w praktyce: 50% success rate w automatycznych pull requestach. Enterprise AI Controls, metryki adopcji, MCP Registry, integracje ze Slackiem, Jirą, Teamsami. Efekt? Sensowność używania Bitbucketów spada drastycznie. A jakość prezentacji? “Nie oglądajcie keynote’ów - myślałem, że gorzej z promptera być nie może, a jest gorzej.” Czy GitHub zamknął rynek DevOps toolingu dla Enterprise? Sprawdź, zanim VC-ki wyciągną kasę z AI startupów.

Allegro Tech Radar z Bartoszem Gałkiem
2025-11-07 08:00:09

“Okazało się, że niektóre narzędzia używamy w firmie w piętnastu różnych wersjach.” Bartosz Gałek odkrył ten chaos podczas tworzenia Allegro Tech Radar - publicznej mapy całego tech stacku firmy. I to po 12 latach pracy tam. “Byłem zaskoczony mnogością technologii. Odkryłem obszary z całkowicie nieznanymi mi stackami.” Setki zespołów, tysiące aplikacji - inwentaryzacja zabrała rok. Cassandra na holdzie od 2017 (“to się nie sprawdziło”), Redis w trialu (bo używają Couchbase do cache’owania), Istio zastępuje własny service mesh (po latach prezentacji o custom rozwiązaniu), przeszli z push na pull w metrykach (“ciekawe, bo trendy idą odwrotnie” - zauważa Szymon). A Groovy w testach od 2013? “Nie mogę zmigrować całej firmy, bo mi się nie podoba.”
“Okazało się, że niektóre narzędzia używamy w firmie w piętnastu różnych wersjach.” Bartosz Gałek odkrył ten chaos podczas tworzenia Allegro Tech Radar - publicznej mapy całego tech stacku firmy. I to po 12 latach pracy tam. “Byłem zaskoczony mnogością technologii. Odkryłem obszary z całkowicie nieznanymi mi stackami.” Setki zespołów, tysiące aplikacji - inwentaryzacja zabrała rok. Cassandra na holdzie od 2017 (“to się nie sprawdziło”), Redis w trialu (bo używają Couchbase do cache’owania), Istio zastępuje własny service mesh (po latach prezentacji o custom rozwiązaniu), przeszli z push na pull w metrykach (“ciekawe, bo trendy idą odwrotnie” - zauważa Szymon). A Groovy w testach od 2013? “Nie mogę zmigrować całej firmy, bo mi się nie podoba.”

Standaryzacja logów - nudne rzeczy, które trzeba ustalić
2025-10-31 08:00:08

“Moim faworytem była firma z 15 poziomami logów. Piętnaście.” Szymon opisuje chaos w organizacjach: zespoły szukają logów w czterech różnych miejscach, Elastic pożera budżety, a deweloperzy dodają logi “na czuja” bez strategii. A Łukasz doprecyzowuje problem: “Logi mają wredną tendencję - tylko je dodajemy, nigdy nie usuwamy.” Popularne “rozwiązania”? Sampling? “Zawsze będzie złem, bo odsampluje to, czego właśnie potrzebujecie.” Stdout jako standard? “Absolutne zło i ostateczność.” A wewnętrzne dyskusje o nazewnictwie? “Jeżeli macie dyskusję w firmie jak coś nazwać, oznacza to, że pierdolnik będzie kontynuowany.” Jak z tego wyjść? Rozwiązanie zaczyna się od fundamentów: structured logging w JSON, Open Telemetry jako standard (koniec kłótni o “fatal” vs “critical”), Open Telemetry Collector do wzbogacania i filtrowania. Plus dokument definiujący pola, retencja zamiast samplingu, tenanty zamiast jednego indeksu, budżety zamiast bezładnego logowania wszystkiego. Czy twoja organizacja tonie w logach, których nikt nie umie czytać? Sprawdź, zanim ktoś doda szesnasty poziom logowania. ⚠️     A teraz nie ma co się obijać!
“Moim faworytem była firma z 15 poziomami logów. Piętnaście.” Szymon opisuje chaos w organizacjach: zespoły szukają logów w czterech różnych miejscach, Elastic pożera budżety, a deweloperzy dodają logi “na czuja” bez strategii. A Łukasz doprecyzowuje problem: “Logi mają wredną tendencję - tylko je dodajemy, nigdy nie usuwamy.” Popularne “rozwiązania”? Sampling? “Zawsze będzie złem, bo odsampluje to, czego właśnie potrzebujecie.” Stdout jako standard? “Absolutne zło i ostateczność.” A wewnętrzne dyskusje o nazewnictwie? “Jeżeli macie dyskusję w firmie jak coś nazwać, oznacza to, że pierdolnik będzie kontynuowany.” Jak z tego wyjść? Rozwiązanie zaczyna się od fundamentów: structured logging w JSON, Open Telemetry jako standard (koniec kłótni o “fatal” vs “critical”), Open Telemetry Collector do wzbogacania i filtrowania. Plus dokument definiujący pola, retencja zamiast samplingu, tenanty zamiast jednego indeksu, budżety zamiast bezładnego logowania wszystkiego. Czy twoja organizacja tonie w logach, których nikt nie umie czytać? Sprawdź, zanim ktoś doda szesnasty poziom logowania. ⚠️     A teraz nie ma co się obijać!

Informacja dotycząca prawa autorskich: Wszelka prezentowana tu zawartość podkastu jest własnością jego autora

Wyszukiwanie

Kategorie