Mentionsy
DevTalk #130 – O RAG do Eksploracji Kodu z Łukaszem Szydło
Czy RAG faktycznie rozwiązuje problem dokumentacji, która nigdy nie jest aktualna? Jak sprawić, by LLM odpowiadał na pytania o Twój kod bez wrzucania całego repozytorium do kontekstu? I dlaczego embeddingi to nie jedyne rozwiązanie? O tym wszystkim opowie Łukasz Szydło – architekt, konsultant i trener, specjalizujący się w tematach architektury i Domain-Driven Design. Łukasz na […]
The post DevTalk #130 – O RAG do Eksploracji Kodu z Łukaszem Szydło appeared first on DevTalk.
Szukaj w treści odcinka
Specjalizuję się w tematach związanych z architekturą, z domain-driven design i generalnie ze sprawianiem, żeby development projektów był szybszy i tańszy.
Ale przecież czaty i inne klody i inne AI przecież przeczytały wszystkie książki i już to wszystko wiedzą, więc dlaczego mamy wrzucać im te książki po raz kolejny?
Tutaj chciałem dać taki przykład, żeby zobrazować sam problem, ale AI nie przeczytał rzeczy, które są własnością intelektualną naszej firmy.
Czyli jeżeli my chcielibyśmy, żeby nasz AI zaczął nam odpowiadać na tematy związane z naszym projektem, związanym z naszym kodem, związanym z naszą firmą, z naszą domeną, którą mamy u siebie, no to to nie są dane, do którego firmy miały dostęp podczas trenowania.
Generalnie mamy mnóstwo wiedzy, która jest całkiem użyteczna, tylko w jaki sposób trzeba temu AI wiem przekazać.
Czyli możemy wziąć ten generyczny model, który sobie wzięliśmy tam od OpenAI'a czy od Antropica i go fine tunować, czyli zrobić tak, douczyć go.
Bawiłem się tym, robiłem to, nawet jest specjalny endpoint w OpenAI do robienia właśnie bendingów i to po prostu jest ciąg liczb, cyfr właściwie.
Pewien, pewien pattern, tak jak mamy, nie wiem, CQRS-a, możemy go zarówno zaimplementować w .necie, jak i możemy go zaimplementować w Javie, możemy go zaimplementować na osobnych bazach danych, możemy zaimplementować go na jednej bazie danych, pewien ogólny wzorzec, który na różne sposoby można zaimplementować i podobnie jest w przypadku raga.
AI-owych, które, żeby wygenerować dla nas, nie wiem, jakąś speckę, jakieś wymagania, czy nawet fragmenty kodu, które mają być, to one też potrzebują wiedzieć, ok, to który z tych fragmentów kodu jest dla mnie istotny, żebym ja sobie go wrzucił do kontekstu, żebym na podstawie jego mógł sobie to zrobić.
Więc jeżeli ktoś z Was jest zainteresowany, to zapraszam na stronkę noesis.vision.
Problem się pojawia taki, że ja tak naprawdę, czy my, nie jesteśmy w większości przypadków zainteresowani takim codebase, który się składa tylko i wyłącznie z obiektów i z metod, bo moglibyśmy sprowadzić.
Wchodzi u nas AI.
I te opisy, to jest dopiero ten moment, kiedy wchodzi AI.
Więc to, co my zrobiliśmy, to my właśnie przeanalizowaliśmy ten fragment tworzenia tych ragów w taki czysto AI-owy, LLM-owy i myśleliśmy, kurczę, w przypadku kodu my moglibyśmy to zrobić lepiej.
Nasze rozwiązanie, ono musi być bazowane, musi być zaimplementowany per poszczególny język.
W każdym razie polecam do pobawienia się, jeśli ktoś jest zainteresowany, jak to w ogóle może wyglądać.
Mam takie doświadczenie właśnie, kiedy w końcu wyjdę z tego flowu AI-owego i się do jakiegoś konsultanta dobiorę.
Z tego co wiem, to właśnie większość startupów skupia się na tym, żeby wszystko robić przy pomocy AI, a my właśnie poszliśmy w tym kierunku, ok, co właśnie się stanie, jeśli za chwilę ten AI będzie na tyle drogi.
Po co mam do tego używać AI?
AI sobie już nie w środku.
Nie, że my musimy się nauczyć, które elementy opłaca się robić AI-em.
w jednym ze szkoleń, czyli Domain Drivers, mamy bota na Discordzie, który się nazywa Dyddamian, jako że to jest od DDD i możesz tego bota zapytać właśnie chociażby o value objecty, jako że to jest szkolenie z Domain Driven Design i on wtedy przechodzi przez wszystkie transkrypcje, wszystkich lekcji w całym szkoleniu
To była robota ręczna, no bo AI nie ogląda wideo, tylko operuje właśnie na transkrypcjach.
I to faktycznie po prostu były zrobione te embeddingi, Tomek włożył to wszystko w kudranta, w bazę wektorową, tylko też nie chcieliśmy, aby ten AI był tam wykorzystywany tak bardzo mocno, bo zależało nam na tym determinizmie.
Dlatego tam nie ma wymyślania przez AI, co to jest ten value object, czy jak tam znaleźć jakieś granice.
więc się okazało, że te komentarze tam są moderowane na jednym z forów w sposób po prostu automatyczny, żeby czegoś takiego uniknąć, bo normalnie z tego bota można publicznie na naszym Discordzie korzystać, w Discordzie dedykowanym do tego szkolenia, więc AI jest wpięty tylko w jedno miejsce, czyli analizuje, czy pytanie dotyczy programowania.
A potem AI jest używany, LLM jest używany tylko do stworzenia embeddingu właśnie z pytania i tyle.
Ostatnie odcinki
-
DevTalk #137 – O Wypaleniu w IT z Olą Kunysz
02.02.2026 13:40
-
DevTalk #136 – O Testach Kontraktowych z Łukasz...
19.01.2026 17:29
-
DevTalk #135 – O Architekturze Ewolucyjnej z Ma...
12.01.2026 15:50
-
DevTalk #134 – O DevOps 2025 z Piotrem Zimochem
29.12.2025 14:31
-
DevTalk #133 – O Długu Technologicznym z Oskare...
24.11.2025 12:50
-
DevTalk #132 – O Startupach przy Rewolucji AI z...
10.11.2025 13:49
-
DevTalk #131 – O Przewadze w Świecie LLM-ów z T...
30.10.2025 13:10
-
DevTalk #130 – O RAG do Eksploracji Kodu z Łuka...
27.10.2025 16:36
-
DevTalk #129 – O Programowaniu z AI z Tomaszem ...
13.10.2025 11:37
-
DevTalk #128 – O Roli Lidera i Wyzwaniach Ery A...
29.09.2025 10:13