Mentionsy

Opanuj.AI Podcast
04.11.2025 05:00

Cursor 2.0 vs Windsurf SWE-1.5 - dobrze, szybko i tanio? Nowa era programowania z AI już tu jest (+ DGX Spark, ChatGPT Atlas i nanochat)

Cursor 2.0 rozszerza tradycyjne środowisko programistyczne na rzecz rewolucyjnej platformy wieloagentowej, fundamentalnie zmieniając podejście do pisania kodu. Cognition natychmiast kontratakuje, wypuszczając Windsurf SWE-1.5 – model kodujący z oszałamiającą prędkością 950 tokenów na sekundę. Analizujemy ten pojedynek gigantów i sprawdzamy, które podejście zdominuje AI-assisted development. W odcinku również: premiera taniego i szybkiego Haiku 4.5, rozczarowujące testy superkomputera DGX Spark, krytyka przeglądarki Atlas od OpenAI oraz wielkie podsumowanie 10xDevs II.

Szukaj w treści odcinka

Znaleziono 13 wyników dla "SWI Bench"

Nie jest to pierwszy model, który tutaj akurat twórcy Windsurfa wydali, bo mieliśmy już model SWI1, który co ciekawe przez dłuższy czas był dostępny za darmo w ramach subskrypcji Windsurfa.

Więc po kolei to pierwsze rozwiązanie, które się pojawiło, pierwsze jeśli chodzi o tą istotność w kontekście agenty coding, pierwsze o którym chciałem powiedzieć to jest właśnie model SWI 1.5.

Natomiast ten SWI 1.5 ma być taką próbą zaadresowania tych dwóch wymiarów jednocześnie.

Tutaj twórcy Windsurfa przytaczają znany benchmark SWI Bench Pro, który ma pokazywać jak modele, w zasadzie agenci rozwiązują takie problemy w ramach repozytorium end-to-end, czyli od zapoznania się z jakimś opisem problemu aż do zaproponowania pull requesta.

Tutaj literą w przypadku SW i Bench jest Cloud Sonnet 4.5, który w tym benchmarku, w tej surowej wersji osiąga 43,60% skuteczności.

I mamy 40% skuteczności na SWI Bench i aż 950 tokenów na sekundę w przypadku SWI 1.5.

nie wiem, dostrojenia modelu, ale też właśnie na poziomie infrastruktury tego, jak ten model jest hostowany, jaka jest jego dostępność, to też myślę, że będzie zmienne, bo wszyscy użytkownicy Cloud Coda wiedzą, że AI w Polsce o określonych godzinach działa inaczej rano czy wieczorem, w zależności od tego, czy Ameryka też z danego rozwiązania korzysta, natomiast tutaj przynajmniej na takim syntetycznym poziomie ten SWI 1.5 działa naprawdę szybko.

To, o czym również wspominałem, to jest to, że oni poszli troszkę w przeciwnym kierunku niż reszta branży, mianowicie nie skupiali się wyłącznie na optymalizowaniu tego benchmarku SWI Bench, który jest właśnie takim wąskim zestawem zadań wyłącznie w Pythonie, ale starali się jak najbardziej odwzorować to, jak wygląda praca programisty i ten model ma się po prostu dopasować, w zasadzie ten agent ma się dostosować do tego, jak ta praca

fanami, orędownikami gdzieś tam przygotowywania się do rozwiązywania zadań z AI zanim jeszcze wygenerujecie jakiś kawałek kodu i to właśnie bardzo często polega czy to na zaplanowaniu jakiejś pracy, pozbieranie jakichś plików, referencji tego co dzieje się w obrębie projektu i to trzeba zrobić szybko, to trzeba zrobić precyzyjnie i właśnie do tego służy ten drugi model, który tutaj twórcy Windsurfa wydają na rynek SWI Greb.

Tak, dokładnie, miesiąc po miesiącu i to nie jest jakaś opinia, bo też w benchmarku, którego nazwy niestety nie pamiętam, skuteczności korzystania z języka polskiego

rozsądną prędkość, znaczy na tle konkurencji poza SWI 1,5, no to to jest bardzo dobra prędkość i też mamy naprawdę dobre wyniki, jeżeli chodzi o inteligencję, zwłaszcza w zakresie programowania, bo widać, że ten model powstał do współpracy z Sonnetem 4,5.

Mamy model, który osiąga wydajność w SW Bench Verified, w tym naszym lubianym benchmarku na poziomie Soneta 4, czyli front-end model sprzed kilku miesięcy.

Benchmarki wskazują na 50 tokenów na sekundę, co jest naprawdę niską wartością.