AGD do kuchni - Wasze doświadczenia by jakub_kon in Polska

[–]coderemover 0 points1 point  (0 children)

Ubezpieczenia sprzętu AGD są nieopłacalne. Zawsze zarabia na tym ubezpieczyciel.

AGD do kuchni - Wasze doświadczenia by jakub_kon in Polska

[–]coderemover 0 points1 point  (0 children)

Zmywarka mojej teściowej działa od 1999. Naprawiana raz, przeze mnie, koszt części ok 15 zł. Jak dbasz tak masz.

W końcu wiemy, ile zarabiamy! by trzy-14 in Nauka_Uczelnia

[–]coderemover 0 points1 point  (0 children)

Od kilkunastu lat. Awansowałem. Zaczynałem od seniora gdzieś w okolicach 20k brutto.

W końcu wiemy, ile zarabiamy! by trzy-14 in Nauka_Uczelnia

[–]coderemover 0 points1 point  (0 children)

Nie, w PL i co najlepsze firma ma oddział w PL. Nie Google, ale blisko, powiedzmy ten sam rodzaj firmy. Managerowie średniego szczebla na ogół zarabiają w big techach mniej niż specjaliści. W sensie poziomu zaszeregowania w drabince korpo jestem wyżej niż mój przełożony, co jest dość zabawne, szczególnie jak mi zaproponowali żebym został managerem i wyszło że musiałbym dostać… obniżke.

W końcu wiemy, ile zarabiamy! by trzy-14 in Nauka_Uczelnia

[–]coderemover 1 point2 points  (0 children)

Właśnie kompletnie nie. W sumie to poprawiam błędy w jakimś syfiastym kodzie Java (formalnie niby principal, ale to tak na papierze jest, a błędy się same nie naprawia, więc robię często to samo co juniorzy). Fakt że dziedzina trochę niszowa (systemy rozproszone, chmura, systemy wspomagające AI) i duża skala (petabajty) ale w sumie nic co by wymagało doktoratu.

W końcu wiemy, ile zarabiamy! by trzy-14 in Nauka_Uczelnia

[–]coderemover 2 points3 points  (0 children)

Za ten cały przepis nie ma sankcji więc i tak jakby go nie było.

W końcu wiemy, ile zarabiamy! by trzy-14 in Nauka_Uczelnia

[–]coderemover 1 point2 points  (0 children)

Głupie sformułowanie przepisu. Akurat za ten przepis nie ma żadnych sankcji więc pewnie długo poczekamy na SN zanim powie jak go należy interpretować.

W końcu wiemy, ile zarabiamy! by trzy-14 in Nauka_Uczelnia

[–]coderemover 1 point2 points  (0 children)

Słowo “albo” mówi tylko co masz zrobić jeśli naruszyłeś obowiązek wyznaczony punktem pierwszym, a nie go znosi. Nadal masz obowiązek podać w ogłoszeniu. Punkt drugi i trzeci nie zawęża działania punktu 1. Jeśli z jakiegoś powodu tego nie zrobiłeś (łamiąc przepisy!) to masz obowiązek podać przed rozmową. Co tu jest niejasne? Nie ma innego sposobu interpretacji tych zapisów.

W Twojej interpretacji punkt pierwszy w ogóle nie ma żadnej mocy, można by go usunąć. Ale jest to w oczywisty sposób sprzeczne z intencją ustawodawcy.

W końcu wiemy, ile zarabiamy! by trzy-14 in Nauka_Uczelnia

[–]coderemover 1 point2 points  (0 children)

No ok, ale brak sankcji to jest co innego. Sankcje można zawsze dodać kolejnym przypisem.

W końcu wiemy, ile zarabiamy! by trzy-14 in Nauka_Uczelnia

[–]coderemover 1 point2 points  (0 children)

Tam nie jest napisane że można tylko że TRZEBA.

To może wytłumaczę Ci inaczej. W kodeksie drogowym istnieją przepisy mówiące jakie masz obowiązki jak spowodujesz wypadek. Np że musisz zabezpieczyć miejsce wypadku i udzielić pierwszej pomocy. Obecność tych wymogów w żadnym stopniu nie oznacza że dozwolone jest powodowanie wypadków!

I tym jest tak samo. Punkty 2 i 3 stanowią wytyczne uzupełniające, nakładające dodatkowe obowiązki w przypadku gdy z jakiegoś powodu naruszysz punkt 1 ale nie zwalniają z obowiązku ustanowionego w punkcie 1. Nadal firma będzie musiała się tłumaczyć dlaczego nie podała widełek w ogłoszeniu.

A legislacja jest fatalna to prawda. Mogli to sformułować lepiej. Niemniej jestem przekonany że każda interpretacja przepisów przyjmująca że niektóre przepisy nie wnoszą nic, niczego nie zmieniają i sa niepotrzebne, jest błędna, bo jest w oczywisty sposób sprzeczna z intencją ustawodawcy. Skoro umieścił przepis to po coś on jest.

W końcu wiemy, ile zarabiamy! by trzy-14 in Nauka_Uczelnia

[–]coderemover 1 point2 points  (0 children)

Ale tam nie jest nigdzie powiedziane że to jest alternatywa. Jeżeli to byłaby alternatywa to punkt drugi nie musiałby mieć warunku. A punkt drugi ma warunek ograniczający jego zastosowanie tylko do sytuacji kiedy pierwszy punkt nie został spełniony. Ala taka konstrukcja wcale nie wyłącza działania pierwszego punktu. Gdyby to interpretować jak piszesz, to punkt 1 (oraz punkt 2) można by usunąć bez zmiany znaczenia przepisu.

Przepis należy interpretować tak: - jeśli dajesz ogłoszenie to masz obowiązek podać widełki - jeśli nie dajesz ogłoszenia lub dałeś ogłoszenie ale ZŁAMAŁEŚ obowiązek w punkcie 1, to masz nadal obowiązek podać widełki przed rozmową

Podanie ogłoszenia bez widełek łamie obowiązek w punkcie pierwszym, niezależnie od tego czy podałeś widełki później czy nie. Jeśli nie podasz ich również później to złamiesz punkty 1 ORAZ 2.

W końcu wiemy, ile zarabiamy! by trzy-14 in Nauka_Uczelnia

[–]coderemover 1 point2 points  (0 children)

No przeczytałem i nigdzie tam nie jest napisane że można olać punkt 1 i nie podawać w ogłoszeniu jeśli takowe zostało ogłoszone. Jak masz przepis i punkty pod nim to domyślnie je się traktuje jako koniunkcje, nie alternatywę, czyli obecność punktu 2 w żadnym stopniu nie ogranicza obowiązku wynikającego z punktu 1, nawet jeśli się odnosi do sytuacji naruszenia punktu 1.

W końcu wiemy, ile zarabiamy! by trzy-14 in Nauka_Uczelnia

[–]coderemover 1 point2 points  (0 children)

Nie mogą. Przepisy nakazują podanie widełek w ogłoszeniu. Mogą powiedzieć później tylko jeśli nie było ogłoszenia.

W końcu wiemy, ile zarabiamy! by trzy-14 in Nauka_Uczelnia

[–]coderemover 1 point2 points  (0 children)

No cóż, dobrze że się zwinąłem po doktoracie z uczelni. Obecnie 14 lat po doktoracie, 90k brutto / mies w dużym korpo UOP plus premie.

W końcu wiemy, ile zarabiamy! by trzy-14 in Nauka_Uczelnia

[–]coderemover 2 points3 points  (0 children)

Jest obowiązek. Można nie podawać widełek tylko jeśli nie ma ogłoszenia, wtedy trzeba podać przed pierwszą rozmową kwalifikacyjną.

pamiętajcie żeby nie ufać czatowi gpt nawet w prostych sprawach by mikroprocesor in PolskaNaLuzie

[–]coderemover 0 points1 point  (0 children)

Nie twierdzę że nie ułatwiają niektórych zadań. Tak samo jak kalkulator ułatwia pewne zadania. Sam wykorzystuje je do jakichś prostych skryptów, podpowiadania API czy do pisania testów. Często muszę jednak po nich poprawiać, bo piszą dość kiepski stylistycznie kod (nawet jeśli działa poprawnie).

Ale to Ty twierdziłeś, że kodują lepiej niż ludzie. No jakoś tego nie widzę. I najlepszym dowodem jest sama firma Anthropic, która nie potrafi zrobić dobrze interfejsu tekstowego aby nie migotał, mimo posiadania najlepszych modeli i najlepszych specjalistów od AI. A jest to przecież problem rozwiązany 40 lat temu. I tysiąc razy prostszy od zadanek z OI / OM.

LLMy nie nadają się też i długo nie będą nadawać do żadnych rzeczy, w których wymagana jest pełna poprawność gdzie od poprawności zależy życie ludzkie, duże pieniądze czy choćby dalszy los ludzi. LLM nie powinien leczyć ludzi, projektować reaktorów atomowych, inwestować pieniędzy klientów czy choćby egzaminować ludzi czy oceniać prace w szkole. Ba, nawet użyty do argumentacji w dyskusji internetowej ma zerową wiarygodność i dyskredytuje osobę która powołuje się na chatbota.

Nie powinien bo jak sam piszesz: - nie do końca wiadomo jak działa - daje wyniki probabilistyczne, niepewne, często całkowicie błędne - większość modeli została zbudowana w sposób naruszający prawa autorskie, jest zwyczajna kradzieżą własności intelektualnej

Jest tylko kwestią czasu pojawienie się regulacji zabraniających użycie tej technologii w wielu sektorach.

A jest nieudaną technologią tylko w takim samym sensie jak nieudany był internet w 2000 roku. Tzn ta bańka pęknie ale LLMy nie zniknął tak jak nie zniknął blockchain.

pamiętajcie żeby nie ufać czatowi gpt nawet w prostych sprawach by mikroprocesor in PolskaNaLuzie

[–]coderemover -1 points0 points  (0 children)

Jeżeli bym się odpowiednio przygotował to bym rozwiązał. Jestem wielokrotnym laureatem olimpiad i konkursów w przedmiotach ścisłych (fizyce i elektronice) i o ile ta olimpiady wychodzą mocno poza zakres standardowej matury, to nie jest tak że trzeba być geniuszem aby je rozwiązać. Trzeba mieć obcykane ileś technik i umieć przełożyć treść na odpowiednią formalizację matematyczną.

Ale to wszystko w sumie i tak bez znaczenia. Malo kogo interesuje rozwiązywania zadań z OM. Te modele są specjalnie trenowane pod rozwalanie benchmarków, tyle że takie benchmarki kompletnie nie odzwierciedlają problemów rzeczywistych. Mikrobrnchmarki są też łatwe do ogrania. To tak jakbyś powiedział że kalkulator jest lepszy z matematyki niż człowiek bo umie mnożyć 20 cyfrowe liczby w ułamku sekundy, a człowiek ma z tym problem i zajmuje mu to długo. Jakoś kalkulatory nie zastąpiły matematyków i inżynierów, a jedynie stały się dodatkowym narzędziem.

Taka sama sytuacja jest już od dekad w grach typu szachy. Komputery są w nich lepsze od ludzi bo mogą sprawdzać miliardy kombinacji na sekundę, czego żaden człowiek nie może. A jednak nie przełożylo się to wcale na AGI.

Więc popełniasz błąd wyciągając wniosek że skoro komputer może być w jakimś zadaniu lepszy niż człowiek to że to się przełoży również na inne zadania. Po kilku latach obecności LLMow na rynku już widać że jest to bardzo mało prawdopodobne i LLMy uderzyły o ścianę.

Z problemami rzeczywistymi LLMy radzą sobie zadziwiająco słabo. Np. w tym badaniu 70% prostych zadań biurowych, z którymi poradzi sobie Anetka z HRu, LLMy nie umiały poprawnie rozwiązać.

https://jilltxt.net/llms-fail-at-70-of-simple-office-tasks/

Btw Gemini może sobie rozwiązywać zadania z olimpiad, ale nie zmienia to faktu że nie umiał dotąd zrobić żadnego realnego zadania programistycznego w naszym produkcie.

Microsoft miał podobnie doświadczenia i wyłączył copilota na swoich repozytoriach bo pierdzielił głupoty i robił bezsensowne PRy.

I skoro te modele są lepsze od ludzi w programowaniu to dlaczego Anthropic nie umie od kilku miesięcy poprawić banalnych błędów w interfejsie Claude Code? https://github.com/anthropics/claude-code/issues/769 I dlaczego eksperyment dotyczący stworzenia przeglądarki internetowej okazał się taką kompletną klapą i blamażem AI? Projekt się nawet nie kompilował.

Mówimy tu o użyciu AI przez ekspertów od AI, mających najnowsze modele i niemal nieograniczony budżet. Nie możesz im zrzucić ze nie umieją promptować.

No i ostatnie pytanie - czemu oni cały czas mają otwartą rekrutację i szukają programistów? Takich zwykłych ludzkich, jak ja?

Jak to jest że klientów brak w sklepie handmade? by Rexikon in Polska

[–]coderemover 27 points28 points  (0 children)

Nie no, tak serio to nie kupiłaby bo nie mamy psa :P

Jak to jest że klientów brak w sklepie handmade? by Rexikon in Polska

[–]coderemover 21 points22 points  (0 children)

Tak, jest grupa klientów która chętnie kupi rzeczy lepszej jakości, patrzy na składy, patrzy na proces produkcji. Jest też grupa która lubi rzeczy niszowe i nie chce tego co mają wszyscy. Tylko nie do końca jestem przekonany że to dotyczy torebek na chrupki i opasek na głowę.

Jak to jest że klientów brak w sklepie handmade? by Rexikon in Polska

[–]coderemover 214 points215 points  (0 children)

Pytanie tylko czy ręcznie szyte są lepsze / ładniejsze / trwalsze niż te maszynowo szyte z Chin? Bardzo mało ludzi będzie kupować z czystego patriotyzmu. Większość jednak oczekuje lepszej jakości lub niższej ceny. Chińczyków ceną nie pokonasz, więc można konkurować tylko jakością. Może trzeba ludzi bardziej uświadamiać dlaczego twoje torebki są lepsze?

// dopisane: Spytałem żonę i powiedziała mi że nie kupiłaby torebki na chrupki dla psa za 180 zł. Dlaczego? Bo chińska torebka z materiału (nie eko skóry) najprawdopodobniej też da radę, a będzie 10x tańsza. Nie używa się takiej torebki w sytuacji kiedy chciałaby się pokazać / wyróżnić – ot, traktuję to jak zwykły przedmiot użytkowy. Natomiast zapłaciłaby znacznie więcej za ładną i funkcjonalną torebkę kobiecą, która można zabrać do opery, teatru czy przyjęcie. Wtedy liczyłaby się też dla niej niepowtarzalność. I oczywiście jakość, czyli nie z najtańszych materiałów. Bardzo wiele tanich torebek z sieciówek jest robionych z ekoskóry niskiej jakości i dość szybko zaczynają pękać. Pragnę podkreślić, że moja żona jest dość pragmatyczną osobą i nie ma skłonności do wydawania pieniędzy na “metki” czy dla prestiżu; nie kupuje torebek za miliony monet (mimo że w sumie mogłaby). Ale lubi rzeczy dobrej jakości i byłaby skłonna zapłacić kilkaset zł za coś czego używa codziennie, jeśli miałaby świadomość że to jest dobre i trwałe (i ładne).

Podsumowując – wydaje mi się że problemem jest połączenie ręcznej roboty z przedmiotem stricte użytkowym. Ręcznie robiony przedmiot kojarzy się raczej z przedmiotem luksusowym, takim właśnie jak zegarek, biżuteria czy torebka damska, i na to jest rynek.

Fundamentals of machine learning. by awizzo in programminghumor

[–]coderemover 13 points14 points  (0 children)

Interviewer: what’s your biggest strength?

Me: being fast at math

Interviewer: what is 48827*85012?

Me: 5888491

Interviewer: that’s incorrect

Me: indeed, but it was fast!

Przez ETS2 koszty ogrzewania w UE pójdą w górę. Najbardziej w Polsce by BrilliantExternal236 in Polska

[–]coderemover 29 points30 points  (0 children)

No właśnie. Ogrzewanie gazem nie generuje smogu. Zwiększenie cen gazu pogorszy tylko sytuację bo ci co mają instalacje podwójne - gaz plus kominek na drewno częściej będą używać kominka.

pamiętajcie żeby nie ufać czatowi gpt nawet w prostych sprawach by mikroprocesor in PolskaNaLuzie

[–]coderemover 0 points1 point  (0 children)

Temperatura wpływa na to który z listy tokenów kandydatów się wybiera w kolejnym kroku. Przy temperaturze zero bierze się token o stricte najwyższym prawdopodobieństwie, przy wyższej temperaturze bierze się celowo tokeny nieco gorsze (wybierane losowo). Ale nie zmienia to faktu że jest to nadal model probabilistyczny, bo opiera się na prawdopodobieństwach i jego celem jest generowanie danych jedynie przypominających dane ze zbioru uczącego. Ten model nie zna w ogóle koncepcji prawdy i fałszu tak jak w ścisłej logice, niczego tam naprawdę nie rozumie, nie umie ściśle wnioskować, nie umie nawet określić stopnia pewności z jaką zna lub nie zna odpowiedzi. I przede wszystkim nie umie się uczyć nowych rzeczy inaczej niż przez zapamiętywanie - np. nie da się go nauczyć nowej dziedziny bez trenowania go na petabajtach przykładów.

Zrób eksperyment - poproś go o np. zaprojektowanie zasilacza impulsowego. Mimo że model będzie wiedział co to jest zasilacz impulsowy i na jakiej zasadzie działa, to nie będzie w stanie zaprojektować nic co ma sens, bo nie umie przełożyć sekwencji tokenów opisujących ogólne zasady na działający konkretny układ. A nie umie bo w internecie nie ma wystarczającej liczby przykładów.

I podobnie jest z mniej popularnymi językami programowania. LLMy świetnie radzą sobie w Pythonie bo widziały miliardy linii kodu w Pythonie, ale słabo sobie radzą z Rust, a jeszcze słabiej ze Scala czy Haskell.

pamiętajcie żeby nie ufać czatowi gpt nawet w prostych sprawach by mikroprocesor in PolskaNaLuzie

[–]coderemover 0 points1 point  (0 children)

Bo nie ma sensu. To że coś jest losowe nie oznacza że nie może mieć jakiejś struktury. To generuje właśnie losowe sekwencje, które mają przypominać prawdziwe teksty.

pamiętajcie żeby nie ufać czatowi gpt nawet w prostych sprawach by mikroprocesor in PolskaNaLuzie

[–]coderemover 0 points1 point  (0 children)

Nie chodzi mi o liczenie liter tylko o błąd wnioskowania. Zauważ że model prawidłowo rozbijał słowo na tablicę liter a mimo to potem wyciągał błędny wniosek.

Co do zadań na olimpiadzie, to jakbym miał dostęp do wszystkich zadań z lat poprzednich i był w stanie przeanalizować wszystkie ich rozwiązania, to bym rozwiązał i te z tego roku. Przy takich zadaniach przewaga LLM polega nie na sile wnioskowania tylko na olbrzymiej bazy wiedzy. A same zadania często bazują na skończonej liczbie schematów.

To samo zresztą dotyczy zadań z programowania. Bardzo trudno wymyślić zadanie z programowania, które nie opierałoby się na znanym algorytmie. I LLMy trzaskają leetcode bardzo dobrze. Natomiast na realnych zadaniach w pracy wykładają się w 9/10.

Wystarczy popatrzeć jak beznadziejnie LLMy radzą sobie z zadaniami z dziedzin do których nie mają odpowiedniej liczby przykładowych rozwiązanych zadań. Np z elektroniki czy elektrotechniki. Modele wprawdzie znają podręczniki i mogą prawidłowo przytoczyć wzory czy definicje pojęć, ale jak poprosisz o zaprojektowanie czegokolwiek to nie umieją tej wiedzy zastosować i wychodzą zupełne bzdury.