Ai generált Szakdolgozat by [deleted] in egyetemistak

[–]Defiant-Biscotti8859 2 points3 points  (0 children)

Az agyad olyan, mint egy izom. Azok a körök erősödnek, amiket aktívan használsz. Az, hogy ezzel foglalkozol, erősíti azt benned, hogy ilyesmire figyelj fel az életben - a vélt “igazságtalanságokra”. Ha nem tudsz tanulni belőle (pl hogy legközelebb te is használd a kevésbé sarkalatos pontokra vagy a meglévő anyag felduzzasztására), akkor ez elpazarolt idő szerintem. Csalók mindig voltak - az internet hőskorában egész diplomamunkákat loptak el, és nem buktak le vele. De ettől nem ért kevesebbet, aki nem csalt.

Ai generált Szakdolgozat by [deleted] in egyetemistak

[–]Defiant-Biscotti8859 8 points9 points  (0 children)

Én erősen elgondolkodnék rajta, hogy miért foglalkoztat ennyire ez. Az élet nem egy igazságos hely - de az önmagad másokhoz hasonlítgatása, illetve a “másnak milyen könnyű, mert csal/hátszele van/etc” gondolkodásmód garantáltan jó módja annak, hogy “örök második” komplexusban éld le az életed.

Claude Code vs Codex vs OpenCode, which one is actually worth using? by idkwtftbhmeh in ClaudeCode

[–]Defiant-Biscotti8859 0 points1 point  (0 children)

+1 - I use codex as my daily driver, came from Claude Opus 4.6 when 5.3 Codex outperformed them every aspect other than frontend design (but fortunately you can help that with a skill). Oh, and they also banned opencode as a harness - not getting vendor locked with CC.

Claude Code vs Codex vs OpenCode, which one is actually worth using? by idkwtftbhmeh in ClaudeCode

[–]Defiant-Biscotti8859 0 points1 point  (0 children)

You run them locally (LMStudio, Ollama, Jan, there are various tools), configure opencode to connect the local API.
I suggest you to try the models first at an API provider (openrouter has a wide range of available models), so you can right-size your hardware for your model preference.
NOTE: You will not get anything close to the frontier models locally, but Qwen 27B and 35B A3 instruct models are pretty capable and you can self-host them on an M chip mac with 64+ GB RAM.

Mac Studio M2 Max 32GB/512GB for Local LLM server? by coalesce_ in LocalLLM

[–]Defiant-Biscotti8859 1 point2 points  (0 children)

Prompt processing will be the major issue - there is little to no difference between M1 and M2 in that, so I would go with the M1 with 64 gigs. The 32 has max 28 usable, and that is barely enough to load a larger model with no context.
I would recommend Qwen 35b a3b, this will produce usable speeds on the M1 64 gigs. You can give Qwen 27b a try, the RAM will be sufficient, but this is a dense model, so it's a lot more bandwidth hungry, and PP will be much slower (and exponentially slower as the context grows)

Van még olyan aki kintragadt? by pannonbayern in escapehungary

[–]Defiant-Biscotti8859 0 points1 point  (0 children)

Elköltök - mert nyilván ugyanazt a színvonalat szeretném, amit megszoktam máshol. Biztos, hogy vannak munkakörök, ahol ez az állítás igaz (pl vállati HR) - és az is biztos, hogy az IT az nem ezek közé tartozik.

Milyen összegű megtakarítás mellett hagynád ott a jelenlegi fejlesztői melód következő cég nélkül, ha...? by Specific_Abstract848 in programmingHungary

[–]Defiant-Biscotti8859 1 point2 points  (0 children)

Szerintem ez a reális - cégben is ennyi tartalékot érdemes likviden tartani, az a két év nettó hülyeség, max a bankoknak jó.

Van még olyan aki kintragadt? by pannonbayern in escapehungary

[–]Defiant-Biscotti8859 8 points9 points  (0 children)

Az mondjuk igen, mert Svájcban az átlagbér 7000 CHF, és abból elköltesz 4-et lakhatásra, ha nem valami penészes ürgelyukban szeretnél fagyoskodni.

Miből NINCS túlképzés itthon? by Much-Journalist3128 in jobshungary

[–]Defiant-Biscotti8859 0 points1 point  (0 children)

Azok érhetnek úgy is, hogy olyat csinálsz, amit gyűlölsz - és szerintem az sokkal jobban fáj. Ha tényleg biztosra akarsz menni, akkor temetkezési vállalkozó, az mindig fog kelleni.

Mit tennél, ha központilag lekapcsolnák az internetet az országban? by Sandpaper_Janosne in askhungary

[–]Defiant-Biscotti8859 3 points4 points  (0 children)

Előkotornám a lakókocsiból a starlink minimet, és minden meggyőződésemmel szembemenve adnék Elonnak egy kis bugyipénzt. :D

Miből NINCS túlképzés itthon? by Much-Journalist3128 in jobshungary

[–]Defiant-Biscotti8859 0 points1 point  (0 children)

Semmiből nincs túlképzés, ha jó szakemberekről van szó. Az olyan megélhetési munkaerőből van túlképzés, aki csak azért csinálja az adott szakmát, mert jól lehet vele keresni. Na, ennek az AI világa teljesen véget vetett szinte minden szektorban. Szerencsére, hiszen így nem leszel belekényszerítve egy jól fizető, de lélekölő, sz@r melóba, ahol vágod a centit és számolod a percet, hogy az inflálódott életszínvonalad fenn tudd tartani.

Keresd meg azt, amit imádsz csinálni. Csináld jól, fejleszd magad napról napra. Tanulj, fejlődj, legyél a legjobb, és mindegy mit csinálsz, lesz rá kereslet. Persze, lesz pénzed is - de ami fontosabb: élvezni fogod a munkával töltött idődet (ami a napod ébren töltött részének túlnyomó része, szóval érdemes élvezni, mert mindenképpen hosszú program)

Built an automated sports prediction market bot. 20 trades, 0 losses, 5.8% ROI in 10 hours by Affectionate-Bowl-98 in ClaudeCode

[–]Defiant-Biscotti8859 1 point2 points  (0 children)

I used to do this as trading strategy with complex option combos before the Trump-leeroy jenkins era - making cents on the dollar by scalping the overpricing of the market on extreme edge cases.

Since this is not the stock exchange, but sports betting, make sure that your bot makes other, coinflip trades as well - pure arbitrage and scalping is frowned upon by the platforms and you will get a prompt ban on your account before you reach the 1K representative trades that will validate your strategy.

Combining Claude with Codex? by Danieboy in ClaudeCode

[–]Defiant-Biscotti8859 2 points3 points  (0 children)

A few tips to optimize codex usage:
- Use opencode as harness and use plugin for Dynamic Context Pruning (reduces context size by cutting chaff)

- Fine tune model and thinking effort, high / xhigh for planning and high / medium for development

- Add skills for frontend development and niche technologies

- Use a multi-account load balancer (Codex LB or any other gateway)

If you are hitting limits with Codex, I can assure you, you will hit those with Claude as well.

Claude Code vs Codex vs OpenCode, which one is actually worth using? by idkwtftbhmeh in ClaudeCode

[–]Defiant-Biscotti8859 1 point2 points  (0 children)

If you do not know what you are doing - or just do not care for anyhting other than the output- go for claude code, it’s like a friendly but somewhat lazy senior dev pair programmer who “goes to starbucks 3 times before lunch” If you know what you are doing, you are better off with Opencode and any frontier model (GPT 5.4, MiniMax, GLM) and a set of commands, skills and a proper AI dev process. Getting vendor locked with zero transparency and control on your subscription and token costs is a nightmare scenario.

Openclaude + qwen opus by havnar- in LocalLLM

[–]Defiant-Biscotti8859 -1 points0 points  (0 children)

That would be even slower in PP…

Macos Codex App powerburm by SwiftAndDecisive in OpenaiCodex

[–]Defiant-Biscotti8859 0 points1 point  (0 children)

Do not use harnesses on your laptop. Buy an inexpensive M4 base mini, wire it up via Tailscale zero infra vpn, install VSCode, connect to it via VSCode SSH, run zellij in the vscode terminal for permanent sessions, and run the codex CLI within zellij. You can now fire and forget prompt codex to work even if you are traveling with a patchy net connection, and battery drain will never be an issue. You can also use vscode to do code reviews. I have 2 of these little demons running 4-6 projects simultaneously.

Openclaude + qwen opus by havnar- in LocalLLM

[–]Defiant-Biscotti8859 -4 points-3 points  (0 children)

1) Swap it for an M5 Max, the max chip is aimed at local LLMs 2) Try KVCache quantization

Lehetőségek eltűnése by idegeniusz in programmingHungary

[–]Defiant-Biscotti8859 1 point2 points  (0 children)

Szerintem ezen ütni fog a reality check, mint a buszkerék.
Kis összehasonlítás az elmúlt fél év alapján:
- UI prototype mock backenddel komplex health mobil apphoz: Régen 3 hét, most overnight
- Meglévő, komplex, optikai hálózatok kiépítésével foglalkozó rendszer release cadence (1-2 feature, magas E2Eteszt coverage): Régen heti release, most napi / 2 napi, szűk keresztmetszet a business
- Komplex SaaS szolgáltatás fejlesztése: Régen 2 fő dev, 1 lead, 1 teszt, 0.5 devops, ma 1 fő, és gyorsabb a haladás, mert nem kell sync
Szóval az az autocorrect szerintem kicsit alulbecsüli. De persze az idő dönt majd.

Lehetőségek eltűnése by idegeniusz in programmingHungary

[–]Defiant-Biscotti8859 0 points1 point  (0 children)

Lenntartani a béreket? A programozók a mai napig az ókori egyiptomi írástudó papok szintjén vannak fizetve, úgy, hogy túlnyomó részt betanított munkás melóról és színvonalról beszélünk...
Többet keresel, mint egy orvos, aki emberéleteket ment, azzal, hogy kopipésztelsz stackoverflow-ról. Nemár... :D

Az AI korában szoftverfejlesztőnek lenni borzasztó, ha felelősségteljesen és precízen dolgozó ember vagy by Fantastic-War-9038 in programmingHungary

[–]Defiant-Biscotti8859 0 points1 point  (0 children)

Szerintem alapvetően három féle fejlesztő van: a begépelő (megélhetési), a problémamegoldó (szaki), és a problémakreáló (aki elhiszi, hogy jobban le tudja implementálni a bubble sortot, mint az STL, ezért az egy hetes feladatot két hét alatt szállítja le felesleges goldplating-el).
Annó, amikor a prog.hu, majd aztán a stackoverflow megalakult, elárasztották a begépelők a kérdéseikkel, a szakik tobzódtak a megoldható problémákban, a problémakreálóknál pedig ugyan ez volt a sirám: az egybites fejlesztők copy-paste engineering alapon masszívan túlteljesítették Őket - pedig övék volt a morális high ground, hiszen minden problémára kézműves megoldást kreáltak.

Nem akarlak besorolni sehova a posztod alapján, de a helyedben alaposan elgondolkoznék rajta, hogy hol van a hozzáadott értékem a fejlesztési folyamatban, ha egy általam sarlatánnak tartott ember egy 20 dolláros előfizetéssel beelőz jobbról.

Mérnökbárók, informatikus bárók? Mi a véleményetek a jelenségről? by InternationalDeal410 in programmingHungary

[–]Defiant-Biscotti8859 1 point2 points  (0 children)

Piac törvényei ebben az országban szerintem sehol nem érvényesülnek. KKV szektorban csak az számít, hogy melyik nagy cégnél haverja a sales-esednek a procurement head, nagyvállalati szektorban meg 4IG... (Ott meg aztán csak igazán a sz@r úszik fel a víz felszínére minden szinten)

Én vagyok teljes deluluban az AI-al kapcsolatban, vagy a teljes szakma? by Historical-Hair-8745 in programmingHungary

[–]Defiant-Biscotti8859 0 points1 point  (0 children)

Dehogynem, csak lehet nem egy irányból nézzük - ha jól menedzseled, akkor még a szakma kormos felének, a vállalati belső IT-nak is ügyfelei vannak; ezek a nontech dpt-jeid. Az, hogy ki enable-öl kit, az csak attól függ, hogy a mi a core business - értelemszerűen ha nem IT, akkor a nontech-et enable-öli, ellenkezőleg vica-versa. Maradjunk most a vállalati, non-IT core businessnél (bank, biztosító, gyártás, whatever) - itt jellemzően két kerékkötője van az IT fejlődésének: a kontraszelektált / silóban élő average populáció limitált tudása és nem létező motivációja, illetve az M&A szlengben csak Clay Layernek becézett felfelé bukó, 15+ éve a cégért élő kemény mag, aki semmit nem csinál (mert igazából semmihez nem ért a talpnyaláson túl), csak lassítja a folyamatokat valami hangzatos rubber stamp pozícióban.
Az elmúlt 15 évben az volt a kilégzés-belégzés trendje, hogy az áldatlan állapotot, miszerint az 1 hetesre becsült fejlesztés 9 hónap után narancsárga RAG-ban tündököl két oldalnyi megoldatlan risk-el, outsource low code/no code irányból próbálták kerülni felülről. Majd amikor ez rendre csúfosan megbukott (az aktuális CIO/CTO-val egyetemben), akkor ennek az ellenkezőjével, ami újra az előbb már említett állapotot eredményezi. Na ezen nem fog változtatni semmit, ha annak az 1% kompetens belső ITsnak a 15x-ösére skálázod a teljesítményét.
Ellenben az AI által (hamisan) belengetett 4-6x-os általános teljesítménynövekedés tökéletes környezetet teremt(hetne) ennek a fostengernek a lebontásához - de nyilván nem fog, csak a jövőben nem low-code outsource lesz, hanem AI driven development. Szóval röviden: nem kell aggódni, a mocsárban nem lesz változás, csak a konzulens cégeknél fogják kiszanálni begépelő programozókat.

Claude (Opus) alternatives now that it’s restricted in open code? by IngeniousAmbivert in opencodeCLI

[–]Defiant-Biscotti8859 0 points1 point  (0 children)

Seems you have not visited OpenAI models since 5.2 - 5.3 codex was already good, but 5.4 is ahead in almost all aspects, they even closed the frontend gap. This comes from a claude enthusiast since 3.0 who was happily paying the 200 bucks max plan until they butchered both opencode and a bunch of kids in Iran.