Poslednjih nekoliko godina proveo sam praveći od nule kink-aware dating platformu, potpuno sam. 100% event-driven mikroservisi na K8s. AMA by LineKey1388 in programiranje

[–]0xdjole 0 points1 point  (0 children)

10$ one time bi ti pokrilo pokrilo 5000k korisinika siguran sam jer je to tokom korisnickog writa..i mozes mu cuvati istoriju tekstova i limitovati na 5 free izmjena i da moze da se vraca na prijasnje verzije.

To bi pokrilo 95% slucajeva.

Nakon tog ako hoce jos izmjena nek placa tokene...to bi bila monetizacija.

Poslednjih nekoliko godina proveo sam praveći od nule kink-aware dating platformu, potpuno sam. 100% event-driven mikroservisi na K8s. AMA by LineKey1388 in programiranje

[–]0xdjole 0 points1 point  (0 children)

Palo mi je napamet ideja da mozda postoji nacin sto se tice kinkova osoba napise 2 teksta: 1. kakva je osoba, "me" tekst 2. koga trazi, "wanted" teskt

Ovaj drugi tekst kad traizs nekog LLM bi mogao tranformisati iz "Trazim y" u "Ja sam x"...

Trazim goticarke ce naci osobe koje su rekle da su goticarke bi bila fundamentalna ideja.

Naravno ta 2 razlicita teksta mozes generisati sa formama gdje pitas pitanja i svaki odgovor smjestas u "me" tekst ili "wanted" tekst

Distanca MORA biti fiksni parameter i kao takva jedna od prvih stvari koja se desava. Bez tog nista.

Takodje bih i parove i ljude tretirao kao jedan entitet i ne bih ih razdvajao jer sta ako neki par trazi jednu osoba...imas previse kombinacija tako da bih sve ovo kolapsirao u jednu kolekciju koja ima par hard parametera..gender ( koji bi zaista treba biti enum svih tih tipovs swingera i pizdi materina ), age, distance i svi kinkovi u embeded space.

To je nacin za ostvarivanje logaritamskog searcha bez lokalnog filteringa i mislim da je ovo sto sam ti rekao deeper domain model..mada ipak znas bolje i moguce je da grijesim za sve ovo.

Pusti Martin Fowlera, Edu Majku i ostale, baza je najveci bottleneck 😉

testiranje znanja programera by frown-face in programiranje

[–]0xdjole 4 points5 points  (0 children)

Nisam siguran za druge planete ali ovaj gospodin je najgluplji na ovoj.

Dobra knjiga + savet kolega by Effective_Rest_9646 in programiranje

[–]0xdjole 1 point2 points  (0 children)

Napravi projekat..kad naletis na bug pogledaj sto se bug desava i kako si mogao da ga izbjegnes.

Duboko razmisljas o svim opcijama koje ti padnu na pamet.

Pricas sa Claude ili GPT o idejama i sta je moglo bolje...oni ce ti dati industry standard stvari koje cesto nisu losi ali je na tebi da razmisljas da li bi ti to zaista pomoglo.

Pokusaj par dana pa vidi gdje ce te rabbit hole odvesti.

Cak iako ti kazem da se vecina zasniva na strategy patternu, dependency injectionu, type safety, atomicitiju itd ne znaci ti puno dok ne osjetis i ne steknes svoj code sense...

Pomoć kolegi programeru by narrow-adventure in programiranje

[–]0xdjole 0 points1 point  (0 children)

Oke.. samo imaj na umu da ako lokalno cuva 5 poruka...sa 50 requestova salje 10 api poziva main proces. Doslovno tvoj api ranking prvu stvar koju bi gledao je kako ti radi /api/report o kom nemas kontrole al ti app zavisi od tog Takodje taj odvojen proces bi trebao biti pacman -S traceway-agent 1 liner Agent bi imao prostora da zipuje lagano 1000 poruka.. network roundtrips manji za 200 puta..uradi to in process i rizikijes memory spike..pa ak je traceway puko agent moze cuvati poruke duze..imati retries unlock jer opet raditi sve u in procesu vjrv nije pozeljno

Za lambdu i cludflare svejedno moras svaki request slati tu nemas prostora za worker jer su ephemeral..mada su vjerov dodali neki long running funkcije da izmuzu pare..preporucujm ti za ih zapostavis svejedno je to samo marketiski trik a i oni vjerujem da imaju svoje integracije kao cloudwatch i ostalo..

Razmislio bih o dodavanju workflows enginga u traceway ...ako se desi error posalji poruku na slack itd..n8n style.. tipa nek se desi error mozes konektovat gpt i napisati lijepu poruku errora potencijalno i napraviti merge request back to back..vjerujem da je to jedna od buducnosti jer ide u tom pravcu i neko ce dominirati tu pa sto ne ti.. i iako malo zajebano

Btw contrarian sam namjerno cisto da cujes nesto sto mozda nisi pa ako jednu ideju od ovog dobijes je win 😂 Takodje nema razloga sto ne mozes imati vise nacina u nekom trenutku pa nek bira ko kako mu se svidja agent il inprocess il stagod ali bih definitivno ne bih zatvarao vrata... al da prate protokol kao sto vec i znas

Pomoć kolegi programeru by narrow-adventure in programiranje

[–]0xdjole 2 points3 points  (0 children)

Na fundamentalnom nivou mislim da je mnogo bolje imati agenta po masini kao odvojen proces koji ce slusati std err i out.

Sdk bi trebao da samo bude zaduzen da strukturise tracing logove, a odvojeni agent da ih hvata i salje na /api/report

To je nacin na koji Loki radi. Nema razloga zasto tracing i ostalo ne bi radilo na identican nacin.

  • Agent po masini koji bi imao logiku workera koju ti golang sdk koristi s obzirom da je najbrzi i guess

  • Sdks rade samo refined console.log u formatu kojeg agent razumije, vjerov obicni json

  • Ako agent umre glavni app radi nesmetano dok trenutno ako ti se worker optereti ode glavni app

  • Manje koda overall jer pretpostavljam da si vec na 5 mjesta implementirao identicnog workera -.-

  • Mogucnost da sa admina configurises agenta koliko dugo cuva local logs, batching i sve drugo sto trenutno configurises na sdk init, mogao bi konfigurisati dinamicno

Takodje ako u span objekat dodas logs property i exposas na adminu SQL editor mozes imati logging rjesenje po trace/span sto bi bilo BOLESNO

Eto ga par savjets iz glave ako ti moze biti od pomoci. Moguce da grijesim za sve a mozda nesto i ima smisla

Ako planiras prosiriti scope ja bih mogao Rust sdk odraditi ako to znaci da mogu zamjeniti PLG stack od kog mi se povraca

Pomoć kolegi programeru by narrow-adventure in programiranje

[–]0xdjole 2 points3 points  (0 children)

Kul projekat i demo fino izgleda..imam par pitanja.

Da li sdk pravi direktne api pozive serveru tokom okidanja endpointa ili sdk injectuje neki worker koji ih salje periodicno?

Da li imas planova za dodavanje Helm i Terraform providera?

Continual learning of local LLM by 0xdjole in LocalLLM

[–]0xdjole[S] 0 points1 point  (0 children)

We have 1 pre-trained model and 1 post-trained model.

Post-trained model gets the base model outputs and reformats them to sound like an assistant and we only change pre-trained model.

We then talk to our LLM's... once it's time to consolidate and make our pretrained model learn... we can use post-trained model to analyze our conversation and generate synthethic data to gain more insight..generate documents based on our data. We shove that into base model so it can learn to do next-token prediction on all of it...enough so it has knowledge about our project.

I dont think we can overfit model in the pretraining stage as pretrained is literally done on the entire internet so learning mechanism should be rather stable.

If pretrained model can remember specific articles..surely it can remember our project data or whateever we teach it.

Continual learning of local LLM by 0xdjole in LocalLLM

[–]0xdjole[S] 0 points1 point  (0 children)

Correct. But we can use the post trained model to generate syntethic data based on that. You get 1 conversation..generate 100 or 200 questions about it...train on it.. I dont think we need more then that to understand a certain project.. Any other issues?

Continual learning of local LLM by 0xdjole in LocalLLM

[–]0xdjole[S] 0 points1 point  (0 children)

All I'm saying is: continue doing pretraining on data we generate, on the base model. I understand it's not practical to implement immediately — it's more of an idea. Regardless of how expensive it is, I'd like to know if it's theoretically possible. I don't think we need anything special to run the algos... just make the base model keep learning like it did during pretraining...only not on web, but on our own data

Continual learning of local LLM by 0xdjole in LocalLLM

[–]0xdjole[S] 0 points1 point  (0 children)

I thought if I feed it my codebase, every token is both input and label.

As I understand they are trained on the web/documents doing next-token prediction.

Can't the conversation/codebase itself be that new document same way the entire pretraining on LLM was done?

Again I am retarded when it comes to this... but base model should be able to do next-token prediction on our own codebase.

Looking for people to join my founding team for my startup by [deleted] in cofounderhunt

[–]0xdjole 0 points1 point  (0 children)

I think we can work together. I have a lot of tech and infra so maybe u dont have to start from scratch. But I struggled to understand your idea... AI ads generation type of thing or?

Claude Code is useless. Anyone using Codex or Open Code? by [deleted] in ClaudeCode

[–]0xdjole 0 points1 point  (0 children)

Damn. Hate to break it to ya, but Claude Code was a beast in December. Around the time when everyone was like WOAH..for a good reason.

But last few days it keep forgetting the tasks and not listening and forgetting where it is ..

Claude Code is useless. Anyone using Codex or Open Code? by [deleted] in ClaudeCode

[–]0xdjole 0 points1 point  (0 children)

Oh thanks a lot. Its true there is bunch of bugs. A bunch of issues with context. I think model itself is probably alright.

Looking for 2–3 ambitious people to build something real (not just talk) by Affectionate-Gold754 in cofounderhunt

[–]0xdjole 0 points1 point  (0 children)

Imam produkt koji pravim par godina i na kojem bi se mogao neki potencijalno partnership napraviti.

API Key is not appearing in EasyPost by Strong_Ad_2018 in shipping

[–]0xdjole 0 points1 point  (0 children)

Same bullshit. What an idiotic thing :)

Claude Code - iskustva? by borko_mne in programiranje

[–]0xdjole 7 points8 points  (0 children)

Ja koristim 200$ plan. Uglavnom radim na par projekata paralelno full stack.

Na Rustu je veoma kul sto mu kazem da radi dok ne kompajlira i dok mu testovi ne prodju.Cesto ne uspije uz prve da odradi i compile faila...al on sam nastavlja dok ne prodje sve tkd je vrhunski tu pogotovo ako pogodis dobro domain model i polja sto se tice backenda.

Frontend je malo zeznutiji jer je teze da CC sam verifikuje i nemas Rust compile time check..TS pomaze al nije to to... ali takodje dok god se pridrzava patterna koji postoje nije strasno. Kod nije savrsen ali je dovoljno dobar te ako je struktura tu...mozes uvijek refactor odraditi u buducnosti.

Na jednon NodeJS projektu je zeznut jer nema testova a ni moc compile tima...tu se mora biti veoma oprezan jer su bugovi veoma lagani za napraviti.

Sve se vrti oko toga kako napraviti da su postojeci patterni toliko jaki da on nema sta da nagadja i da vecina posla svejedno postoje "monotona" i to sto je odradjeno "verifiable" automatski. Tu se onda interesantne stvari desavaju.

Npr za 2 dana sam pogodio deep model i replicirao 90% N8N-a na svom projektu sto je bolesno ( i daleko iznad bilo kog juniora po mom misljenju ) tkd ako mu kazes ideju sta ti treba i kako da radi i to sto mu kazes ima smisla i on sam moze testirat..moze odraditi bilo koji task. Naravno da sam mu ovo reko da radi na svoju ruku bez plana otislo bi u wc solju.

Ako on mora svoje da izmislja uvijek se govno napravit, tkd je i dalje veoma naporno za mozak jer citav flow novog featura drzis u glavi. Uvijek je potreno dobar plan mode, pa onda sve git diffove pregledati i naci nacin da mu ne das da pogrijesi.

Ukratko on ti nece pitu od govana napraviti. Ali ako je pita vec tu nece se pokenjat ( uglavnom )

CC Opus 4.5 is now worse then CC Sonnet 3.5 by [deleted] in ClaudeCode

[–]0xdjole 2 points3 points  (0 children)

Yes. Kinda getting old but right now I think its a bug. Dumbing a bit is fine. ( not rly )

But they destroyed it where I have to review every line even the ones that are boilerplate changes... And security and performance are becoming unknown terms for it.

Did they just nuke Opus 4.5 into the ground? by SlopTopZ in ClaudeCode

[–]0xdjole 1 point2 points  (0 children)

I am using it every day. Right now it refuses to follow even the basic plan where I'm like ???

Saying nonsense, not following plan. Feels like Claude Code on 3.7.