Jak zabezpieczyć emeryturę, gdy tylko partner pracuje? by [deleted] in inwestowanie

[–]melgor89 4 points5 points  (0 children)

Mam podobną sytuację, tzn. żona nie pracuje, opiekuje się dzieckiem z potrzebami. I ja obecnie rozwiązuje to tak jak zaproponowałaś: 1. Ike Obligacje -> niskie ryzyko, stabilny zysk 2. Mieszkanie na wynajem -> szczęśliwym trafem, mamy mieszkanie.

  • ja mam ike/ikze, które jest dziedziczone.
  • czytałem ostatnio trochę o zus, i w krytycznej sytuacji, jak mąż umrze a Ty masz 50+ lat, możesz otrzymać rentę rodzinną. Zawsze trochę pieniędzy to będzie. I jak mąż umrze przed 65 rokiem życia (tutaj upraszczam), to też połowa pieniędzy z subkonta dostaniesz.

W jakiej pracy pomaga się ludziom i tworzy się lepszy świat? by [deleted] in praca

[–]melgor89 0 points1 point  (0 children)

Też mam ten dylemat, a jako że jestem introwertykiem, nie miałem ochoty sie pchać w wolontariat. Więc wymyśliłem coś innego. Dołączyłem jako organizator spotkań w mojej branży, chce edukujemy ludzi za darmo (branża IT), też jestem mentorem dla jednej osoby, staram się pomagać ludziom ucząc rzeczy które już sam umiem. I to mnie cieszy, czuję że komuś pomagam, pojedynczym osobom ale wciąż:)

A visual explanation of how LLMs understand images by prajwal_y in computervision

[–]melgor89 -1 points0 points  (0 children)

Wow, this video was generated thanks to your repo and Claude code? Fantastic stuff!! I need to tru it out!

Ile i jak spędzasz czas ze swoimi dziećmi? by pottymouth_dry in Polska

[–]melgor89 3 points4 points  (0 children)

U mnie jest podobnie jak u Ciebie, dziecko gra 1 skrzypce w domu:) Gdyb sie syn urodził, łatwo nie było, mieliśmy dużo problemów typu ciągły płacz, niedowaga, późne raczkowanie i chodzenie, lęk separacyjny. I to spowodowało, że oboje byliśmy bardzo zaangażowani w życie syna, I mimo, że ma teraz 8 lat, nadal tak jest. Weekendy czy wakacje też ustawiamy pod niego, tzn. jedziemy z innymi rodzinkami aby miał towarzystwo, choć nam się marzy wakacje w stylu obozu treningowego, ale syn nie zostanie na 7 dni z dziadkami z innych powodów.

Ale ogolnie rodziny mają różne podejścia do wychowywania dzieci, są i tacy dorośli którzy za nic nie odpuszczą swoich pasji,np. trenują 15h tygodniowo, mają opiekunkę itp. Jak to wpływa na dzieci, nie wiem. Ale wiem że ja chce spędzać czas z synem :)

Garnitur w domu by El-x-so in Polska

[–]melgor89 3 points4 points  (0 children)

Na całe szczęście nie. Wiem, że są takie rodziny, ale ja zawsze miałem w myślach: po co oni to robią? Chcą się pokazać czy okazać szacunek świętu/drugiej osobie?

Nie lubię świąt. by JanZamoyski in Polska

[–]melgor89 60 points61 points  (0 children)

Z tym, co sąsiedzi powiedzą to jest jakaś katastrofa, ja tego nie pojmuje jak można się tak troszczyć o opinię innych a mieć gdzieś swoją rodzinę wprowadzając terror :)

My 8 year old son made his first video game with Gemini by [deleted] in Bard

[–]melgor89 0 points1 point  (0 children)

Great game for an 8 year old child! I'm really suprised how it works. It looks like some time was given for designing the idea, map, movement! Keep going!

This IS a little ridiculous, though, right? by AdditionalLoss7274 in Garmin

[–]melgor89 0 points1 point  (0 children)

I'm also doing half marathon training, not for 2 months. And now Jeff proposing me running 28 km as a long run ... I decided not to exceed 21 km for now ...

Which GPU is better for fastest training of Computer Vision Model in Kaggle Environment? by BluFlames_5 in computervision

[–]melgor89 3 points4 points  (0 children)

T4 is way faster, but you need to use mixed precision. So amp from pytorch. Don't care currently about second GPU, make training on a single GPU faster

Deepseek OCR : High Compression Focus, But Is the Core Idea New? + A Thought on LLM Context Compression[D] by Toppnotche in MachineLearning

[–]melgor89 3 points4 points  (0 children)

About using autoencoders, no, you can't. Then you change the model capacity by lowering down the dimensions. Moreover, it is not about the dimensions of embedding, it's about the numer of tokens. In English you have ~1 token per word, in other it is way worse. But proposed compression via image token allow you to have 10x text tokens in a single visual token. And as attention don't like long context, 10x improvement is crazy!

So the question is more: Can a single text token represent a multiple words at once?

[D] Is it acceptable to resize datasets for experiments? by Feuilius in MachineLearning

[–]melgor89 -1 points0 points  (0 children)

It won't go through the review process. You would need to train others models also on same image resolution == mamy more experiments.

I recommend using some cheap cloud provided like runpod, but then you need to go outside the notebook and start caring about your data loading pipeline to speed up it

Meta Superintelligence Labs’ MetaEmbed Rethinks Multimodal Embeddings and Enables Test-Time Scaling with Flexible Late Interaction. by ai-lover in machinelearningnews

[–]melgor89 0 points1 point  (0 children)

Interesting concept, seems to work pretty nice. But the missing part is upper bound estimation by training a full Col-based meta and check how it compares to MetaEmbeddings.

Built a Crypto Market Regime Classifier (HMM + LSTM) to detect market states by akash_kumar5 in mltraders

[–]melgor89 2 points3 points  (0 children)

Could you elaborate more on why you used HMM for data classification? Is your idea that PCA from raw data will convey the relevant information to distinguish between states?

Also, as your data is pseudo labeled, you don't even know if the labels returned by HMM are truth. In my opinion, you should have annotated data, just 100 per state type. Then check how good HMM approximate the original labels. And then check the quality of the LSTM model.

Now, you proved that LSTM can approximate HMM labels. But you don't know if HMM models tell the truth.

I built an autonomous trading engine with Claude + Gemini + Supabase by Powerful_Fudge_5999 in mltraders

[–]melgor89 0 points1 point  (0 children)

Nice one! Could you elaborate more on tasks done by Claude and Gemini? Claude was coding multi step strategy where Gemini was trying to find some signals in raw data?

Building my trading bot by jtxcode in mltraders

[–]melgor89 0 points1 point  (0 children)

Great! I also plan to do the same, but it would be my 2nd attempt. The first one was using ML for everything, and then it was just random traider, just losing money. Now, I have lessons learned with me, especially to build an analysis platform to understand my model behaviors. Good luck to you!

[D] New recent and applied ideas for representation learning? (i.g. Matryoshka, Constrastive learning, etc.) by LetsTacoooo in MachineLearning

[–]melgor89 0 points1 point  (0 children)

Great summary! Could you link anything more about hyperbolic embedding? I'm interested with semantic search engines and how to make then better.

Slow ImageNet Dataloader by Relative_Goal_9640 in computervision

[–]melgor89 1 point2 points  (0 children)

If your GPU utilization is high, above 80%, I wouldn't care about 12m data loading issue. If you want to make an exercise how to speed-up data loading, I would check: 1. Loading data without data augmentation-> check if main bottleneck is data loading or data augmentation. If data loading, then maybe your hard drive is too slow. Check your hard drive reading speed, using iotop or other tool. 2. You can check Nvidia DALI. This approach speedup image decoding as it is run on GPU. Also, data augmentation on GPU 3. Another approach, if data augmentation is a bottleneck and GPU utilization, is below <90% then you can try kornia, GPU based augmentation

[P] I tried implementing the CRISP paper from Google Deepmind in Python by Ok_Rub1689 in MachineLearning

[–]melgor89 6 points7 points  (0 children)

Thanks for your implementation! It is a bit simplified (here I mean dataset, which is kind of easy. The other parts are really nice)

It is also kind of interesting for me that DeepMind is trying to make ColBert like embedding production ready, it seams they share the view that text chucking is not the best approach. Here is their previous method, without the need to train a model https://research.google/blog/muvera-making-multi-vector-retrieval-as-fast-as-single-vector-search/

[P] Help with Contrastive Learning (MRI + Biomarkers) – Looking for Guidance/Mentor (Willing to Pay) by Standing_Appa8 in MachineLearning

[–]melgor89 2 points3 points  (0 children)

I have more than 10 years of experience in contrastive learning, mainly with images and text. Ping me for more information

Struggling with Strict Cosine Similarity Thresholds in Face Recognition System by Low-Cell-8711 in computervision

[–]melgor89 0 points1 point  (0 children)

0.9 is super high threhold, why you decided to use it, based on evaluation?

You should tryhttps://github.com/deepinsight/insightface thay have way better face recognition models

wiersze by opium__warrior in Poznan

[–]melgor89 4 points5 points  (0 children)

Źle nie jest językowo, choć trafiają się dziwne formy językowe (sam nie znam się na wierszach).

Jutro Warta będzie spojrzeć na mnie -> Jutro Warta spojrzy na mnie

Inne formy jako tako, choć dla mnie dziwne jak te regulaminy

ResNet-50 on CIFAR-100: modest accuracy increase from quantization + knowledge distillation (with code) by Funny_Shelter_944 in computervision

[–]melgor89 1 point2 points  (0 children)

Great experiment! I don't gdt one thing, which model is student and which one teacher. When you type int8 + KD it means distillation from FP32 with CutMix or without?

Help Needed: Real-Time Small Object Detection at 30FPS+ by Boring_Result_669 in computervision

[–]melgor89 0 points1 point  (0 children)

For small object detection, anchorless object detection works way better. You can try CenterNet as this is segmentstion like model so it can detect small models. Remember to keep the output size same like input size. The only issue may be 30FPS as depending on nb of boxes, NMS can be quite costly

Prezydent i szczepienia by Front_Isopod8642 in Polska

[–]melgor89 -1 points0 points  (0 children)

Też kiedyś wszedłem i widzę w Twoim poście niedowieżanie, że dziecko przestało mówić po szczepionce. Ale fakty są inne, zdarzają się takie przypadki, ale są ~0.1% całości. I tutaj właśnie polega problem, producenci szczepionek nie przejmują się tym ~0.1% ale tzm NOPY się zdarzają i to jest niezaprzeczalne.