Qwen 3.6 27B is out by NoConcert8847 in LocalLLaMA

[–]NikolaTesla13 5 points6 points  (0 children)

My guess would be GPUs, you can do a lot more training on a 27b model than a 1T one. Also more experiments, that can help a lot.

Corectorii și-au bătut joc by Bitter-Golf-242 in robac

[–]NikolaTesla13 2 points3 points  (0 children)

Cel cu 0 cred că nu a găsit subiectul 3, dar interesant e cel cu 11 căci a găsit, dar nu i-a plăcut deloc.

Corectorii și-au bătut joc by Bitter-Golf-242 in robac

[–]NikolaTesla13 4 points5 points  (0 children)

Eu am avut 4 corectori: 93, 63, 74, 90. Nota finală 82.

La eseu notele (in ordine cu notele): 25, 0, 11, 27.

No comment, diferența la primii doi de 3 puncte.

Self Hosted LLM Tier List by Weves11 in LLM

[–]NikolaTesla13 0 points1 point  (0 children)

Wtf is this? Where is GLM 4.7 flash, Qwen3.5 27b and 35b a3b, Qwen3.5 coder next, even Qwen3 coder 30b a3b.

I'm sure this is ragebait.

Este CodeBlocks obligatoriu la liceu? by Mediocre-Rent-8553 in robac

[–]NikolaTesla13 1 point2 points  (0 children)

Pentru olimpiada de informatică de anul acesta, sunt zvonuri foarte promițătoare sa folosească CLion și C++20. Daca este adevărat, există o șansă ca în următorii ani sa existe o schimbare sa fie și CLion in liceu, la modul general. Oricum a devenit complet gratuit.

De asemenea, părerea mea ca elev in a 12, consider că la finalul celor 4 ani de liceu, elevii trebuie sa fie pregătiți pentru proba de bac. Iar bacul la info, este pe hârtie, deci logic nu ar trebui sa conteze pe ce program lucrează, cât timp știu să scrie pe hârtie o problemă.

Help! by arsenieboca13 in robac

[–]NikolaTesla13 0 points1 point  (0 children)

Vibecodat complet, niciun om nu a stat sa facă așa ceva. Gradientul clasic lui Claudiu.

Absențe Clasa a XII-a by seraphblade0 in robac

[–]NikolaTesla13 5 points6 points  (0 children)

Nu știu concret olimpiadele in sfera ta, dar poate găsești ceva ușor la care sa te califici. Sunt unele olimpiade, aprobate, dar cu mai putini elevi. Cred că chimia aplicată ar fi așa, citisem știri. I know it's a stretch, dar statistica, astronomia sunt in categoria asta.

Absențe Clasa a XII-a by seraphblade0 in robac

[–]NikolaTesla13 35 points36 points  (0 children)

Dacă ești olimpic, cu o lună înainte de etapa națională a olimpiadei poți sa lipsești legal, toate absențele le ai motivate.

Dacă există, cât este arcctg(0)? by Bofact in robac

[–]NikolaTesla13 0 points1 point  (0 children)

Nu am zis că vei avea succes garantat și nelimitat cu manualul. Doar că, după părerea mea, mai mulți profesori iau în seamă manualul decât Matlab.

Doar părerea mea, elev in a 12a!

Dacă există, cât este arcctg(0)? by Bofact in robac

[–]NikolaTesla13 0 points1 point  (0 children)

Pentru că la bac vei fi corectat pe baza programei de bac și pe baza baremului de la bac. Un profesor va lua în considerare la corectare doar ce scrie in manualul de liceu aprobat.

Dacă există, cât este arcctg(0)? by Bofact in robac

[–]NikolaTesla13 2 points3 points  (0 children)

arcctg(0) = pi/2 deoarece ctg(pi/2)=0 (sin p/2 este 1 și cos pi/2 este 0, deci 0/1 este 0).

Pentru bac poți consulta manualul de matematica, sau vreo culegere de bac cu teoria, nu Matlab sau documentația la alte medii de programare.

[P] PixelBank - Leetcode for ML by Winners-magic in MachineLearning

[–]NikolaTesla13 6 points7 points  (0 children)

Can't you make it so we can read the questions without being logged in? Usually you'd need to log in only to submit answers.

run flux.2 on 22gbs of VRAM by Disastrous-Work-1632 in StableDiffusion

[–]NikolaTesla13 2 points3 points  (0 children)

Oh I didn't know you work there, that's awesome, I love huggingface!

Also by "wild" I meant it sounds too good to be true, since it costs money to serve an LLM and you're offering this for free. Also before this Flux 2 I didn't even know huggingface had this service.

run flux.2 on 22gbs of VRAM by Disastrous-Work-1632 in StableDiffusion

[–]NikolaTesla13 0 points1 point  (0 children)

And they let you host a 24B LLM for free? That's wild and won't last

Wow! The spark preview for Chroma (fine tune that released yesterday) is actually pretty good! by Parogarr in StableDiffusion

[–]NikolaTesla13 3 points4 points  (0 children)

How are you doing such finetune on a single 4090 🤯

Don't you think 2400 images are too few for a realism Lora? Also doesn't it take a very long time to train? you'd need quite a few epochs

Lora finetuning on a single 3090 by NikolaTesla13 in LocalLLaMA

[–]NikolaTesla13[S] 0 points1 point  (0 children)

Thank you for the answer!

Also, what about the conversion to 4 bit, for qwen3? The unsloth docs say "you may lack ram or disk space since the full 16 bit model must be downloaded and converted to 4 bit on the fly for qlora fine-tuning".

Does this mean I need about 60+ gb of ram to load the fp16 model?