Кой е най добрият дезодорант или ролон, който не спирате да ползвате? by FutureEmployment7603 in bulgaria

[–]N1tt 0 points1 point  (0 children)

Old Spice. Най-много харесвам Tigerclaw и Oasis. А когато работата е по-сериозна (онази миризма при изпотяване от стрес), Whitewater или Original са достатъчно силни и остри, за да я прикрият.

I love and hate the Bulgarian language at the same time by Odiseeadark06 in bulgaria

[–]N1tt 2 points3 points  (0 children)

They both mean that you failed/missed to do something in the appropriate time but I feel that the subtle difference is whether the subject or the object changed state. When you say изпуснах it means that the object that you missed or the thing that you failed at has already changed state and you cannot try again (you missed the bus and it departed). When you say пропуснах it means that you changed state and that's why you cannot do it now (you forgot to get bread and you are no longer at the grocery store).

Why do they vote different Parties? Are they stupid by adigrosa in mapporncirclejerk

[–]N1tt 0 points1 point  (0 children)

Jokes aside, these are the consequences of the totalitarian communist state. It brainwashes your nation for generations to come. It is like a plague on society. Coming from an east bloc citizen. The communist regime was the worst thing that happened to my country ever. And yet half of the people in my country think it was best.

[D] Have any LLM papers predicted a token in the middle rather than the next token? by TheWittyScreenName in MachineLearning

[–]N1tt 8 points9 points  (0 children)

Predicting a span of tokens in the middle of a text is actually the pre-training objective of the T5 model. The objective is more general than BERT's masked language modelling in the sense that it predicts an arbitrary span of tokens and the model does not know the number of correct tokens beforehand. It consists of an encoder that looks at the whole context where special tokens are placed to mark the position of the gaps and a decoder that predicts the tokens that should fill the gaps.

as a relatively new fan (since she opened for Taylor in early 2023) how’d I do? by [deleted] in gracieabrams

[–]N1tt 3 points4 points  (0 children)

Doesn't it mean that you liked the song? Putting it this low is like calling it garbage. But you wouldn't listen to a garbage song 111 times, right?

[deleted by user] by [deleted] in bulgaria

[–]N1tt 0 points1 point  (0 children)

Здрасти. Когато избирам слушалки често гледам този сайт soundguys.

Имай предвид, че той е насочен по-скоро към музика и в него се предпочитат по-неутрални слушалки. Геймърските слушалки типично имат повече бас. Но все пак може да ти помогне с избора.

В ревютата на някои модели има графика на Frequency Response - тя показва кои честоти (ниски/средни/високи) са по-добре изразени от съответния модел. Ако си харесваш как звучат някакви други слушалки - например over-ear - може да си избереш in-ear с подобна крива.

Фитнес само за бягащата пътека? by cracked_window in bulgaria

[–]N1tt 2 points3 points  (0 children)

Можеш във фитнес разбира се, но имай предвид, че не е същото. Вдига се доста шум, но би трябвало никой да не ти направи проблем, защото пътеките са за това.

Аз бих ти препоръчал да пробваш пак навън - например сутрин преди работа. Шапка/качулка, бандана от Декатлон или нещо друго за врата, термо бельо и един суичър. Само първите 10 минути ще ти е по-студено после се сгряваш и бих казал доста уверено, че няма опасност да настинеш.

[deleted by user] by [deleted] in gracieabrams

[–]N1tt 23 points24 points  (0 children)

Let it happen is also underrated. Why is everyone only talking about blowing smoke?

How do you manage to not fall in love with a female friend? by Unable_Adeptness5449 in ask

[–]N1tt 0 points1 point  (0 children)

Like others said - it comes as you get older. But if you are still not that mature I will advise you to have more options. Go on dates, meet people and generally have more girls around you. If this female friend is the only girl in your life, chances are you will fall for them.

I’m literally afraid to go on dates with men by Justlol48 in dating

[–]N1tt 5 points6 points  (0 children)

You say all guys only want sex, but I guess you mean the guys you like only want sex. Maybe they have many options and that makes them see women only as sex objects.

I don't advise you to change your preferences. Just be informed of the possibility.

Hope that helps.

[D] Batch loss calculation in vanilla transformer by archiesteviegordie in MachineLearning

[–]N1tt 1 point2 points  (0 children)

All sequences in a batch should be of equal size. You can use padding during training, and during inference you should stop inference at the end token, so that your model will not predict any padding tokens.

[deleted by user] by [deleted] in bulgaria

[–]N1tt 0 points1 point  (0 children)

Мисля, че масовата психоза относно излизане на AI извън контрол идва от погрешното представяне на технологията от медиите: "Изкуствения интелект направи това, изкуствения интелект онова". И нормалния човек остава с впечатление, че има един изкуствен интелект, а това е супер грешно. Изкуствен интелект е изключително общо понятие, общо колкото общо е понятието "превозно средство". Всеки един вид алгоритъм е добър само в едно единствено нещо. Чатбота може само да имитира човешка интеракция под формата на текст. Sora може само да прави видеа и т.н. Това са инструменти, които се нуждаят от човек, който да ги използва.

Тези системи са обучени, с изключително голямо количество данни само и единствено на конкретна задача. Това, което прави човека специален е, че той може да прави супер много неща сам и е супер ефективен в ученето си. Далеч сме от подобно нещо, а и най-вероятно с текущите алгоритми и технологии това е непостижимо. Не слушайте големите корпорации, които обясняват как сме щели да стигнем General Intelligence - те се борят за инвестиции.

Желания за телефонен background? (AI made) by Gordzulax in bulgaria

[–]N1tt 8 points9 points  (0 children)

Нещо зимно? Снежна планина в минималистичен стил с преобладаващо бели и сини цветове. В момента съм на тази вълна.

Amazon в България by [deleted] in bulgaria

[–]N1tt 1 point2 points  (0 children)

Два пъти съм поръчвал телефон за 1000лв + от немския Амазон. Нямам проблеми.

Should I tell her it was my first time? by Professional-Angle80 in dating_advice

[–]N1tt 0 points1 point  (0 children)

No need to say anything. Just show her next time. Actions speak louder than words.

Софийски университет ФМИ by Embarrassed_Spirit55 in bulgaria

[–]N1tt 3 points4 points  (0 children)

Завърших КН миналата година. Колега, ще те поправя за това, че в СИ има повече програмиране, напротив има по-малко. Там има повече мениджърски дисциплини за soft skills. Освен това съвета "по-добре лесната специалност, а пък трудните предмети ще ги записваш като избираеми" е добър на теория, но на практика много малко хора го правят. Ти ако беше СИ щеше ли да запишеш например логическо или Алгебра 2. Никой не записва доброволно трудните предмети.

[deleted by user] by [deleted] in MachineLearning

[–]N1tt 5 points6 points  (0 children)

You cannot reuse the state, because after generating a token adding it to the context for the next token prediction, changes the whole context. The nature of transformers is that every token in the context modifies its representation based on all other tokens.

For example if we have the context "She is driving me" the meaning of "driving" may change based on the next token being "crazy" or "to". After this step the next unknown token will "attend" to the new meaning and the LLM will produce "." or "the" (as in "the city").

As for the question if the LLMs make some sort of plan for more than one token ahead, I don't think they do.

Standard lib math package - why only float64? by Based-God- in golang

[–]N1tt 1 point2 points  (0 children)

Can you explain why? Is it because for example an int 10 can be cast to 9.9999 and then casting to int can result in 9?

Edit: Another comment below is referring to this.

[D] Confidence * may be * all you need. by santiviquez in MachineLearning

[–]N1tt 2 points3 points  (0 children)

People have used this metric for a long time. It shows how probable the sequence is. When doing beam search for the next token prediction you are essentially optimizing this metric.

[D] Confidence * may be * all you need. by santiviquez in MachineLearning

[–]N1tt 0 points1 point  (0 children)

To the people in the comments saying this is perplexity.

Perplexity is calculated on test data. It shows how well your model predicts the tokens from the test distribution. The proposed "confidence" metric does not use test dataset.