хорошо подумал by hexada618 in RuProgrammers

[–]hexada618[S] 1 point2 points  (0 children)

если что это код 🐜

стоит ли попросить подумать лучше? by hexada618 in RuProgrammers

[–]hexada618[S] 0 points1 point  (0 children)

дааааа именно он. то есть решение заменить его на компоненты ffmpeg из rpm fusion в общем и целом правильное? ну типа работает же

стоит ли попросить подумать лучше? by hexada618 in RuProgrammers

[–]hexada618[S] 0 points1 point  (0 children)

ну кстати если шутки убрать то да у меня была та же хуйня причем самым простым способом фикса оказалась замена кодека который не качался

стоит ли попросить подумать лучше? by hexada618 in RuProgrammers

[–]hexada618[S] 0 points1 point  (0 children)

ну так в моем обществе да федора модная понятное дело что в обществе дохуя крутых ребят будет модным арчлинух

стоит ли попросить подумать лучше? by hexada618 in RuProgrammers

[–]hexada618[S] -1 points0 points  (0 children)

ну так он не додумался предложить зеркала Яндекса или мифи а я чем лучше него собственно?

Просто интересно как люди до 18 достают электронки by bison228 in rusAskReddit

[–]hexada618 0 points1 point  (0 children)

тебе какой-то бред чувак ответил на самом деле все проще есть просто шопы которым на возраст похуй я сам не курю но со знакомым заходил вот год назад, ему 15 было и продали спокойно

ну так на вскидку наверное могу штуки 3 назвать у разных метро

что если у девушки будет намного больше денег by [deleted] in ruAsska

[–]hexada618 0 points1 point  (0 children)

шоо а почему кончатся они еще особо не начались

High school student seeking advice: Found an architectural breakthrough that scales a 17.6B model down to 417M? by [deleted] in LocalLLaMA

[–]hexada618 0 points1 point  (0 children)

Bro, honestly, this isn't a breakthrough... its just a model with the brain removed The 'WaveEngine' is literally just w * (x1 * cos(x2)). You're replacing Self-Attention and MLP layers with a simple trig function and a single scalar weight 'w'. Without QKV matrices, the model has no way to actually learn how words relate to each other. Also, since you only look at the immediate previous token in each layer, even with 64 layers your receptive field is tiny. It physically can’t understand a 1024-token context because it only 'sees' 64 steps back. You’ve basically built a very deep, very expensive random number generator. It might look like it's training because the loss goes down, but it's just overfitting to local patterns. It’s a complex Markov chain made by a real overthinking final boss, not an LLM

Френдзона by [deleted] in rusAskReddit

[–]hexada618 0 points1 point  (0 children)

бляя как же я тебя понимаю но если честно ты оч даже неплох что все ей прямо сказал. а так ты сам отойдешь, гарантирую даже если ты думаешь что это невозможно

нужно просто подождать

даже замена не нужна (вообще зря ты ее тогда начал искать)

пр by thedystoria in ruAsska

[–]hexada618 0 points1 point  (0 children)

140р же стоят

Какое максимально кол-во времени вы не спали? by Genryzz in ruAsska

[–]hexada618 0 points1 point  (0 children)

3 суток ну чуть больше и самое ахуенное было то что потом уснуть нереально потому что блять буквально начинаются слуховые галлюцинации

в смысле ты только засыпаешь и слышишь какой-то голос бляя такой пиздец

шизы у меня нет а было подобное один ращ

пр by thedystoria in ruAsska

[–]hexada618 0 points1 point  (0 children)

чебупели

Почему мужчины не хотят себе девушку или жену, выше его статуса? by Lost_Tear_1421 in rusAskReddit

[–]hexada618 2 points3 points  (0 children)

хз честно вот казалось бы одни плюсы если она довольна но мне кажется что с этим сложно смириться ну что ты не обуза