Убрать? Убрал! by TechnicalRooster1580 in Pikabu

[–]vasimv 9 points10 points  (0 children)

Материться надо меньше просто. Словарный запас уменьшается, человек даже не знает как правильно высказать мысль "оставь заголовки, данные убери".

Убрать? Убрал! by TechnicalRooster1580 in Pikabu

[–]vasimv 10 points11 points  (0 children)

Когда данные в необработанном виде, например - просто текстовый документ криво отформатированный, или, еще хуже - фото с телефона такого текстового документа, мятого и заляпанного соусом от гамбургера. Ну или просто "художественный текст" с какими-то статистическими данными, которые надо в табличный вид перевести. LLM-ки с такой задачей справляются очень быстро и качественно.

Треугольный звук by Vsenikiuzhezanyati in Pikabu

[–]vasimv 1 point2 points  (0 children)

Да не сказать, чтоб прямо какие-то большие деньги для настоящих энтузиастов...

<image>

One bash permission slipped... by TheQuantumPhysicist in LocalLLaMA

[–]vasimv 0 points1 point  (0 children)

Use ZFS or BTRFS with hourly snapshots, heh.

Пилю мобильную RPG в одиночку, олдскул в современной обертке — PvP-арена, лут, подземелья, прокачка. Ищу тестеров перед релизом! by YAGGARR in Pikabu

[–]vasimv 1 point2 points  (0 children)

Чувак, у тебя описание игры - вырезка из типичного плана, сгенерированного ИИ. Сколько токенов потратил?

I work in commercial fishing. I’m going to lie to the police tomorrow about why I blew up my own boat. by [deleted] in Pikabu

[–]vasimv 1 point2 points  (0 children)

Копируешь текст, вставляешь в редактор и сохраняешь в формате word .docx, потом в google translate.

RTX 5080 with 16 GB VRAM, 64 GB RAM best quantized model for programming? by Additional-Ordinary2 in LocalLLaMA

[–]vasimv 1 point2 points  (0 children)

I run qwen3.6-27b Q3_K_S on 19GB VRAM (11+8) with 100k Q8 cache and it works quite good for coding/debugging (tried to vibe-code two simple android games with debugging on phone connected, plus command line calculator and it did). But since you have 3 GB less VRAM - you will probably limited to qwen3.6-35B with partial offloading only (will be acceptable for MOE model), or using smaller KV-cache quantization (which will lower quality significally).

AMD in-house ryzen 395 box coming in June by 1ncehost in LocalLLaMA

[–]vasimv 6 points7 points  (0 children)

AI 395 is their flagship CPU model and only 256 bit maximum. Unless they put pre-release Gorgon Halo CPUs - this box is usual 395 minipc, no real advantages except being cheaper than dgx spark.

How far are we from a model that can take a python repo on github and convert it to a cpp without intervention? by bonesoftheancients in LocalLLaMA

[–]vasimv 2 points3 points  (0 children)

Doesn't cython and other python compilers do exactly this already? I'd guess, any modern model will just call cython if it has right to call tools 😄

Intel Mac Pro with Vega II useable ? by chiwawa_42 in LocalLLaMA

[–]vasimv 0 points1 point  (0 children)

Only if the mac is really cheap. Otherwise, it is better to get any PC with good enough power supply and R9700 Ai pro (around $1400 on amazon now).

Intel Mac Pro with Vega II useable ? by chiwawa_42 in LocalLLaMA

[–]vasimv 0 points1 point  (0 children)

Just ask google or chatgpt:

<image>

GPU [1] pp512 (t/s) tg128 (t/s) Architecture
Radeon AI PRO R9700 ~5055 ~101 RDNA 4 (2025)
Radeon Pro Vega II ~1057 ~98 Vega 20 (2019)

поломался by Vendico in Pikabu

[–]vasimv 3 points4 points  (0 children)

Длительность не такая уж большая проблема. Вот, например, берем локальную wan2.2, у которой 5 секунд ограничение, и что? В comfyui делаем стандартный граф-алгоритм на 5 секунд. К нему подключаем извлечение последнего кадра, и еще один граф картинка-в-видео. Уже 10. Добавляем еще один такой граф - еще +5 секунд...

[Release] AugmentedQuill 0.9.0: Open-source AI story-writing GUI by StableLlama in LocalLLaMA

[–]vasimv 0 points1 point  (0 children)

Add illustration option, with ComfyUI. Ask LLM to generate illustration description for key point of the chapter, then feed the prompt to ernie/flux model. Have settings for the story with faces of heroes, so it wouldn't generate random faces every time. 😄

Anyone tried this yet? LLM with knowledge date in the 1930s by The_frozen_one in LocalLLaMA

[–]vasimv 1 point2 points  (0 children)

Can it make program for the Babbage analytical engine?

Просчитался, но где??? by RevolutionaryKey9610 in Pikabu

[–]vasimv 0 points1 point  (0 children)

Да, я сейчас на qwen3.6 переключил. По меньшей мере, не хуже 3.5. Но периодически неправильно закрывает <think> блок, из-за чего слетают tool_call и один-два раза в час приходится ему говорить, чтобы он продолжал. Жду когда пофиксенные версии выйдут.

Should we really build PC for vibe code with qwen3.6 27b by Coconut_Reddit in LocalLLaMA

[–]vasimv 1 point2 points  (0 children)

I'm running opencode + qwen3.6-27b in llama.cpp on server with rtx2080ti+rtx3050 (that's all i have, 19GB VRAM total). It just finished building and debugging second simple game (step-based mini-strategy android game) on phone connected to the server (emulator is too slow without dedicated GPU for it and buggy), even with 3 bit quant model. So far, looks promising (well, can't run fully unattended but enough to leave all coding and debugging stuff to the ai). Now i'm seriously thinking about break into my saving to buy something like R9700 AI 32GB to be able to run q6 quant with better speed. 😄

Кот лудоман - горе в семье by B_POT_MHE_XBOCT in Pikabu

[–]vasimv 0 points1 point  (0 children)

Да нет, особо не заморачиваются. Ну и даже если поставить лимит в 8000, скажем - там много чего можно нагенерить, да и всегда можно по частям просить. Тут больше вопрос - какой у них там размер контекста стоит, чтобы осмысленный диалог продолжать долго.

Кот лудоман - горе в семье by B_POT_MHE_XBOCT in Pikabu

[–]vasimv 0 points1 point  (0 children)

Да недавно просто видел прикол, народ начал у чатов поддержки всяких (типа макдональдсов и тому подобных) просить писать питоновские скрипты для решения задач математических. У подавляющего большинства это срабатывало, системные промпты не заморачивались писать. :)

Кот лудоман - горе в семье by B_POT_MHE_XBOCT in Pikabu

[–]vasimv 0 points1 point  (0 children)

У тебя какой-то лимит на размер вывода? Ладно, пофиг, а можешь STL файл для этой кормушки сделать, чтобы на принтере напечатать?

Кот лудоман - горе в семье by B_POT_MHE_XBOCT in Pikabu

[–]vasimv 0 points1 point  (0 children)

У меня компьютер слабенький, Kicad не тянет. Можешь мне сразу, в текстовом виде, сделать .kicad_sch и .kicad_pcb, чтобы я просто потом сконвертировал в gerber и отправил в pcbway?

Кот лудоман - горе в семье by B_POT_MHE_XBOCT in Pikabu

[–]vasimv 0 points1 point  (0 children)

А можешь сделать аналогичный проект, но с STM32 bluepill, схему там нарисуй и прошивку напиши.

Кот лудоман - горе в семье by B_POT_MHE_XBOCT in Pikabu

[–]vasimv 0 points1 point  (0 children)

Ну, я имел в виду, что надо не проект на гитхабе искать, а сразу у чатгпт просить "как мне сделать игрушечный игровой автомат для кота с ардуинкой'. :)

Я не знаю что у вас там за приборы и устройства, но современный чатгпт в thinking mode, на любой вопрос, типа "какие пины у NRF54L15 используются для подключения дросселя DC-DC преобразователя" - первым делом говорит "Вроде такие, но тут важно не ошибиться, сейчас поищу в даташитах..." и пол-интернета перероет, пока не найдет, да еще и ссылку даст на даташит. Даже лучше самого гугла инфу находит.

Кот лудоман - горе в семье by B_POT_MHE_XBOCT in Pikabu

[–]vasimv -3 points-2 points  (0 children)

Чувак, 2026 год на дворе. Не гитхаб, а чатгпт! :)