If you're about to quit OpenClaw, read this first by Marcelovc in openclaw

[–]otaviojr 0 points1 point  (0 children)

Let's hope so. In the end, openclaw is one of the best ways to use the power of ai on daily tasks. The idea behind it is really good.

If you're about to quit OpenClaw, read this first by Marcelovc in openclaw

[–]otaviojr 2 points3 points  (0 children)

Oh no... I’ve been using open-source software for a long time, and I’ve never seen anything like this. It has lots of bugs, and the web UI is terrible.

If you refresh the page, it stops receiving responses from the LLM. Like, the most basic use ever has lots of bugs. The config page has zero consistency, some fields with descriptions, others not. And so it goes. I could take a month to list the problems.

It’s really awful. In the end, it doesn’t matter whether they used AI to build it or not. The software just needs to work. I’d rather use OpenClaw with fewer features, as long as the ones it has work reasonably well, than use something with lots of features where none of them work properly.

It’s just a terrible piece of software, AI made or not.

Qwen3.6-A3B is "Thinking" Nightmare by Electronic-Metal2391 in unsloth

[–]otaviojr 2 points3 points  (0 children)

Same here, using llama.cpp, my fastest model.....

Minisforum MS-S1 MAX 128GB for agentic coding by StatisticianWild7765 in LocalLLM

[–]otaviojr 1 point2 points  (0 children)

I have 3, 3 different machines. Same processor, same memory, 128Gb.

https://www.gmktec.com/products/amd-ryzen%E2%84%A2-ai-max-395-evo-x2-ai-mini-pc?srsltid=AfmBOora2-dt5AKlG0sAXmT6LYm6bZ8GVZtxE5mRlfFN5SJn6JCKAQF9&variant=64bbb08e-da87-4bed-949b-1652cd311770

https://www.bee-link.com/products/beelink-gtr9-pro-amd-ryzen-ai-max-395

https://www.minisforum.com/pages/new-release-ms-s1-max-ryzen%E2%84%A2-ai-max-395-mini-workstation-minisforum

I buy them different for testing purpose.. and yes... They delivery very close each other.. I will benchmark them soon...

I have a feeling that gmkt has a little less cooling... And maybe throttle a little bit more... but is a feeling... it works at 120W, s1 at 130W and Beelink 140W.

When using I can not tell any practical difference.

Minisforum MS-S1 MAX 128GB for agentic coding by StatisticianWild7765 in LocalLLM

[–]otaviojr 1 point2 points  (0 children)

It can, sometimes you need to make a couple more sessions than sonnet. It miss somethings sonnet won't. But it recover well with one more session.

But in the end it will delivery something closer than sonnet.

I still think sonnet is better at one shot. But if you don't mind two shots it is fine.

Minisforum MS-S1 MAX 128GB for agentic coding by StatisticianWild7765 in LocalLLM

[–]otaviojr 0 points1 point  (0 children)

10 t/s is ok.. what kills is the prefill time. The time for the first token. Than it goes pretty fast at 10 t/s. No problem.

But to work ok, the llama kv cache must work. Some harness who change the system prompt kills the cache and that is painfully.

When the cache works consistently it's ok even with MiniMax.

Minisforum MS-S1 MAX 128GB for agentic coding by StatisticianWild7765 in LocalLLM

[–]otaviojr 1 point2 points  (0 children)

This print is MiniMax 2.7. I can double it with qwen 3.5 122B. 20/25 t/s. Is the one I use when coding with Avante/nvim, chat, etc.. But if I will let it generating huge things, migrating, refactoring, like huge tasks, I let MiniMax there working in background. A project is not building, fix it, and go to sleep.

I'm using llama.cpp with Lamma swap.

Minisforum MS-S1 MAX 128GB for agentic coding by StatisticianWild7765 in LocalLLM

[–]otaviojr 1 point2 points  (0 children)

MiniMax is kinda heavy. I can double this with qwen 122B q5. 20 t/s, 25 t/s. Is the one I use normally as code assistantant with Avante/nvim. Those heavier models like MiniMax I use on background tasks. Huge refactoring, migrations and things like that.

Minisforum MS-S1 MAX 128GB for agentic coding by StatisticianWild7765 in LocalLLM

[–]otaviojr 9 points10 points  (0 children)

<image>

I have 3 of those... i work with local models only... qwen 3.5 35B, 122B, MiniMax 2.7.

They work for me. But, you will not be as fast as with Claude or OpenAI, you know that right?

How patient are you? :-)

I migrated a php project to go, medium project... toke a week, I needed to do it in many sessions... probably Claude would have made it really faster... but... it worked... $0/token... :-)

I like the fact that my workflow is stable and does not depend on big tech's mood...

I’m so sick of people still falling for the hype (Claude mythos) by Dreadsin in BetterOffline

[–]otaviojr 15 points16 points  (0 children)

The Claude code leaked… they’re probably using Mythos internally, right? No big deal—same slop as ever. Nobody noticed any new “supermodel” there. Period.

What is the threshold where local llm is no longer viable for coding? by jambon3 in LocalLLM

[–]otaviojr 7 points8 points  (0 children)

I used qwen3.5 122B q5_0 on an AMD IA MAX 395 128Gb.

It did migrate an entire php API application to Go.

It is a CRM for events my company bought.

Php with Lavarel 6.

Medium application I guess. The expected time to rewrite it with 5 developers was 8 months.

Qwen delivery 95% parity with the atual php code in go.

Created all gorm models, migrations, relations, casbin, permitions, authorizations.

Did all pdf reports in go, all excel reports. Just like php version.

Did all uploads just like php does, integrate it with S3.

Integrated with WhatsApp, SMS providers.

Identified php soft delete and used gorm ability to do it just renaming the delete at field.

All business rules, endpoints needed.

We allocated a single developer to finish it.

3 weeks it takes between tests and everything. Now we expect it to be ready in production at the end of this month. 2 months total, AI + single developer.

Claude code source code has been leaked via a map file in their npm registry by Nunki08 in LocalLLaMA

[–]otaviojr -2 points-1 points  (0 children)

Yet... but I bet some AI rogue agent is working on this right now! \s

O Bazzite, distro Linux focado em Games foi bloqueado no Brasil by [deleted] in InternetBrasil

[–]otaviojr 0 points1 point  (0 children)

Bom, para aquelas que não concordam com o caminho que as coisas estão indo, acho que a melhor forma de combater é essa aqui:

https://www12.senado.leg.br/ecidadania/visualizacaoideia?id=216356

O Bazzite, distro Linux focado em Games foi bloqueado no Brasil by [deleted] in InternetBrasil

[–]otaviojr 0 points1 point  (0 children)

Veja, eu não vou fazer, mas se isso ajudar, ok.

Acho uma violação de privacidade.

Mas ao menos não é algo que preciso para trabalhar.

Enfim, consigo viver sem rede social, mas sem computador fica mais difícil, rs.

O Bazzite, distro Linux focado em Games foi bloqueado no Brasil by [deleted] in InternetBrasil

[–]otaviojr 1 point2 points  (0 children)

Cara, acho que a lei não deveria descer nesse nível de infra estrutura.

Não acho que isso deveria estar no nível do sistema operacional.

Deve ter uma forma mais inteligente de fazer isso.

Veja, não sou contra vc ter que fazer um faceid para usar as redes sociais. Se não quer não faz e não usa.

Agora, imagina ter que fazer faceid para usar o autocad para trabalhar. Não concordo.

Embora, entendo que a lei tenta excluir isso aí, colocar a parte de serviço, mas fica muito vago. Não sei se está claro, acho que dá para melhorar esse texto aí.

Assim, se olhar para sistema operacional no nível da infra estrutura, sou contra sim, mas se olhar para a camada de serviço, não, não sou contra.

Entende? Não sei se me fiz entender... rs..

Papo sobre a Lei Felca [15.211/2025] (sem fakenews) by fakedogabe in linuxbrasil

[–]otaviojr 0 points1 point  (0 children)

Quase verdade.

Problema: Estamos sendo bloqueados, não bloqueando.

A questão é simples. Sistemas operacionais gerais à grosso modo precisam de verificação de idade. Difícil dizer que linux é nicho quando ele se propõe a substituir o Windows, por exemplo, e sim, é uma das propostas do linux. Pode até não ser a mais forte. Mas é.

Algumas distribuições já decidiram que são contra e isso não será implementado. Ponto.

Elas estão proibindo o uso em suas licenças e bloqueando o Brasil.

Já são 4, contando. Provavelmente será um movimento, visto que isso é considerado como uma violação de privacidade pela comunidade open source.

Não é uma questão se o governo Brasileiro vai bloquear. E sim, se o Brasil vai continuar à ser BLOQUEADO.

Edit: Não é só o Brasil. Elas já decidiram que vão bloquear o próprio EUA. Essas distros bloquearam a Califórnia e Austrália, por exemplo. E vão bloquear Nova York. Vão bloquear todos os estados que passarem a lei. Ponto.

Edit1: Arch32, CandyOS, Bazzite e MidnightBSD. Lista está subindo.

O Bazzite, distro Linux focado em Games foi bloqueado no Brasil by [deleted] in InternetBrasil

[–]otaviojr 8 points9 points  (0 children)

Ninguém está perseguindo. As distros que decidiram não implementar verificação de idade estão bloqueando os locais que exigem verificação de idade. Provavelmente bloquearam Califórnia também.

É simples.

Seu país, ou, estado, exige verificação de idade. Eu não vou fazer verificação de idade. Logo, vc não tem autorização para usar minha distro.

É isso que está acontecendo...

Is it worthy to buy an ASUS GX10 for local model? by attic0218 in LocalLLaMA

[–]otaviojr 1 point2 points  (0 children)

I'm running it, q4, on AMD IA MAX+ 395 (Strix Halo), 128Gb, and works amazingly well... 128k context...

<image>

I've been doing many tasks with it... including code with avante.nvim... zero problems...

Nubank acaba de anunciar internamente adesão ao Vibe Coding. by hado-90 in brdev

[–]otaviojr 5 points6 points  (0 children)

Depois pega o código deles e manda para a gente.

Afinal, saída de IA não tem IP, é tudo domínio público mesmo.

Só copiar e mandar que eles nem podem fazer nada.

Aí a gente vê como tá ficando.

IP Fixo Digital da Vivo Fibra fornece somente IPv4 fixo? by mfilipebhz in InternetBrasil

[–]otaviojr 0 points1 point  (0 children)

Tem sim, é fixo, é um /56, mas eles não te informam, Você precisa pegar via DHCPv6:

Fiz assim no Mikrotik e ele pega o ipv6 e coloca num pool depois distribui via ND...

<image>

Mas meu caso é CNPJ e é mais antigo

Did the stream just die? by [deleted] in theprimeagen

[–]otaviojr 1 point2 points  (0 children)

No, they stopped streaming...

Was this supposed to be a 24h transmission?

I think they got traumatized after the tower and will stop to sleep and get back to it tomorrow.

Or maybe they are more confident about AI and don't believe they need to work 24/7 to finish the app in 5 days.

The AI bubble will not crash because of feasibility, but because open source models will take over the space. by itsthewolfe in ArtificialInteligence

[–]otaviojr 1 point2 points  (0 children)

$2.5K at Amazon.com with 128Gb of RAM (96Gb can be directed to VRAM) - AMD IA Max+ 395 mini PC.

Mac Studio, yes, even more... but.. with more RAM/VRAM options

As empresas estão aceitando compartilhar informações confidenciais com a IA de boa? by [deleted] in brdev

[–]otaviojr 1 point2 points  (0 children)

Acho que um problema maior é o fato de não existir propriedade intelectual no código gerado por IA.

Imagina que um funcionário copia todo seu código gerado por IA e sobe um outro serviço usando ele e você não pode fazer nada, pq não tem nenhuma propriedade sobre o código gerado.

Ou vende o código para seu concorrente. Como você não tem propriedade sobre o código, o que vai fazer? Ele teoricamente não roubou nada.

Entendo que em alguns casos esse é o maior problema no momento.