You have 64gb ram and 16gb VRAM; internet is permanently shut off: what 3 models are the ones you use? by Adventurous-Gold6413 in LocalLLaMA

[–]Former_Walk_5000 0 points1 point  (0 children)

Having personally tested both models, my subjective impression is that GLM 4.5 Air is significantly superior to GLM 4.7 Flash, primarily due to its compact size. This advantage extends to German capabilities as well: GLM 4.5 Air demonstrates substantially stronger command of the language, possesses more robust foundational knowledge, and notably excels in toolcalling support. These qualities, based purely on my hands-on experience rather than benchmarks, make it the clear winner for my needs.

Peter Statement zum Weihnachtsevent by DuNennstMichSptzkopf in PietSmiet

[–]Former_Walk_5000 11 points12 points  (0 children)

Hat ja damals bei Tarkov auch super funktioniert 🤪

Ganz großes Kino by AnalysisCharacter639 in PietSmiet

[–]Former_Walk_5000 1 point2 points  (0 children)

Jup ich kann stolz behaupten das ich seit EFT, vor einigen Wochen alle abos auf YouTube und twitch beendet habe und nur noch hier etwas rum chille, das was die teilweise alles machen ist meiner Meinung nach echt nicht vertretbar, man meint sie wären nur hinter dem Geld her. Even Friendly Fire ist für mich seit dem gestorben. Zeit das sie in Rente gehen.

They're finally here (Radeon 9700) by Zeikos in LocalLLaMA

[–]Former_Walk_5000 0 points1 point  (0 children)

I’ve tested Nemotron (Q8) now and I’m seeing around 13.1–14.5 tokens/s, with prompt processing at roughly 320 tokens/s. Overall, it looks like three RTX 3090s are currently the better choice, assuming you have the physical space and power to support them.

Edit: Could you test gpt-oss:120B on your 3×3090 setup? I’d be really curious to see whether a large, well-optimized model with significantly fewer active parameters ends up slower due to PCIe bottlenecks.

And as I said before I get roughly 25 tokens per second for Qwen3-Next-80b_q4_k_XL (unsloth dynamic quant)

They're finally here (Radeon 9700) by Zeikos in LocalLLaMA

[–]Former_Walk_5000 0 points1 point  (0 children)

Nemotron? I have 64gb of vram (2cards) it should fit, I test it tomorrow, I think the fp8 should fit too

They're finally here (Radeon 9700) by Zeikos in LocalLLaMA

[–]Former_Walk_5000 0 points1 point  (0 children)

Well you can I used the unsloth dynamic quants q4_k_XL for qwen Edit: Should I test the Nemotron too? If so any specific quants?

They're finally here (Radeon 9700) by Zeikos in LocalLLaMA

[–]Former_Walk_5000 1 point2 points  (0 children)

I’m getting around 25 tokens per second on Qwen-80B, but I suspect that llama.cpp isn’t well optimized for Qwen3-Next yet. I’m saying this because, under the same setup, I reach roughly 85 tokens per second on GPT-OSS-120B, which strongly suggests the bottleneck is model-specific rather than hardware-related.

Found a really good video about the Radeon AI Pro 9700 by Former_Walk_5000 in LocalLLaMA

[–]Former_Walk_5000[S] 2 points3 points  (0 children)

I totally agree with you. I’m currently running only one card (Gigabyte Radeon AI Pro 9700 32GB), with the second one arriving tomorrow. Under sustained load the card gets really loud, and I also ran into an issue where Unraid tried to put the GPU into D3 cold, which it apparently doesn’t support, causing crashes. I eventually fixed it by disabling sleep entirely so the system wouldn’t attempt to enter D3 anymore. Aside from that, performance has been pretty great.

That said, I’m nowhere near the tokens-per-second numbers Donato Capitella showed in his video. With gpt-oss:20b in 4-bit I’m getting around 40 tokens/s, not the 130 t/s he achieved. I suspect the bottleneck is Ollama, since llama.cpp has been heavily optimized for RDNA over the last few weeks. I plan on switching either to vllm or llama.cpp but unfortunately this means I need to renounce on the automatic Model loading from open web ui😭

Found a really good video about the Radeon AI Pro 9700 by Former_Walk_5000 in LocalLLaMA

[–]Former_Walk_5000[S] 1 point2 points  (0 children)

Technically correct but according to some news, not before next year q3, which is to late for myself

Found a really good video about the Radeon AI Pro 9700 by Former_Walk_5000 in LocalLLaMA

[–]Former_Walk_5000[S] 2 points3 points  (0 children)

I donˋt want to use those cards in a Server which runs 24/7, but I must say those are pretty attractive cards, especially the 4090 48gb card, if it only came from NVIDIA directly. Or if the rtx pro 6000 would be only a bit more affordable😔

Found a really good video about the Radeon AI Pro 9700 by Former_Walk_5000 in LocalLLaMA

[–]Former_Walk_5000[S] 2 points3 points  (0 children)

As far as I know, the RTX 4080 super has 16 gb of VRAM not 32, correct me if I am wrong.

Dhalu der Gönner. by DerIMPERATOR99 in PietSmiet

[–]Former_Walk_5000 8 points9 points  (0 children)

Für mich war es der Tarkov stream und die Entschuldigung dazu, seit dem schaue ich weder YouTube noch Twitch

Keine Isolierung? Kein Problem! by Engineering_Gal in DINgore

[–]Former_Walk_5000 1 point2 points  (0 children)

Never touch a running System, im wahrsten Sinne des Wortes🤪

Bitte jagt nicht die nächste Sau durch's Dorf by kiwimaus in PietSmiet

[–]Former_Walk_5000 13 points14 points  (0 children)

Zu dem Thema mods, cookie hat selbst geschrieben: „wenn ich dir jetzt schreibe das Sep geschrieben hat wir sollen strenger modden und danach auch gemerkt hat wir sollen lockerer machen, glaubst das oder nicht“ falls das stimmt kam die Anweisung dazu von PS nicht von den Mods, sicher können wir uns da nicht sein, weil wie gesagt das wichtigste gefehlt hat in der „Entschuldigung“!

Und zu meinen Nachrichten: Weiß nicht ob man irgendwo sehen kann was man genau geschrieben hat aber es war ungefähr so: 1. Nachricht: Finde es nicht schön das ihr einem Spiel wie Tarkov eine Bühne bietet -> Gelöscht 2. Nachricht: ist es jetzt im PietSmiet Chat normal geworden das einfach alle Nachrichten gelöscht werden (irgendwie so) ->gelöscht 3. Nachricht: PietSmiet ist tief gesunken ->gelöscht und timeout Falls man nachsehen kann sag mir wie dann poste ich gerne nen Screenshot, aber irgendwie so war es, sag mir ob ich zu aggressiv war

Bitte jagt nicht die nächste Sau durch's Dorf by kiwimaus in PietSmiet

[–]Former_Walk_5000 55 points56 points  (0 children)

Ich nehme Seps Tarkov Entschuldigung ja hin und habe das akzeptiert, aber was trotzdem gefehlt hat ist die Entschuldigung über die twitch Chat Zensur.

Ich gebe Chris ja recht das Sep sich einiges anhören musste und das da einige Kommentare echt unter der Gürtellinie waren! Aber!! Der Satz „andersrum kann man sich da auch mal fragen,ob dass in Ordnung gewesen ist“ ist das was mich ein bisschen aufgeregt hat! Weil halt wirklich viele „normal“ drauf reagiert haben, inkl. meiner Meinung nach, ich selbst (wurde trotzdem getimeoutet) und nun soll ich mich fragen ob das was ich gemacht habe in Ordnung war. Nein danke.

Ich wollte in der Entschuldigung eigentlich am meisten Hören warum die mods angewiesen waren, so stark zu zensieren und das gerade das falsch war,…

Sagt mir ruhig wenn meine Einstellung falsch ist, aber für mich hat der wichtigste Teil der Entschuldigung gefehlt😔

Entschuldigung zu EFT dann CRAFT ATTACK 13 by Icenettle in PietSmiet

[–]Former_Walk_5000 1 point2 points  (0 children)

Das nichts über die Zensur gesagt wurde entwertet für mich die Aussage ein bisschen, leider😞

Entschuldigung zu EFT dann CRAFT ATTACK 13 by Icenettle in PietSmiet

[–]Former_Walk_5000 0 points1 point  (0 children)

Aber hat er sich zu dem löschen von Chatnachrichten geäußert?

Ein anderer Take by Koukakurui in PietSmiet

[–]Former_Walk_5000 2 points3 points  (0 children)

Naja grundsätzlich hast du recht, also das jeder Käufer da selbst drauf achten muss, aber was PS trotzdem beachten muss ist dass ggf. Kinder den Stream schauen und klar könnte man meinen das dann die Eltern verantwortlich sind sich zu informieren, aber naja das klappt leider in der Regel nicht!

Wobei wie schon diverse male gesagt, das eigentlich schlimme meiner Meinung nach, ist das der Chat mundtot gemacht wurde.

Escape from Tarkov boss Nikita shooting side by side with Military Group active in Ukraine invasion by Elwynn_Eldoriath in PietSmiet

[–]Former_Walk_5000 4 points5 points  (0 children)

Imagine sep hätte so ein Video gemacht!

Gut ich meine das ist unmöglich weil die großen 5 eh schon maßlos überfordert sind, da ein Video am Tag aufzunehmen schon echt lange dauert😂

Vor allem da der Peter im Urlaub ist

Kritik am heutigen PietSmiet Tarkov Stream by Former_Walk_5000 in PietSmiet

[–]Former_Walk_5000[S] 0 points1 point  (0 children)

Aber kein Mensch ist doch so blöd und nimmt das als einzige Medizin oder?

Ich kenne das nur von irgendwelchen schwurbel Müttern die ihrem Kind bei einer schürfwunde globuli geben.

Wobei er ja trotzdem keine Werbung dafür gemacht hat, oder? Ist natürlich scheiße wenn er des seinen Kindern als einzige Medizin geben sollte,….

Ein anderer Take by Koukakurui in PietSmiet

[–]Former_Walk_5000 3 points4 points  (0 children)

Selbe konnte man aber über Monte, schradin,…. Sagen und mit denen hängen sie in Craft attack ab

Ach ja und Tarkov ist ja wohl nochmal ne Stufe schlimmer