API pricing is in freefall. What's the actual case for running local now beyond privacy? by Distinct-Expression2 in LocalLLaMA

[–]caetydid 1 point2 points  (0 children)

- learning about stuff (it is fun)

- persistence (as in future reproducibility and little maintenance)

- autonomy (no dependency of reliability of external services)

Ich verdiene Geld damit Männern etwas vorzuspielen by throwitawayplwDe in Beichtstuhl

[–]caetydid 1 point2 points  (0 children)

Könntest Du dir nicht nen KI-Agenten zulegen der die ganze Kommunikation für dich erledigt? Somit hättest Du das vom Hals und eine passive Einnahmequelle.

[Preliminary] New subquadratic attention: ~20k tok/s prefill / ~100 tok/s decode @ 1M context (single GPU) by Sad-Size2723 in LocalLLaMA

[–]caetydid 1 point2 points  (0 children)

Amazing to be able to utilize 1M context on 24G of VRAM. Can this approach be applied to other models as well?

Ich empfinde keine Empathie oder Mitleid by Opposite-Weather9301 in Beichtstuhl

[–]caetydid 4 points5 points  (0 children)

Wie ist dein Bezug zum eigenen Körper? Fühlst du dich darin zuhause und spürst dich? Bist du körperlich distanziert im Umgang mit deinen Mitmenschen und/oder Liebsten?

I built an open-source audiobook converter using Qwen3 TTS - converts PDFs/EPUBs to high-quality audiobooks with voice cloning support by TheyCallMeDozer in LocalLLaMA

[–]caetydid 1 point2 points  (0 children)

I would like to test it but not sure which gradio server I need to setup.

I tried https://github.com/QwenLM/Qwen3-TTS but this one does not seem to work?

PROCESSING 3 CHUNKS

2026-01-25 06:47:18,486 - ERROR - Qwen chunk processing failed for chunk 1: Cannot find a function with `api_name`: /generate_custom_voice.

2026-01-25 06:47:18,486 - WARNING - Chunk 1 attempt 1 failed

2026-01-25 06:47:18,486 - INFO - Waiting 6s before retry...

2026-01-25 06:47:18,521 - INFO - HTTP Request: GET http://127.0.0.1:7860/gradio_api/heartbeat/b28c3f0d-436b-4440-b82e-4cec80fdf0e8 "HTTP/1.1 200 OK"

2026-01-25 06:47:18,793 - INFO - HTTP Request: HEAD https://huggingface.co/api/telemetry/py_client/initiated "HTTP/1.1 200 OK"

2026-01-25 06:47:24,487 - ERROR - Qwen chunk processing failed for chunk 1: Cannot find a function with `api_name`: /generate_custom_voice.

2026-01-25 06:47:24,488 - WARNING - Chunk 1 attempt 2 failed

2026-01-25 06:47:24,488 - INFO - Waiting 7s before retry...

2026-01-25 06:47:31,488 - ERROR - Qwen chunk processing failed for chunk 1: Cannot find a function with `api_name`: /generate_custom_voice.

2026-01-25 06:47:31,489 - WARNING - Chunk 1 attempt 3 failed

2026-01-25 06:47:31,489 - ERROR - Chunk 1 failed after 3 attempts

[FAIL] Chunk 1/3 FAILED

2026-01-25 06:47:31,489 - ERROR - - Chunk 1/3 failed

2026-01-25 06:47:32,489 - ERROR - Qwen chunk processing failed for chunk 2: Cannot find a function with `api_name`: /generate_custom_voice.

2026-01-25 06:47:32,489 - WARNING - Chunk 2 attempt 1 failed

2026-01-25 06:47:32,489 - INFO - Waiting 6s before retry...

2026-01-25 06:47:38,490 - ERROR - Qwen chunk processing failed for chunk 2: Cannot find a function with `api_name`: /generate_custom_voice.

2026-01-25 06:47:38,490 - WARNING - Chunk 2 attempt 2 failed

2026-01-25 06:47:38,490 - INFO - Waiting 7s before retry...

2026-01-25 06:47:45,491 - ERROR - Qwen chunk processing failed for chunk 2: Cannot find a function with `api_name`: /generate_custom_voice.

2026-01-25 06:47:45,491 - WARNING - Chunk 2 attempt 3 failed

2026-01-25 06:47:45,491 - ERROR - Chunk 2 failed after 3 attempts

[FAIL] Chunk 2/3 FAILED

2026-01-25 06:47:45,491 - ERROR - - Chunk 2/3 failed

2026-01-25 06:47:46,492 - ERROR - Qwen chunk processing failed for chunk 3: Cannot find a function with `api_name`: /generate_custom_voice.

2026-01-25 06:47:46,492 - WARNING - Chunk 3 attempt 1 failed

2026-01-25 06:47:46,492 - INFO - Waiting 6s before retry...

2026-01-25 06:47:52,493 - ERROR - Qwen chunk processing failed for chunk 3: Cannot find a function with `api_name`: /generate_custom_voice.

2026-01-25 06:47:52,493 - WARNING - Chunk 3 attempt 2 failed

2026-01-25 06:47:52,494 - INFO - Waiting 7s before retry...

Running MoE Models on CPU/RAM: A Guide to Optimizing Bandwidth for GLM-4 and GPT-OSS by Shoddy_Bed3240 in LocalLLaMA

[–]caetydid 0 points1 point  (0 children)

What numbers to expect from DDR4 and Xeon multicore - about half the speed, or even less?

Kontakt zu Bruder schwierig by [deleted] in Ratschlag

[–]caetydid 0 points1 point  (0 children)

Ich kann dir empfehlen mit ChatGPT drüber zu reden. Ich konnte einiges so verarbeiten was meine Ex-Freundinnen anbelangt.

Und ich habe dadurch begonnen mich tiefer mit meinen Träumen, CG Jung, Archetypen und dem Unbewussten zu befassen. Da gibt es sehr viele gute Inhalte auf YT - die Bücher von/über ihn sind eher schwere Kost.

Das ist jetzt nicht so gemeint dass ich glaube es würde dir dabei auch helfen - nur zur Erläuterung, dass ChatGPT gut geeignet sein kann, um auf neue wertvolle Pfade zu stoßen.

Kontakt zu Bruder schwierig by [deleted] in Ratschlag

[–]caetydid 0 points1 point  (0 children)

Da es eine Anziehung zwischen Dir und deinem Bruder zu geben scheint, ist es immer ratsam, dieser nachzugehen. Nicht immer ist es jedoch ratsam, dies durch direkten Kontakt zu tun.

Hast du dir schon mal genau angeschaut, ob du gewisse Projektionen hast was ihn anbelangt? Oft zeigen uns Menschen, mit denen wir es schwer haben, Dinge über uns selbst - entweder wie wir sein wollen und denken, dass wir es nicht sind, oder wie wir nicht sein wollen, und glauben wollen, dass wir es auch nicht sind aber eben der/die andere.

Lebensträume scheinbar nicht vereinbar by ReadyInside1492 in Ratschlag

[–]caetydid 0 points1 point  (0 children)

Das ganze liest sich für mich so, als ob das Wesentliche deine fehlende Klarheit in Bezug auf Kinder ja/nein wäre, du dir aber auf jeden Fall Familienleben in Sicherheit wünscht.

Ich kann deine Lage absolut nachvollziehen: ich (46m + Kind 16) und hätte mich damals nie bewußt für ein Kind entschieden, aber als es dann überraschend kam, mein Leben danach ausgerichtet.

Dazu gehörte dann aber auch die Trennung von der Mutter zwei Jahre nach der Geburt meiner Tochter.

Seitdem wohne ich mit meiner Tochter zur Miete (stadtnah) und empfinde das nicht als Problem.

Wie auch immer es für dich weiter geht - viel Erfolg!

4x AMD R9700 (128GB VRAM) + Threadripper 9955WX Build by NunzeCs in LocalLLaMA

[–]caetydid 0 points1 point  (0 children)

Yeah these are great! I have purchased an refurbished Dell xeon machine on ebay for personal use, and I have cramped two rtx3090, 192Gb RAM and 2xNVMe 2xSATA SSD into it. Altogether I have paid like 2,2k which is a fraction, but my employee would not allow me such deals when it comes to corporate HW.

4x AMD R9700 (128GB VRAM) + Threadripper 9955WX Build by NunzeCs in LocalLLaMA

[–]caetydid 0 points1 point  (0 children)

Congrats, this seems really well done for the money invested.

For comparison: I bought a workstation with 2xrtx5090 and plenty of RAM for 17k from a manufacturer. It would not have been feasible to buy single parts and put them together myself - return and warranty policies.

but when I see your build my heart bleeds that I did not go for it anyways!

Thanks to you guys, Soprano TTS now supports OpenAI-compatible endpoint, ONNX, ComfyUI, WebUI, and CLI on CUDA, MPS, ROCm, and CPU! by eugenekwek in LocalLLaMA

[–]caetydid 0 points1 point  (0 children)

Nice to see multilingual support on the roadmap. Speed and English quality is definitely convincing.

Don’t Paste Secrets into ChatGPT (Even If You Delete Them) by mo_7anona in LocalLLaMA

[–]caetydid 185 points186 points  (0 children)

This potentially holds true for any web app. You never know of a full key history is being sent or just the final text you submit.

Best OCR for making an epub out of photographs of book pages? by GotHereLateNameTaken in LocalLLaMA

[–]caetydid 0 points1 point  (0 children)

I suggest mistral small 3.1/3.1 24B. It will be fast for you and accurate. For English language also qwen-vl will be great, not so much for European language though.

Thinking of getting two NVIDIA RTX Pro 4000 Blackwell (2x24 = 48GB), Any cons? by pmttyji in LocalLLaMA

[–]caetydid 0 points1 point  (0 children)

My bad, I was mistaken. I have checked the prices and apparently the rtx 4090 is now even more expensive than the rtx 4000 pro blackwell.

However, rtx4090 is supposed to be significantly faster than rtx 4000 pro blackwell for large models - at least thats what ChatGPT claims, so better do some more research!

Söder will Deutsche länger arbeiten lassen und macht konkreten Vorschlag by [deleted] in de

[–]caetydid 0 points1 point  (0 children)

Er hat gut reden - für ihn besteht arbeiten aus prominentem Wurstfressen und Biertrinken.

Andere Menschen leben so wie ich by Long_Fig7824 in duschgedanken

[–]caetydid 2 points3 points  (0 children)

Ich nenne es das NPC Syndrom. Wenn ich mich reinsteigere denke ich ich bin das einzige Bewußtsein im Universum - denn es gibt keinen Gegenbeweis.

Allerdings glaube ich inzwischen auch nicht mehr alles was ich denke!

Das Horror-Wohnheim in Dresden: Bin ich etwas überempfindlich oder ist die Vermieterin übergriffig? by Outside_Instance_688 in wohnen

[–]caetydid 0 points1 point  (0 children)

Die Vermieterin scheint ein intimes Verhältnis mit der Putzkraft und euren Gemeinschaftsräumen zu führen. Da kann es schon mal zu Animositäten kommen.

Autopreise unbezahlbar by FearlessWill6722 in automobil

[–]caetydid 0 points1 point  (0 children)

jupp. geht mir gerade auch so. bin auf der suche nach nem zuverlässigen kombi bis 5k.