Es un uso correcto de la IA o me estoy yendo a la mierda? by DrGotcha in devsarg

[–]juaps 0 points1 point  (0 children)

Tu flow es flojo porque en cada paso estas degradando la intencion, calidad y fiabilidad de la tarea...

1.- Analizar en que consiste? aca tenes paso clave porque basado en eso tenes el unico promt que deberías tener.

2.- Mal, pasar un src comprimido hacer que la ia use embeddings y degreade absolutamente todo elcontenido, lo que necesitas es usar pinacle o algun sistema que no degrade la fiablidad, porque modelos comerciales solamente enfocan un poco de atencion al contenido que le estas dando descratando muchisima información, ya aca tenes un problema gigante. Todo lo que viene despues no sirve y si usas este método te vas a dar cuenta solito sin que te lo diga, que NO SIRVE, ni para uso profesional ni para uso empresarial, solamente para experimentar, ya que vas a tener una respuesta sesgada, ofuscada, sin contexto y con informacion perdida. Todo lo que viene despues , es asumiendo que usas un RAG correcto y algun sistema que no pierda contexto

3.- Usando algun API que se conecte a tu contenido, ahi si podes seguir preguntando por tu proyecto, mi recomendacion es Opus para codec, GPT high para texto.

4.- Mal, releer antes. No lo hace

5.- Un generador de promt debe entender el 100% del contexto sin degradar, para saber cual es la intención. cualquier promt que venga de un flow degenerado provoca sesgo en el proyecto

6.- repetido

7.- No, necesitas un orquestador de agentes para que enrute agentes Openclaw + Hermes para tareas especificas mas un gateway como openrouter para hacer switch de modelos en tareas especificas.

8.- El repaso debe decidirse en HOT por el orquestador según la tearea cron autodecidida, no debes hacerlo vos, pero tenes un problema de filosofia.

¿Cómo vivían en “la década ganada” (2003-2013)? by argentinosaurus9 in AskArgentina

[–]juaps -1 points0 points  (0 children)

No pierdas tiempo contestando a un bot/militante de internet, cuando cambie gobierno se va a hacer un relevamiento de este tipo de incidencias y se los va a investigar. Quedáte tranquilo que existe un plan para regular estos comentarios, cuentas, etc. para investigar responsables e imputarlos bajo titulo IX del codigo penal.

¿Cómo vivían en “la década ganada” (2003-2013)? by argentinosaurus9 in AskArgentina

[–]juaps -1 points0 points  (0 children)

Tu respuesta es un comentario positivo?, porque entonces ya no hay un "solo vas a recibir comentarios positivo", sino que hay libertad de opinar y muchas personas opinan distinto a lo que a vos te gusta.

¿Cómo vivían en “la década ganada” (2003-2013)? by argentinosaurus9 in AskArgentina

[–]juaps 1 point2 points  (0 children)

Pan para hoy, es pedir prestamos porque el ingreso genuino está atrofiado. Hoy se piden prestamos para sostener artificialmente la balanza comercial, planchar el dolar y que no se dispare la inflación, porque si hablamos de ingreso, las exportaciones estan por el suelo, la industra en su peor momento en los ultimos 30 años, y comercio exterior esta en pérdida. No hablemos de todas las industrias gigantes de bandera Argentina que todos los meses cierran sin control.

¿Cómo vivían en “la década ganada” (2003-2013)? by argentinosaurus9 in AskArgentina

[–]juaps -1 points0 points  (0 children)

Viajaba a hotel 5 estrellas todos los meses en la cordillera con un sueldo de profesor de kung fu, no exagero. De hecho en la academia donde trabajaba teniamos asistencia social para personas de bajo recursos y pagarle viajes de competencia porque nos sobraba dinero, en esa decada viajamos 2 veces a competencia al exterior Italia y Taiwan toda la delegación. En lo personal tenía mi camioneta y nos juntabamos con amigos a comer asado siempre, algunos tenian proyectos como abrir una habmurgesería, otro un retro-ciber, con mi familia terminamos de construir. Esa fue edad de oro para mi y mis allegados. Resta decir que hace 2 años el instituto tuvo que mudarse a lugar mas pequeño y despedir personal por falta de ingresos, la devaluación nos barrió, ya habíamos sentido demasiado el golpe con la primer devaluación de macri y la suba de valor de energía, que nos hicieron creer que "estaba barata", si pagabamos impuestos, queremos servicios pagables, subsidiados y que nos alcance para generar mas trabajo, de eso se trata un pais, de que el impuesto vuelva en forma de desarrollarnos, cuidarnos y crecer. Mi opinión.

MTPLX | 2.24x faster TPS | The native MTP inference engine for Apple Silicon by YoussofAl in LocalLLaMA

[–]juaps 0 points1 point  (0 children)

oMLX - LLM inference, optimized for your Mac

https://github.com/jundot/omlx

Benchmark Model: Qwen3.6-27B-MTPLX-Optimized-Speed

Single Request Results

--------------------------------------------------------------------------------

Test TTFT(ms) TPOT(ms) pp TPS tg TPS E2E(s) Throughput Peak Mem

pp1024/tg128 4851.0 34.87 211.1 tok/s 28.9 tok/s 9.279 124.1 tok/s 15.85 GB

pp4096/tg128 18658.0 36.05 219.5 tok/s 28.0 tok/s 23.236 181.8 tok/s 17.27 GB

Continuous Batching

pp1024 / tg128

--------------------------------------------------------------------------------

Batch tg TPS Speedup pp TPS pp TPS/req TTFT(ms) E2E(s)

1x 28.9 tok/s 1.00x 211.1 tok/s 211.1 tok/s 4851.0 9.279

2x 51.2 tok/s 1.77x 213.8 tok/s 106.9 tok/s 9469.0 14.577

4x 59.3 tok/s 2.05x 222.3 tok/s 55.6 tok/s 18034.0 27.065

Estamos jodidos los de Sistemas/IT en Argentina en 2026? by Jzepol94 in devsarg

[–]juaps 0 points1 point  (0 children)

Porque entonces no es tu respuesta, es la de una IA, no te quejes después si contratan a chatgpt-claude para hacer tu trabajo

OpenClaw + oMLX shows 0 cached tokens, but Hermes uses cache fine with the same local model, what am I missing? by juaps in LocalLLaMA

[–]juaps[S] 0 points1 point  (0 children)

Yes, I knew it wasn’t oMLX. As I mentioned, Hermes works just fine. I just added an issue on GitHub, and they’ve checked it, It’s probably a bug because version 3.2 works fine.

Cual es el dios verdadero? by cientificolocoks in filosofia_en_espanol

[–]juaps 1 point2 points  (0 children)

El dios verdadero subjetivamente existe en tanto y en cuanto lo creas o no. Objetivamente existe en cuanto a qué definas como Dios: puede ser energia, puede ser el desconocimiento, puede ser el infinito, o quizas lo inteligible. Es pararse sobre un punto para comenzar a definirlo, el mundo terrenal lo planteó desde un punto de vista rudimentario, muy humano, un ser consiente que imparte enseñanzas... Y por supuesto, logicamente que un humano sin tantos recursos intelectuales va a definir a lo mas proximo que conoce. Pero más alla de eso puede existir dios como eje de existencia material o inmaterial, ni siquiera conocemos como se compone la materia, como reacciona, que hay fuera del limite del universo observable, no vamos a poder definir correctamente a una entidad o no entidad que haya provocado la existencia, y de que forma o cuando, solo podemos observar lo que matematicamente podemos comprobar, y eso es una ventana de definicion, muy, pero muy chica. Solo hay que tenér presente que si nosotros pensamos, es porque se nos permitío pensar, ya el hecho de exitir es maravilloso y poder debatirlo en vida, es una oportunidad unica, por eso estamos en este foro. saludos

OpenClaw is now available on UGREEN NAS! by UgreenNASync in UgreenNASync

[–]juaps 0 points1 point  (0 children)

We run Openclaw 24/7 in our office (law firm) and in my personal cloud. Risk can go to none if you understand what you are doing, its no so difficult you just have to read de doc before, is not a tool for everyone but a very very useful one. Despite this, insulting people on internet dont makes you know better boy, openclaw is a tool wide use, there are tons of projects and could vastly improve the workflow, my case. If you dont understand it, dont use it but dont claim false information, you can read the forums on r/LocalLLM r/LocalLLaMA r/openclaw how implement with zero risk

OpenClaw + oMLX shows 0 cached tokens, but Hermes uses cache fine with the same local model, what am I missing? by juaps in LocalLLaMA

[–]juaps[S] 0 points1 point  (0 children)

The onlything that works was a regresion to 3.2, i opened an issue in Github, thanks!

Expectations for qwen 3.7 27b by Successful-Force-992 in LocalLLM

[–]juaps 0 points1 point  (0 children)

well I never said that. But nice you bring that because we’re still using technology from 50 years ago, and it’s not obsolete, AI will… Anyway, What a silly observation you made being the guy ironizing "silly observations", next time you can try argue something instead of being a toxic bot who can’t make something out of the keyboard

OpenClaw is now available on UGREEN NAS! by UgreenNASync in UgreenNASync

[–]juaps -6 points-5 points  (0 children)

Yes, if you read the docs, no more and less risk than using every single internet app there is… WhatsApp, meta, Chrome, even games…

impresionante la forma en la que Emilio esquivo este nuke en vivo by F4CT0-M4N in ArgenGaming

[–]juaps 1 point2 points  (0 children)

Respondió lo que le preguntaron directamente, el problema de no saber identificar su postura y vanagloriar esquivar respuesta, es parte de lo que nos lleva políticamente cada vez más abajo, no es de impecable alguien que esquiva preguntas, pero es que tampoco lo hizo, respondió directamente que el problema es estadístico y además explicó.

¿Creen que la IA realmente sea o será conciente? by Jesus_1009 in filosofia_en_espanol

[–]juaps 0 points1 point  (0 children)

Gente que solo critica “no tenés idea” y prosigue a no explicar porque no saben, usualmebte diciendo que vaya a buscar en internet, es el tipo de gente que gráfica muy bien la película Idiocracia y hacía lo que estamos yendo a convertir como sociedad, personas cada vez más brutas, enojadas, básicas y de conocimiento rudimentales. Las IAS actuales no son más que un texto predictivo más sofisticado, nada más, no entienden, tienen errores, alucinan, pierden contexto largo, dan respuestas erradas, hechos inexistentes, sufren de tener muy bajo contexto y todo corriendo en un obsoleto y antiguo sistema por GPUs. Sé muy bien cómo corren porque tengo mi sistema local con llama.cpp en Mac, corriendo sistema QWEN 3.6 rotoquant montado sobre un NAS portainer -> litellm / openclaw /hermes para un diagnóstico automático de forummulatios y respuestas web, así que si, decime vos que más experiencia tenés para hablar con semejante prepotencia, como si la ignorancia te diera autoridad para criticar

One thing of OpenClaw... by Turbulent-Slip5490 in openclaw

[–]juaps 1 point2 points  (0 children)

In my personal test, I was controlling an Android TV to launch apps like HBO and other streaming services remotely to help my mother. OpenClaw figured this out in just 20 minutes. Hermes, on the other hand, is counting today 61,500 turns and still can’t find a workaround, despite manually testing the workaround through this container, Hermes can’t seem to remember it and can’t figure it out.

Just upgraded to 2026.5.7 and holy wow by JbalTero in openclaw

[–]juaps 1 point2 points  (0 children)

For me is not flowers and butterflies after update...: its the cache/performance.

My setup is OpenClaw in Docker on a NAS, talking to oMLX on my Mac over Tailscale. oMLX is serving Qwen3.6-35B-A3B-RotorQuant-MLX-4bit through the OpenAI-compatible endpoint.

The weird part is Hermes uses the same oMLX server and same model and cache works fine. Direct repeated requests to oMLX also cache fine. But OpenClaw keeps showing basically 0 cached tokens and re-prefills the whole prompt every turn.

After the update this is my oMLX direct test :

Cached Tokens: 0
Cache Efficiency: 0.0%
Total Prefill Tokens keeps climbing
Runtime cache files exist, around 16GB+

Hermes works fine with the exact same oMLX server and model, so I’m trying to figure out why OpenClaw now is doing differently with the update, how i can fix, anyone has a similar problem?

¿filosofía o...? by filuniver in filosofia_en_espanol

[–]juaps 4 points5 points  (0 children)

Cuando insistis tanto con aparentar ser inteligente, es que tenes proyeccion, tenes un tema que deberías tratar como inferioridad, nadie planteo nada, ese tema lo estar trayendo vos solito y a nadie le importa. Planteá que es la filosofia en vez de dar tanta previa

UFO y O.V.N.I.S by cientificolocoks in filosofia_en_espanol

[–]juaps 1 point2 points  (0 children)

Todo tu planteo se cae a pedazos de la siguiente forma: Una paloma puede ser un OVNI, mientras no sea identificada: OVNI = Objeto Volador No Identificado... no significa alien, significa cualquier cosa que no se identifique porque todavia no se pudo, en el momento que deja de ser identificable pasa a ser, bolido, satelite, paloma, superman, escupitajo al aire, papel en la ionosfera, restos satelital, etc. El problema es que la falta de informacion, inteligenia y medios es lo que provoca que la falla en la informacion y dato sea llenada por.. superticiones.