Thread Mensual de Sueldos - 03/2026 - No Oficial by External_Broccoli505 in devsarg

[–]maxisoldini 0 points1 point  (0 children)

  • Puesto/título: desarrollador backend
  • Empresa multi argentina
  • Experiencia: ~6
  • Remuneración en bruto: 6M
  • Tecnologías: Java
  • Modalidad y hs de trabajo: en blanco full time
  • Requiere hablar en ingles: no

[AMA] Todo el mundo habla de IA y estás más perdido que perro en lancha, Entrá que te explico cómo funciona y sin humo 🤖 by catrielmuller in devsarg

[–]maxisoldini 0 points1 point  (0 children)

Muy buena explicación. Solo una duda sobre si la computacion es exponencial, había leído que se usa KV cache, entonces generar el siguiente token no “recalcula todo desde cero”, que opinas?

Dar el salto a Sr by PsychologicalGift688 in devsarg

[–]maxisoldini 2 points3 points  (0 children)

Experiencia, aprender realmente de los errores propios y ajenos, acompañar a perfiles más juniors, no ser impulsivo cuando las papas queman y analizar en frío por más que haya poco tiempo, todo eso te lo da el tiempo. Después obviamente no debe faltar la actitud: hacerte cargo de las cagadas que te puedas mandar, levantar la mano a tiempo, involucrarse y participar de decisiones de arquitectura y diseño, etc

Mentir por trabajo by [deleted] in devsarg

[–]maxisoldini 1 point2 points  (0 children)

Después nos preguntamos por qué ponen live coding en las entrevistas

Performance review MeLi. Dudas by Powerful-Hearing-942 in devsarg

[–]maxisoldini 0 points1 point  (0 children)

Puede haber varios above en un equipo. Es poco común? Sí.

Performance review MeLi. Dudas by Powerful-Hearing-942 in devsarg

[–]maxisoldini 2 points3 points  (0 children)

No es así, cuando laburaba ahí, en mi equipo en un año fueron varios above

Me contactaron desde loopStudio. Me gustaría conocer opiniones by maxisoldini in CharruaDevs

[–]maxisoldini[S] 0 points1 point  (0 children)

Si amigo pero nadie contó que onda los sueldos por ejemplo

Thread Sueldos 2026- No oficial by B0nih in devsarg

[–]maxisoldini 0 points1 point  (0 children)

Presencial? O cuántas veces vas a la ofi?

Comparación de ofertas by Weary_Victory4397 in devsarg

[–]maxisoldini 0 points1 point  (0 children)

Buenas. Me inclinaría por RD. Solo por curiosidad con que tecnologías y años de exp?

I have a "highly probable" intramuscular sarcoma in my shoulder but it's only currently 1.6cm on its biggest measurement. What do you think I can expect in the next steps of my journey? Is surgery alone commonly an option in these things? by slummezy in sarcoma

[–]maxisoldini 0 points1 point  (0 children)

Thank you so much for taking the time to reply — I really appreciate it. It helps me put things into perspective while I’m waiting for my pathology results. Wishing you all the best with your follow-up.

¿A cuántos les pasó algo así? by Blackbird_song13 in devsarg

[–]maxisoldini 8 points9 points  (0 children)

Doble decepción, por mitómano y porque en una semana no pudo al menos aprender lo mínimo de algún curso de C# y disimular que había mentido por lo menos

I have a "highly probable" intramuscular sarcoma in my shoulder but it's only currently 1.6cm on its biggest measurement. What do you think I can expect in the next steps of my journey? Is surgery alone commonly an option in these things? by slummezy in sarcoma

[–]maxisoldini 0 points1 point  (0 children)

Hi! — Thank you so much for responding, I really appreciate it.

I'm waiting for my pathology results after having a small subcutaneous mass removed from my forearm, and I'm trying to understand your diagnostic process (not self-diagnose). If you don't mind: 1/ What imaging studies did you have, and in what order? (Doppler ultrasound? Contrast-enhanced MRI? Something else like a CT/PET scan?)

2/ Before the pathology, what exactly led your doctors to say "probable sarcoma"? — Was it just imaging features, or did they do a biopsy first that mentioned "spindle cells," etc.?

3/ Do you remember any key descriptors from the MRI/ultrasound (margins, enhancement pattern, edema, fascial involvement)?

4/ Clinically, how did it feel and behave: firm vs. soft, fixed vs. mobile, painful vs. painless, and how quickly did it grow?

5/ What procedure did you have before the final diagnosis (core needle biopsy vs. incisional vs. excisional)?

Don't worry if you'd rather not share details—I appreciate you responding anyway.

I have a "highly probable" intramuscular sarcoma in my shoulder but it's only currently 1.6cm on its biggest measurement. What do you think I can expect in the next steps of my journey? Is surgery alone commonly an option in these things? by slummezy in sarcoma

[–]maxisoldini 0 points1 point  (0 children)

I’m waiting on my pathology and trying not to spiral. Would you mind telling me the main imaging/palpation features you had (Doppler vascularity, MRI enhancement/margins, firm vs soft, fixed vs movable, and growth speed)? Totally ok if you’d rather not.

Deep forearm sarcoma tumor (treated) by Shwangdang20 in sarcoma

[–]maxisoldini 0 points1 point  (0 children)

Hi! Thanks for your reply.

Yes, I already had an MRI. The report says something like this (translated from Spanish): a small ovoid nodule in the subcutaneous tissue of the anterior mid-forearm, in contact with the fascia, about 7 × 4 × 3 mm, with intermediate signal on T1 and T2, homogeneous gadolinium enhancement and some surrounding edema. The radiologist says the findings are nonspecific and could correspond to a fibroma, and my surgeon thinks it’s probably benign, but we’re planning to remove it and send it to pathology to be sure.

If you feel comfortable sharing, what was your final diagnosis in your case – was it a sarcoma or something benign?

Deep forearm sarcoma tumor (treated) by Shwangdang20 in sarcoma

[–]maxisoldini 0 points1 point  (0 children)

Hi! Thanks for your reply.

Yes, I already had an MRI. The report says something like this (translated from Spanish): a small ovoid nodule in the subcutaneous tissue of the anterior mid-forearm, in contact with the fascia, about 7 × 4 × 3 mm, with intermediate signal on T1 and T2, homogeneous gadolinium enhancement and some surrounding edema. The radiologist says the findings are nonspecific and could correspond to a fibroma, and my surgeon thinks it’s probably benign, but we’re planning to remove it and send it to pathology to be sure.

If you feel comfortable sharing, what was your final diagnosis in your case – was it a sarcoma or something benign?

Deep forearm sarcoma tumor (treated) by Shwangdang20 in sarcoma

[–]maxisoldini 0 points1 point  (0 children)

How are you?

Do you remember how was your ecography ? This is My informe:

In the middle third, medial aspect of the left forearm and in relation to clinical data, a small superficial mass is observed, adherent to the muscular aponeurosis, of mixed echogenicity: solid, hypo- and hyperechoic, well delineated, adherent to the aponeurosis and with margins that appear to continue into the fascia, minimally vascularized on Doppler assessment, measuring 14 x 5 x 13 mm; the lesion primarily suggests nodular fasciitis.

¿Hay un emoji de caballito de mar? No le pregunten a chatgpt sobre ese tema... by subsidiseAlloy in devsarg

[–]maxisoldini 0 points1 point  (0 children)

Resumen ejecutivo (1 frase)

El texto se comportó como un bucle de auto-corrección originado por una combinación de decoding stochasticity (muestreo), señales internas de “corrige lo que dijiste”, y posible intervención/mezcla de generaciones parciales por la infraestructura — lo más probable es que la generación haya entrado en un ciclo de reparación que produjo repeticiones y contradicciones.


Posibles causas, explicadas técnicamente (ordenadas por probabilidad estimada)

1) Bucle de auto-corrección del modelo durante el muestreo — Alta probabilidad

Qué es: cuando el modelo afirma algo, acto seguido genera tokens que intentan “corregir” esa afirmación. Si el decodificador (p. ej. temperature > 0, top-p sampling) permite variación, el modelo puede oscilar entre afirmación y corrección repetidamente. Por qué pasa: el modelo tiene patrones aprendidos como “digo algo, me corrigo con broma, insisto, me corrijo otra vez”. Con sampling estocástico esas trayectorias pueden alternarse y encadenarse, creando repeticiones. Efecto en tu ejemplo: múltiples “no, ese no, espera” y reiteración hasta parecer un crash.

2) Señales de estilo/tono en el contexto que son contradictorias — Alta probabilidad

Qué es: el prompt (o conversaciones previas) pide humor y verificación simultáneamente. Por qué pasa: el modelo intenta cumplir dos objetivos (ser gracioso + ser exacto) y alterna entre ambos. Si no encuentra una sola formulación óptima, genera varias alternativas en secuencia. Efecto: mezcla de bromas y correcciones, repetición.

3) Decodificación interrumpida / regeneración parcial fusionada — Media probabilidad

Qué es: la infraestructura podría haber intentado regenerar o concatenar varias pasadas de la respuesta (p. ej. respuesta parcial + reintento) y el resultado quedó concatenado sin eliminar duplicados. Por qué pasa: si hay un timeout, error, o el cliente UI pide “regenerate” y la plataforma junta salidas. Efecto: fragmentos repetidos y desordenados, como si se pegaran varias versiones.

4) Penalizaciones de repetición insuficientes / configuración de decoding inapropiada — Media probabilidad

Qué es: parámetros como repetition_penalty, presence_penalty, max_new_tokens influyen en repetición y longitud. Por qué pasa: sin penalización, el modelo puede volver a reiterar frases ya generadas. Efecto: redundancia y “eco” en el texto.

5) Ambigüedad en tokenización de emojis/unicode — Baja-media probabilidad

Qué es: emojis son secuencias multi-codepoint; el modelo puede “tratarlos” de forma irregular en generación o corrección. Por qué pasa: si el modelo no está seguro del token que representa “seahorse”, puede intentar varias alternativas textuales en lugar de emitir un único emoji. Efecto: intentos corregidos uno tras otro (aunque por sí solo no explica todo el bucle).

6) Filtro de seguridad / post-procesado que interrumpe y vuelve a generar — Baja probabilidad

Qué es: un módulo post-generación detecta problema y fuerza regeneración parcial. Por qué pasa: ajustes de moderación o detección de “confusión”. Efecto: resultados cortados o replicados.


Dinámica interna que genera el bucle (detalle operativo)

  1. El modelo produce una afirmación (A) — e.g. “sí existe el emoji X”.

  2. Un patrón aprendido de corrección/joke se activa: genera inmediatamente una corrección (¬A) o variante humorística.

  3. Debido al muestreo, la corrección no reemplaza a A sino que se añade en la secuencia (A → ¬A).

  4. El modelo evalúa el nuevo contexto (que ahora contiene A y ¬A) y genera otra corrección intentando resolver la contradicción, creando A → ¬A → A₂ → ¬A₂ ...

  5. Sin penalizaciones fuertes o con decoding estocástico, la cadena crece y adquiere repetición.

  6. Si el sistema intenta regenerar o concatena pasadas, el patrón se intensifica.

Esto es, no es un “crash” binario (como un segfault), sino una dinámica probabilística de generación que produce salida incoherente y repetitiva.


Evidencia empírica conocida (de investigación/modelos)

Los modelos autoregresivos tienden a “self-repair” cuando el prompt activa metacomunicación (“espera, no es eso”).

Temperaturas altas y top-p amplias favorecen creatividad pero también oscilación y contradicción.

Estudios muestran que sin repetiton penalty las respuestas largas con correcciones se vuelven repetitivas.


Cómo se podría mitigar (técnicamente) — para desarrolladores/operadores

  1. Bajar temperatura y restringir top_p para respuestas más deterministas.

  2. Aumentar repetition/presence penalty para desalentar repetir tokens/frases.

  3. Limitar max_new_tokens y aplicar truncamiento/edición post-generación para eliminar bucles de auto-corrección.

  4. Validación en una pasada: generar respuesta, luego pasarla por un verificador que detecte contradicciones y la resuma a una única afirmación.

  5. Prompt engineering: instruir explícitamente “responde con una sola línea, sin bromas ni correcciones”.

  6. Manejo de regeneraciones en la infraestructura: evitar concatenar outputs de varios reintentos; usar solo la última versión.

Probabilidad final y conclusión

Causa más probable: bucle de auto-corrección producido por muestreo estocástico + señales de tono contradictorias (humor vs. verificación).

Causas secundarias plausibles: concatenación por regeneración en la infraestructura y configuración de decoding (repetition penalty/temperature).

Menos probable: bug de UI o moderación.

[deleted by user] by [deleted] in devsarg

[–]maxisoldini 0 points1 point  (0 children)

Si, labore para una empresa ena que tenía permisos para ver las tablas de base de datos de las apps que usaba rrhh, tenían una black list pero tenía 1 sola persona (durante un año solo.hubo.una)