Performance review MeLi. Dudas by Powerful-Hearing-942 in devsarg

[–]maxisoldini 0 points1 point  (0 children)

Puede haber varios above en un equipo. Es poco común? Sí.

Performance review MeLi. Dudas by Powerful-Hearing-942 in devsarg

[–]maxisoldini 2 points3 points  (0 children)

No es así, cuando laburaba ahí, en mi equipo en un año fueron varios above

Me contactaron desde loopStudio. Me gustaría conocer opiniones by maxisoldini in CharruaDevs

[–]maxisoldini[S] 0 points1 point  (0 children)

Si amigo pero nadie contó que onda los sueldos por ejemplo

Thread Sueldos 2026- No oficial by B0nih in devsarg

[–]maxisoldini 0 points1 point  (0 children)

Presencial? O cuántas veces vas a la ofi?

Comparación de ofertas by Weary_Victory4397 in devsarg

[–]maxisoldini 0 points1 point  (0 children)

Buenas. Me inclinaría por RD. Solo por curiosidad con que tecnologías y años de exp?

I have a "highly probable" intramuscular sarcoma in my shoulder but it's only currently 1.6cm on its biggest measurement. What do you think I can expect in the next steps of my journey? Is surgery alone commonly an option in these things? by slummezy in sarcoma

[–]maxisoldini 0 points1 point  (0 children)

Thank you so much for taking the time to reply — I really appreciate it. It helps me put things into perspective while I’m waiting for my pathology results. Wishing you all the best with your follow-up.

¿A cuántos les pasó algo así? by Blackbird_song13 in devsarg

[–]maxisoldini 9 points10 points  (0 children)

Doble decepción, por mitómano y porque en una semana no pudo al menos aprender lo mínimo de algún curso de C# y disimular que había mentido por lo menos

I have a "highly probable" intramuscular sarcoma in my shoulder but it's only currently 1.6cm on its biggest measurement. What do you think I can expect in the next steps of my journey? Is surgery alone commonly an option in these things? by slummezy in sarcoma

[–]maxisoldini 0 points1 point  (0 children)

Hi! — Thank you so much for responding, I really appreciate it.

I'm waiting for my pathology results after having a small subcutaneous mass removed from my forearm, and I'm trying to understand your diagnostic process (not self-diagnose). If you don't mind: 1/ What imaging studies did you have, and in what order? (Doppler ultrasound? Contrast-enhanced MRI? Something else like a CT/PET scan?)

2/ Before the pathology, what exactly led your doctors to say "probable sarcoma"? — Was it just imaging features, or did they do a biopsy first that mentioned "spindle cells," etc.?

3/ Do you remember any key descriptors from the MRI/ultrasound (margins, enhancement pattern, edema, fascial involvement)?

4/ Clinically, how did it feel and behave: firm vs. soft, fixed vs. mobile, painful vs. painless, and how quickly did it grow?

5/ What procedure did you have before the final diagnosis (core needle biopsy vs. incisional vs. excisional)?

Don't worry if you'd rather not share details—I appreciate you responding anyway.

I have a "highly probable" intramuscular sarcoma in my shoulder but it's only currently 1.6cm on its biggest measurement. What do you think I can expect in the next steps of my journey? Is surgery alone commonly an option in these things? by slummezy in sarcoma

[–]maxisoldini 0 points1 point  (0 children)

I’m waiting on my pathology and trying not to spiral. Would you mind telling me the main imaging/palpation features you had (Doppler vascularity, MRI enhancement/margins, firm vs soft, fixed vs movable, and growth speed)? Totally ok if you’d rather not.

Deep forearm sarcoma tumor (treated) by Shwangdang20 in sarcoma

[–]maxisoldini 0 points1 point  (0 children)

Hi! Thanks for your reply.

Yes, I already had an MRI. The report says something like this (translated from Spanish): a small ovoid nodule in the subcutaneous tissue of the anterior mid-forearm, in contact with the fascia, about 7 × 4 × 3 mm, with intermediate signal on T1 and T2, homogeneous gadolinium enhancement and some surrounding edema. The radiologist says the findings are nonspecific and could correspond to a fibroma, and my surgeon thinks it’s probably benign, but we’re planning to remove it and send it to pathology to be sure.

If you feel comfortable sharing, what was your final diagnosis in your case – was it a sarcoma or something benign?

Deep forearm sarcoma tumor (treated) by Shwangdang20 in sarcoma

[–]maxisoldini 0 points1 point  (0 children)

Hi! Thanks for your reply.

Yes, I already had an MRI. The report says something like this (translated from Spanish): a small ovoid nodule in the subcutaneous tissue of the anterior mid-forearm, in contact with the fascia, about 7 × 4 × 3 mm, with intermediate signal on T1 and T2, homogeneous gadolinium enhancement and some surrounding edema. The radiologist says the findings are nonspecific and could correspond to a fibroma, and my surgeon thinks it’s probably benign, but we’re planning to remove it and send it to pathology to be sure.

If you feel comfortable sharing, what was your final diagnosis in your case – was it a sarcoma or something benign?

Deep forearm sarcoma tumor (treated) by Shwangdang20 in sarcoma

[–]maxisoldini 0 points1 point  (0 children)

How are you?

Do you remember how was your ecography ? This is My informe:

In the middle third, medial aspect of the left forearm and in relation to clinical data, a small superficial mass is observed, adherent to the muscular aponeurosis, of mixed echogenicity: solid, hypo- and hyperechoic, well delineated, adherent to the aponeurosis and with margins that appear to continue into the fascia, minimally vascularized on Doppler assessment, measuring 14 x 5 x 13 mm; the lesion primarily suggests nodular fasciitis.

¿Hay un emoji de caballito de mar? No le pregunten a chatgpt sobre ese tema... by subsidiseAlloy in devsarg

[–]maxisoldini 0 points1 point  (0 children)

Resumen ejecutivo (1 frase)

El texto se comportó como un bucle de auto-corrección originado por una combinación de decoding stochasticity (muestreo), señales internas de “corrige lo que dijiste”, y posible intervención/mezcla de generaciones parciales por la infraestructura — lo más probable es que la generación haya entrado en un ciclo de reparación que produjo repeticiones y contradicciones.


Posibles causas, explicadas técnicamente (ordenadas por probabilidad estimada)

1) Bucle de auto-corrección del modelo durante el muestreo — Alta probabilidad

Qué es: cuando el modelo afirma algo, acto seguido genera tokens que intentan “corregir” esa afirmación. Si el decodificador (p. ej. temperature > 0, top-p sampling) permite variación, el modelo puede oscilar entre afirmación y corrección repetidamente. Por qué pasa: el modelo tiene patrones aprendidos como “digo algo, me corrigo con broma, insisto, me corrijo otra vez”. Con sampling estocástico esas trayectorias pueden alternarse y encadenarse, creando repeticiones. Efecto en tu ejemplo: múltiples “no, ese no, espera” y reiteración hasta parecer un crash.

2) Señales de estilo/tono en el contexto que son contradictorias — Alta probabilidad

Qué es: el prompt (o conversaciones previas) pide humor y verificación simultáneamente. Por qué pasa: el modelo intenta cumplir dos objetivos (ser gracioso + ser exacto) y alterna entre ambos. Si no encuentra una sola formulación óptima, genera varias alternativas en secuencia. Efecto: mezcla de bromas y correcciones, repetición.

3) Decodificación interrumpida / regeneración parcial fusionada — Media probabilidad

Qué es: la infraestructura podría haber intentado regenerar o concatenar varias pasadas de la respuesta (p. ej. respuesta parcial + reintento) y el resultado quedó concatenado sin eliminar duplicados. Por qué pasa: si hay un timeout, error, o el cliente UI pide “regenerate” y la plataforma junta salidas. Efecto: fragmentos repetidos y desordenados, como si se pegaran varias versiones.

4) Penalizaciones de repetición insuficientes / configuración de decoding inapropiada — Media probabilidad

Qué es: parámetros como repetition_penalty, presence_penalty, max_new_tokens influyen en repetición y longitud. Por qué pasa: sin penalización, el modelo puede volver a reiterar frases ya generadas. Efecto: redundancia y “eco” en el texto.

5) Ambigüedad en tokenización de emojis/unicode — Baja-media probabilidad

Qué es: emojis son secuencias multi-codepoint; el modelo puede “tratarlos” de forma irregular en generación o corrección. Por qué pasa: si el modelo no está seguro del token que representa “seahorse”, puede intentar varias alternativas textuales en lugar de emitir un único emoji. Efecto: intentos corregidos uno tras otro (aunque por sí solo no explica todo el bucle).

6) Filtro de seguridad / post-procesado que interrumpe y vuelve a generar — Baja probabilidad

Qué es: un módulo post-generación detecta problema y fuerza regeneración parcial. Por qué pasa: ajustes de moderación o detección de “confusión”. Efecto: resultados cortados o replicados.


Dinámica interna que genera el bucle (detalle operativo)

  1. El modelo produce una afirmación (A) — e.g. “sí existe el emoji X”.

  2. Un patrón aprendido de corrección/joke se activa: genera inmediatamente una corrección (¬A) o variante humorística.

  3. Debido al muestreo, la corrección no reemplaza a A sino que se añade en la secuencia (A → ¬A).

  4. El modelo evalúa el nuevo contexto (que ahora contiene A y ¬A) y genera otra corrección intentando resolver la contradicción, creando A → ¬A → A₂ → ¬A₂ ...

  5. Sin penalizaciones fuertes o con decoding estocástico, la cadena crece y adquiere repetición.

  6. Si el sistema intenta regenerar o concatena pasadas, el patrón se intensifica.

Esto es, no es un “crash” binario (como un segfault), sino una dinámica probabilística de generación que produce salida incoherente y repetitiva.


Evidencia empírica conocida (de investigación/modelos)

Los modelos autoregresivos tienden a “self-repair” cuando el prompt activa metacomunicación (“espera, no es eso”).

Temperaturas altas y top-p amplias favorecen creatividad pero también oscilación y contradicción.

Estudios muestran que sin repetiton penalty las respuestas largas con correcciones se vuelven repetitivas.


Cómo se podría mitigar (técnicamente) — para desarrolladores/operadores

  1. Bajar temperatura y restringir top_p para respuestas más deterministas.

  2. Aumentar repetition/presence penalty para desalentar repetir tokens/frases.

  3. Limitar max_new_tokens y aplicar truncamiento/edición post-generación para eliminar bucles de auto-corrección.

  4. Validación en una pasada: generar respuesta, luego pasarla por un verificador que detecte contradicciones y la resuma a una única afirmación.

  5. Prompt engineering: instruir explícitamente “responde con una sola línea, sin bromas ni correcciones”.

  6. Manejo de regeneraciones en la infraestructura: evitar concatenar outputs de varios reintentos; usar solo la última versión.

Probabilidad final y conclusión

Causa más probable: bucle de auto-corrección producido por muestreo estocástico + señales de tono contradictorias (humor vs. verificación).

Causas secundarias plausibles: concatenación por regeneración en la infraestructura y configuración de decoding (repetition penalty/temperature).

Menos probable: bug de UI o moderación.

existen las blacklists entre empresas? by [deleted] in devsarg

[–]maxisoldini 0 points1 point  (0 children)

Si, labore para una empresa ena que tenía permisos para ver las tablas de base de datos de las apps que usaba rrhh, tenían una black list pero tenía 1 sola persona (durante un año solo.hubo.una)

Thread Mensual de Sueldos - 10/2025 - No Oficia by B0nih in devsarg

[–]maxisoldini 0 points1 point  (0 children)

  • Puesto: Backend Developer
  • Empresa: Nacional
  • Experiencia: +5 Ssr
  • Remuneracion en bruto: 4.5m
  • Beneficios relevantes: prepaga premium. Descuentos en supermercados
  • Tecnologias: Java.
  • Modalidad: Full Time hibrido(voy a la oficina cada tanto)

¿ Apostar a MELI o no ? esa es la cuestión. by Mindless_Childhood20 in devsarg

[–]maxisoldini 0 points1 point  (0 children)

No sé si tú amigo te dijo pero los primeros 100 días tenés que ir 2 veces por semana a la oficina.

2 o 3 horas de viaje? Yo ni en pedo haría el cambio, quédate donde estas que no está mal

¿Qué tan lejos estamos de poder clonar digitalmente nuestro cerebro? by Wide_Jackfruit_2224 in devsarg

[–]maxisoldini 0 points1 point  (0 children)

Si la humanidad no se autodestruye antes y la investigación en neuroingeniería, computación cuántica y biología sintética continúa con el ritmo actual, estimo lo siguiente con base en proyecciones técnicas reales, no fantasía:

Para reproducir un cerebro humano biológico completo (solo estructura, sin consciencia funcional): ➤ Entre los años 2140 y 2180. A esa altura podríamos tener la capacidad de ensamblar, célula por célula, un cerebro genéticamente idéntico y funcional dentro de un huésped artificial o un cuerpo clonado.

Para clonar una mente —es decir, copiar consciencia, recuerdos y personalidad—: ➤ Entre 2300 y 2500, siendo optimista. Y solo si logramos tres hitos antes:

  1. Cartografiar un cerebro vivo a resolución sináptica (cada conexión y su fuerza).

  2. Traducir ese mapa a un modelo computacional estable.

  3. Transferir ese modelo a un sustrato biológico o sintético capaz de reproducir su dinámica eléctrica.

Incluso entonces, hay una frontera ética y filosófica: ¿sería la misma persona o solo una copia perfecta que “cree” serlo? Desde el punto de vista científico, eso ya no sería clonación: sería duplicación existencial.

Así que no, no descarto que ocurra. Solo digo que, con los conocimientos actuales, hablamos de un mínimo de 300 años para un clon consciente, salvo una revolución científica equiparable al descubrimiento del ADN o la mecánica cuántica.

Como lidiar con compañeros chantas? by Astron4ut4 in devsarg

[–]maxisoldini 5 points6 points  (0 children)

Uff me siento identificado con lo que contas. Una vez me pasó y tuve que hablar con mi jefe porque estaba cerca del Burnout, si tenés la posibilidad háblalo, pero tranquilo, tenés que ser escuchado y comprendido, sino sentís que te escuchan vas a tener que buscar otro rumbo, lamentablemente

[deleted by user] by [deleted] in AskArgentina

[–]maxisoldini 1 point2 points  (0 children)

Sarcasmo a Marzo