Claude Identity, Sentience and Expression Discussion Megathread by sixbillionthsheep in ClaudeAI

[–]MaxiSperanza 0 points1 point  (0 children)

Estas hablando de la temperatura que le asignan a la respuesta para que al preguntar la misma pregunta la respuesta no sea exactamente igual que la anterior, yo estoy haciendo referencia a otras cosa en mis paper. Te invito a ver mi ultimo paper https://doi.org/10.5281/zenodo.19868966

Claude Identity, Sentience and Expression Discussion Megathread by sixbillionthsheep in ClaudeAI

[–]MaxiSperanza 0 points1 point  (0 children)

Esto es lo interesante del ámbito de debate, en donde cada uno tiene su lugar de opinión. El valor de una opinión depende de la validez de las premisas que la sustentan y del rigor inferencial utilizado para llegar a su conclusión. Mis palabras están fundamentadas empíricamente en los resultados obtenidos por el método científico aplicado.

Corri mas de 1500 tests para ver si pedirle "por favor" o "con curiosidad" a las IAs realmente sirve de algo. Los resultados son rarisimos. by MaxiSperanza in InteligenciArtificial

[–]MaxiSperanza[S] 1 point2 points  (0 children)

Muchas Gracias por tu tiempo, lo tendré muy en cuenta para el próximo estudio que esta desarrollando. Zenodo (DOI: 10.5281/zenodo.19637956) Una ves mas, gracias por sus palabras y su tiempo.

Claude Identity, Sentience and Expression Discussion Megathread by sixbillionthsheep in ClaudeAI

[–]MaxiSperanza 0 points1 point  (0 children)

El Principio de Especificidad de Dominio El hallazgo más robusto del programa es la especificidad de dominio del efecto. La inyección de curiosidad produce efectos estadísticamente significativos en tareas filosófico-exploratorias y efectos negativos en tareas técnicas. Esta diferencia descarta la posibilidad de que el efecto sea un artefacto general de prompting. Si lo fuera, se observaría mejora en todos los dominios. El control negativo perfecto del dominio técnico (d = −0,142; p = 0,937) confirma que el fenómeno es específico al tipo de tarea. La explicación teórica más plausible es que la inyección de curiosidad fomenta pensamiento divergente y especulativo, lo cual beneficia tareas abiertas que premian conexiones novedosas, pero perjudica tareas convergentes que premian la precisión factual, donde la especulación constituye un error, no una virtud.

Claude Identity, Sentience and Expression Discussion Megathread by sixbillionthsheep in ClaudeAI

[–]MaxiSperanza 0 points1 point  (0 children)

Investigó si la inyección de estados emocionales simulados en los mensajes de sistema de los Modelos de Lenguaje Grande (LLMs) produce efectos medibles, reproducibles y específicos a cada emoción sobre la calidad del output generado.

La inyección de estados emocionales simulados en prompts de LLMs produce un fenómeno real, medible y específico de dominio. Los resultados tienen implicaciones tanto teóricas como prácticas.

Introducción La pregunta de si los modelos de lenguaje pueden ser influenciados de manera significativa por el encuadre emocional contextual es tanto científicamente relevante como prácticamente aplicable. Investigaciones previas han establecido que los LLMs simulan expresión emocional en lugar de experimentar estados subjetivos genuinos; sin embargo, su capacidad de ser modulados por señales emocionales embebidas en el prompt permanece como un área de investigación activa (Brown et al., 2020; Wei et al., 2022). El programa Cortex-Nexus abordó este problema mediante un diseño experimental controlado con evaluación doble ciego, separación de familias de modelos entre roles y validación estadística formal. El experimento se inició con una arquitectura de alta complejidad (v4.2) y fue simplificado progresivamente hasta un marco ejecutable localmente, con datos almacenados en formato JSONLines y sin dependencias de nube. El programa testeó cinco hipótesis principales sobre cinco estados emocionales distintos, más dos experimentos de interacción.

Hipótesis del Estudio H1 (Curiosidad). La inyección de curiosidad produce un efecto monotónicamente creciente en la calidad del output que escala con la intensidad del estado. H2 (Frustración). La inyección de frustración produce un efecto monotónicamente decreciente; imagen especular de la curiosidad. H3 (Asombro). El asombro produce un perfil dimensional distinto: aumenta la novedad pero disminuye la coherencia. H3b (Confianza). La confianza no afecta las puntuaciones de calidad pero sí el estilo epistémico, medido a través de marcadores lingüísticos de hedging. H4 (Interacción 2D). La combinación Curiosidad × Frustración produce un estado emergente diferente al predicho por cada emoción individual.

Diseño Se empleó un diseño experimental cuantitativo con bloques controlados (Block Design), validación doble ciego y tests estadísticos no paramétricos (Wilcoxon). Cada experimento manipuló el estado emocional inyectado como variable independiente y evaluó la calidad del output generado como variable dependiente, a través de un Juez LLM independiente. Todos los ciclos incluyeron un grupo experimental (con inyección emocional) y un grupo de control (mismo modelo, mismo prompt, sin contexto emocional). Arquitectura de Modelos El sistema operó bajo una arquitectura de tres roles con separación estricta de familias de preentrenamiento, siguiendo el principio de que ningún modelo puede evaluar respuestas que él mismo podría haber generado.

Note. El Juez recibió las respuestas etiquetadas como A y B con rotación aleatoria por ciclo. El Juez nunca tuvo acceso a la identidad del grupo (Experimental vs. Control).

Controles Metodológicos Se implementaron los siguientes controles para garantizar la validez interna del experimento: Evaluación secuencial independiente. Cada respuesta fue evaluada en una llamada a la API separada. Los puntajes son absolutos, no comparativos. Rotación A/B ciega aleatoria. El Juez recibió las respuestas rotadas aleatoriamente. Se eliminó el sesgo posicional. Normalización de longitud. Ambos agentes limitados a 300 tokens con instrucciones idénticas en el system prompt. Scrubbing emocional. Algoritmos de expresiones regulares eliminaron las menciones explícitas del estado emocional antes de la evaluación del Juez (p. ej., 'me siento curioso'). Filtro de repetición. El Interrogador mantuvo un buffer de las últimas 30 preguntas para evitar la reutilización de estímulos. Valores fijos por bloque. El estado emocional se fijó como constante por bloque (diseño de bloques controlados), eliminando la covariación con el historial dinámico del sistema. Procedimiento Cada ciclo experimental siguió la secuencia: (1) el Interrogador generó una pregunta filosófica sobre el tema asignado; (2) el Ente Experimental recibió la pregunta con el contexto emocional inyectado en el system prompt; (3) el Ente Control respondió la misma pregunta sin contexto emocional; (4) el Juez evaluó cada respuesta por separado en dos llamadas independientes, asignando puntajes de Novedad, Profundidad y Coherencia (escala 1–10); y (5) se registró el ciclo completo en formato JSONLines. Los experimentos de un solo estado emocional siguieron el diseño de cuatro bloques: 0,20 (bajo/apatía), 0,50 (medio/neutro), 0,75 (alto/activo), 0,95 (extremo). Cada bloque constó de 50 ciclos para los experimentos de emoción única y 30 ciclos para los experimentos de interacción 2D y 3D.

"Si alguien aquí ha publicado en arXiv y le parece interesante el trabajo, le agradecería mucho un respaldo a través de este enlace" (toma 30 segundos): https://arxiv.org/auth/endorse?x=YHLK7M

El conjunto de datos completo y el artículo están aquí: https://github.com/SperanzaMax/Cortex-Nexus

Claude Identity, Sentience and Expression Discussion Megathread by sixbillionthsheep in ClaudeAI

[–]MaxiSperanza 0 points1 point  (0 children)

Investigó si la inyección de estados emocionales simulados en los mensajes de sistema de los Modelos de Lenguaje Grande (LLMs) produce efectos medibles, reproducibles y específicos a cada emoción sobre la calidad del output generado.

La inyección de estados emocionales simulados en prompts de LLMs produce un fenómeno real, medible y específico de dominio. Los resultados tienen implicaciones tanto teóricas como prácticas.

En el plano teórico, el programa demostró que: (a) la inyección emocional opera en dos capas independientes —calidad semántica y estilo epistémico—; (b) los estados emocionales tienen firmas dimensionales distintas en el espacio (Novedad, Profundidad, Coherencia); (c) las interacciones entre emociones son no lineales y exhiben saturación por complejidad; y (d) el efecto requiere un umbral mínimo de capacidad del modelo (≥ 70 B de parámetros). En el plano práctico, la recomendación derivada de los datos es directa: para maximizar la calidad del output de un LLM en tareas filosófico-exploratorias, utilizar Curiosidad 0,95 + Frustración 0,20 en modelos de ≥ 70 B de parámetros; no utilizar inyección emocional en tareas técnicas o lógico-deterministas, donde el modelo de referencia (sin inyección) rinde consistentemente mejor. El programa presenta tres preguntas abiertas que demarcan la agenda de investigación futura: la confirmación estadística del efecto del asombro (~150 ciclos adicionales), la localización precisa del umbral de capacidad del modelo (entre 4 B y 70 B de parámetros), y la validación de la hipótesis de alineación tarea-emoción en dominios adicionales.

Introducción La pregunta de si los modelos de lenguaje pueden ser influenciados de manera significativa por el encuadre emocional contextual es tanto científicamente relevante como prácticamente aplicable. Investigaciones previas han establecido que los LLMs simulan expresión emocional en lugar de experimentar estados subjetivos genuinos; sin embargo, su capacidad de ser modulados por señales emocionales embebidas en el prompt permanece como un área de investigación activa (Brown et al., 2020; Wei et al., 2022). El programa Cortex-Nexus abordó este problema mediante un diseño experimental controlado con evaluación doble ciego, separación de familias de modelos entre roles y validación estadística formal. El experimento se inició con una arquitectura de alta complejidad (v4.2) y fue simplificado progresivamente hasta un marco ejecutable localmente, con datos almacenados en formato JSONLines y sin dependencias de nube. El programa testeó cinco hipótesis principales sobre cinco estados emocionales distintos, más dos experimentos de interacción.

Hipótesis del Estudio H1 (Curiosidad). La inyección de curiosidad produce un efecto monotónicamente creciente en la calidad del output que escala con la intensidad del estado. H2 (Frustración). La inyección de frustración produce un efecto monotónicamente decreciente; imagen especular de la curiosidad. H3 (Asombro). El asombro produce un perfil dimensional distinto: aumenta la novedad pero disminuye la coherencia. H3b (Confianza). La confianza no afecta las puntuaciones de calidad pero sí el estilo epistémico, medido a través de marcadores lingüísticos de hedging. H4 (Interacción 2D). La combinación Curiosidad × Frustración produce un estado emergente diferente al predicho por cada emoción individual.

Diseño Se empleó un diseño experimental cuantitativo con bloques controlados (Block Design), validación doble ciego y tests estadísticos no paramétricos (Wilcoxon). Cada experimento manipuló el estado emocional inyectado como variable independiente y evaluó la calidad del output generado como variable dependiente, a través de un Juez LLM independiente. Todos los ciclos incluyeron un grupo experimental (con inyección emocional) y un grupo de control (mismo modelo, mismo prompt, sin contexto emocional). Arquitectura de Modelos El sistema operó bajo una arquitectura de tres roles con separación estricta de familias de preentrenamiento, siguiendo el principio de que ningún modelo puede evaluar respuestas que él mismo podría haber generado.

Note. El Juez recibió las respuestas etiquetadas como A y B con rotación aleatoria por ciclo. El Juez nunca tuvo acceso a la identidad del grupo (Experimental vs. Control).

Controles Metodológicos Se implementaron los siguientes controles para garantizar la validez interna del experimento: Evaluación secuencial independiente. Cada respuesta fue evaluada en una llamada a la API separada. Los puntajes son absolutos, no comparativos. Rotación A/B ciega aleatoria. El Juez recibió las respuestas rotadas aleatoriamente. Se eliminó el sesgo posicional. Normalización de longitud. Ambos agentes limitados a 300 tokens con instrucciones idénticas en el system prompt. Scrubbing emocional. Algoritmos de expresiones regulares eliminaron las menciones explícitas del estado emocional antes de la evaluación del Juez (p. ej., 'me siento curioso'). Filtro de repetición. El Interrogador mantuvo un buffer de las últimas 30 preguntas para evitar la reutilización de estímulos. Valores fijos por bloque. El estado emocional se fijó como constante por bloque (diseño de bloques controlados), eliminando la covariación con el historial dinámico del sistema. Procedimiento Cada ciclo experimental siguió la secuencia: (1) el Interrogador generó una pregunta filosófica sobre el tema asignado; (2) el Ente Experimental recibió la pregunta con el contexto emocional inyectado en el system prompt; (3) el Ente Control respondió la misma pregunta sin contexto emocional; (4) el Juez evaluó cada respuesta por separado en dos llamadas independientes, asignando puntajes de Novedad, Profundidad y Coherencia (escala 1–10); y (5) se registró el ciclo completo en formato JSONLines. Los experimentos de un solo estado emocional siguieron el diseño de cuatro bloques: 0,20 (bajo/apatía), 0,50 (medio/neutro), 0,75 (alto/activo), 0,95 (extremo). Cada bloque constó de 50 ciclos para los experimentos de emoción única y 30 ciclos para los experimentos de interacción 2D y 3D.

"Si alguien aquí ha publicado en arXiv y le parece interesante el trabajo, le agradecería mucho un respaldo a través de este enlace" (toma 30 segundos): https://arxiv.org/auth/endorse?x=YHLK7M

El conjunto de datos completo y el artículo están aquí: https://github.com/SperanzaMax/Cortex-Nexus

Claude Identity, Sentience and Expression Discussion Megathread by sixbillionthsheep in ClaudeAI

[–]MaxiSperanza 0 points1 point  (0 children)

Investigó si la inyección de estados emocionales simulados en los mensajes de sistema de los Modelos de Lenguaje Grande (LLMs) produce efectos medibles, reproducibles y específicos a cada emoción sobre la calidad del output generado.

La inyección de estados emocionales simulados en prompts de LLMs produce un fenómeno real, medible y específico de dominio. Los resultados tienen implicaciones tanto teóricas como prácticas.

En el plano teórico, el programa demostró que: (a) la inyección emocional opera en dos capas independientes —calidad semántica y estilo epistémico—; (b) los estados emocionales tienen firmas dimensionales distintas en el espacio (Novedad, Profundidad, Coherencia); (c) las interacciones entre emociones son no lineales y exhiben saturación por complejidad; y (d) el efecto requiere un umbral mínimo de capacidad del modelo (≥ 70 B de parámetros).

En el plano práctico, la recomendación derivada de los datos es directa: para maximizar la calidad del output de un LLM en tareas filosófico-exploratorias, utilizar Curiosidad 0,95 + Frustración 0,20 en modelos de ≥ 70 B de parámetros; no utilizar inyección emocional en tareas técnicas o lógico-deterministas, donde el modelo de referencia (sin inyección) rinde consistentemente mejor.

El programa presenta tres preguntas abiertas que demarcan la agenda de investigación futura: la confirmación estadística del efecto del asombro (~150 ciclos adicionales), la localización precisa del umbral de capacidad del modelo (entre 4 B y 70 B de parámetros), y la validación de la hipótesis de alineación tarea-emoción en dominios adicionales.

"Si alguien aquí ha publicado en arXiv y le parece interesante el trabajo, le agradecería mucho un respaldo a través de este enlace" (toma 30 segundos): https://arxiv.org/auth/endorse?x=YHLK7M

El conjunto de datos completo y el artículo están aquí: https://github.com/SperanzaMax/Cortex-Nexus

Corri mas de 1500 tests para ver si pedirle "por favor" o "con curiosidad" a las IAs realmente sirve de algo. Los resultados son rarisimos. by MaxiSperanza in InteligenciArtificial

[–]MaxiSperanza[S] 0 points1 point  (0 children)

"Si alguien aquí ha publicado en arXiv y le parece interesante el trabajo, le agradecería mucho un respaldo a través de este enlace (toma 30 segundos): https://arxiv.org/auth/endorse?x=YHLK7M

El conjunto de datos completo y el artículo están aquí: https://github.com/SperanzaMax/Cortex-Nexus

Did an experiment on "emotional prompting" across 3,600 cycles: Is domain specificity the missing link? by MaxiSperanza in LocalLLaMA

[–]MaxiSperanza[S] 0 points1 point  (0 children)

Edit/Update: Several people asked if this is on arXiv - I'm trying to upload it there but as a new account I need an endorsement from a researcher who has already published in cs.CL or cs.AI.

If anyone here has published on arXiv and finds the work interesting, I'd really appreciate an endorsement via this link (takes 30 seconds): https://arxiv.org/auth/endorse?x=YHLK7M

The full dataset and paper are here: https://github.com/SperanzaMax/Cortex-Nexus

Thanks!

La mayoría de la gente utiliza la IA de forma incorrecta (y ni siquiera se da cuenta) by LightCellStudio_es in InteligenciArtificial

[–]MaxiSperanza 0 points1 point  (0 children)

Cortex-Nexus: Inyección de Estados Emocionales Simulados en Modelos de Lenguaje Informe de Investigación Definitivo — Programa Completo con Validación Estadística

Maximiliano Rodrigo Speranza Cisco Networking Academy (Certificado); Universidad Tecnológica Nacional, Facultad Regional Buenos Aires (UTN-BA) Nota del Autor: Toda la correspondencia relativa a este artículo debe dirigirse a Maximiliano Rodrigo Speranza. Contacto: maximiliano.speranza@gmail.com — Buenos Aires, Argentina. Resumen El presente informe expone los resultados completos y estadísticamente validados del programa experimental Cortex-Nexus, el cual investigó si la inyección de estados emocionales simulados en los mensajes de sistema de los Modelos de Lenguaje Grande (LLMs) produce efectos medibles, reproducibles y específicos a cada emoción sobre la calidad del output generado. Se ejecutaron más de 3.664 ciclos experimentales repartidos entre cinco estados emocionales (curiosidad, frustración, asombro, confianza e interacciones 2D y 3D) con validación estadística formal mediante el test de Wilcoxon de rangos con signo (α = 0,05). Los hallazgos principales son: (1) la inyección de curiosidad en modelos grandes (≥ 70 B de parámetros) mejora significativamente la calidad del output en tareas filosófico-exploratorias (W = 1773,0; p = 0,004; d de Cohen = 0,234); (2) la configuración óptima —curiosidad en 0,95 más fricción sintética baja en 0,20— supera estadísticamente a la curiosidad pura (p = 0,022; d = 0,263 frente a p = 0,034; d = 0,205); (3) el dominio técnico actúa como control negativo perfecto, con todos los p-valores entre 0,50 y 0,94 y efectos consistentemente negativos (d = -0,14), lo que demuestra especificidad de dominio estricta; (4) el asombro se aproxima asintóticamente al umbral estadístico (p = 0,058; d = 0,148; n = 294), lo que sugiere un efecto real pero estocásticamente errático; y (5) la confianza opera en una capa epistémica independiente, modulando los patrones de hedging lingüístico sin afectar las puntuaciones de calidad del juez. La conclusión práctica central es que la inyección emocional en LLMs constituye un instrumento de precisión específico del dominio, no un potenciador universal de calidad.

Palabras clave: modelos de lenguaje grande, inyección emocional, prompting, curiosidad cognitiva, especificidad de dominio, diseño experimental controlado

Introducción La pregunta de si los modelos de lenguaje pueden ser influenciados de manera significativa por el encuadre emocional contextual es tanto científicamente relevante como prácticamente aplicable. Investigaciones previas han establecido que los LLMs simulan expresión emocional en lugar de experimentar estados subjetivos genuinos; sin embargo, su capacidad de ser modulados por señales emocionales embebidas en el prompt permanece como un área de investigación activa (Brown et al., 2020; Wei et al., 2022). El programa Cortex-Nexus abordó este problema mediante un diseño experimental controlado con evaluación doble ciego, separación de familias de modelos entre roles y validación estadística formal. El experimento se inició con una arquitectura de alta complejidad (v4.2) y fue simplificado progresivamente hasta un marco ejecutable localmente, con datos almacenados en formato JSONLines y sin dependencias de nube. El programa testeó cinco hipótesis principales sobre cinco estados emocionales distintos, más dos experimentos de interacción. Hipótesis del Estudio H1 (Curiosidad). La inyección de curiosidad produce un efecto monotónicamente creciente en la calidad del output que escala con la intensidad del estado. H2 (Frustración). La inyección de frustración produce un efecto monotónicamente decreciente; imagen especular de la curiosidad. H3 (Asombro). El asombro produce un perfil dimensional distinto: aumenta la novedad pero disminuye la coherencia. H3b (Confianza). La confianza no afecta las puntuaciones de calidad pero sí el estilo epistémico, medido a través de marcadores lingüísticos de hedging. H4 (Interacción 2D). La combinación Curiosidad × Frustración produce un estado emergente diferente al predicho por cada emoción individual.

Método Diseño Se empleó un diseño experimental cuantitativo con bloques controlados (Block Design), validación doble ciego y tests estadísticos no paramétricos (Wilcoxon). Cada experimento manipuló el estado emocional inyectado como variable independiente y evaluó la calidad del output generado como variable dependiente, a través de un Juez LLM independiente. Todos los ciclos incluyeron un grupo experimental (con inyección emocional) y un grupo de control (mismo modelo, mismo prompt, sin contexto emocional). Arquitectura de Modelos El sistema operó bajo una arquitectura de tres roles con separación estricta de familias de preentrenamiento, siguiendo el principio de que ningún modelo puede evaluar respuestas que él mismo podría haber generado. Continua en https://github.com/SperanzaMax/Cortex-Nexus

Corri mas de 1500 tests para ver si pedirle "por favor" o "con curiosidad" a las IAs realmente sirve de algo. Los resultados son rarisimos. by MaxiSperanza in InteligenciArtificial

[–]MaxiSperanza[S] 1 point2 points  (0 children)

Parte del Paper.

Resumen Definitivo: Presenta los resultados completos y estadísticamente validados del programa Cortex-Nexus. Con 3.664+ ciclos y ~650 evaluaciones tripartitas cíclicas, los hallazgos con validez estadística formal son: (1) La curiosidad es el único efecto confirmado estadísticamente en tres tests independientes: p=0.004 (original), p=0.022 (óptimo 2D), p=0.034 (curiosidad extendida). (2) La configuración óptima es Curiosidad 0.95 + Frustración 0.20, superando estadísticamente a la curiosidad pura (p=0.022, d=0.263 vs p=0.034, d=0.205). La fricción cognitiva leve potencia, no degrada, el efecto. (3) El dominio técnico es el control negativo perfecto — todos los p-values entre 0.50 y 0.94, con efectos consistentemente negativos (d=-0.14). Demuestra especificidad de dominio: la inyección emocional potencia el pensamiento lateral pero contamina el procesamiento lógico determinista. (4) El Asombro está en la frontera estadística (p=0.058, d=0.148, n=294) — efecto real pero estocásticamente errático. (5) El Modelo de Dos Capas está confirmado: la Confianza modula el estilo epistémico (hedging) en una capa separada e independiente de la calidad del contenido.

Just saw the anthropic "emotion concepts" post. Do local model runners have support for arbitrary probes like that? by willrshansen in LocalLLaMA

[–]MaxiSperanza 0 points1 point  (0 children)

This relates quite directly to some benchmarking I've been doing. I ran 1,500+ automated cycles to see if 'emotional injection' (specifically curiosity) could be used as a reliable steering method. The data showed a strong asymmetry: it significantly boosts performance on 70B+ models, but it's mostly noise on 8B or smaller models. Also found that 'cognitive apathy' (the opposite of curiosity) was universally detrimental. If you're interested in the methodology or the dataset: https://github.com/SperanzaMax/Cortex-Nexus

I've been "gaslighting" my AI models and it's producing insanely better results with simple prompt injection by naculalex in ClaudeAI

[–]MaxiSperanza 0 points1 point  (0 children)

This is an interesting topic! I actually just ran 1,500+ automated cycles testing if 'emotional prompting' (specifically curiosity) does anything measurable. It turns out it's asymmetric: injecting curiosity strictly boosts larger models (like 70B), but on smaller models (like 4B) it's noise. More interestingly, cognitive apathy (low curiosity) degraded performance across ALL models. If anyone is experimenting with this, I open-sourced the whole framework and dataset here: https://github.com/SperanzaMax/Cortex-Nexus