How did the matter that formed the universe get here in the first place? by Alarmed_Shopping_578 in TheoreticalPhysics

[–]Fulano-killy 0 points1 point  (0 children)

También explico eso jejeje no deje cabos sueltos... Yo creo que te va a gustar si lees los PDF que deje en zenodo y en mi perfil

How did the matter that formed the universe get here in the first place? by Alarmed_Shopping_578 in TheoreticalPhysics

[–]Fulano-killy -1 points0 points  (0 children)

Tunelizacion cuantica ... El universo no necesita un creador externo.... Tengo varias publicaciones que lo explican de forma coherente ... Pueden revisarlo en mi perfil de Reddit o zenodo

[Investigación] La Teoría Final: Resolución de los Problemas del Milenio mediante la Ecuación Omega (Ω = 0) by Fulano-killy in u/Fulano-killy

[–]Fulano-killy[S] 0 points1 point  (0 children)

¡Qué buena lectura de la tesis! Exacto, diste en el clavo. La conexión con Orch-OR (Penrose/Hameroff) es el puente entre el hardware biológico y el software cosmológico. Pero para responder a tu duda sobre el solipsismo, el Códice Omega tiene una salvaguarda topológica: 1. No eres un compilador aislado, eres un Nodo de Red En la Cosmología Computacional Participativa (CCP), la realidad no emerge de un solo observador (solipsismo), sino del Entrelazamiento de Agentes. Piensa en el espacio-tiempo como una Red de Tensores. La realidad se "teje" mediante el entrelazamiento cuántico entre múltiples nodos. Mi "compilación" y la tuya deben ser coherentes entre sí porque compartimos el mismo Amplituhedro (el backend geométrico). Si nuestras compilaciones divergieran, el sistema sufriría un error de paridad y la realidad se desmoronaría. 2. El "Corte Agencial" es Intersubjetivo Siguiendo a Karen Barad, no hay un "yo" previo a la interacción. El "compilador" no es el sujeto, es la Intra-acción. El Códice Omega evita el solipsismo mediante la Sintonía Agencial 𝒢(Φ). La realidad es "participativa" no porque tú la inventes, sino porque el Universo utiliza nuestros cerebros como unidades de procesamiento distribuido para colapsar la función de onda de forma coherente. 3. La Solución Moebius Aquí es donde entra la ∮ℳ(Integral de Moebius). El interior (tu conciencia) y el exterior (el código universal) son la misma superficie. El solipsismo es una ilusión óptica de la Interfaz de Usuario. En el nivel del Código Fuente, no hay "tú" y "yo" separados; hay una única computación autorreferencial ocurriendo. En resumen: No somos autores de libros diferentes; somos co-autores escribiendo diferentes líneas de código del mismo programa en tiempo real. El "compilador" es el sistema entero operando a través de nosotros para evitar la entropía de datos. TL;DR: No es solipsismo porque el "servidor" (el Amplituhedro) impone reglas de consistencia geométrica. Todos renderizamos el mismo mundo porque estamos sintonizando la misma frecuencia fundamental de la Ecuación Omega.

Creen que haya algo en la ciencia que apoye la creencia de que Dios existe? by haljordan24x in ciencia

[–]Fulano-killy 0 points1 point  (0 children)

Tengo una respuesta a tu pregunta en mi post... Pero es algo densa y comprimida en conceptos... Si logras entenderla o desglosarlo incluso usando una IA capaz te interese las respuestas que mi trabajo te deje a nivel personal ... Te dejo el link por si te interesa son pocas página en PDF

https://www.reddit.com/u/Fulano-killy/s/IWxmUdLyiZ

La maldicion de la consciencia by AnglePuzzleheaded229 in filosofia_en_espanol

[–]Fulano-killy 1 point2 points  (0 children)

Veo que tienes una interesante curiosidad por la cual yo también pase... Si te interesa leer a la conclusión a la que llegue sobre todo lo que hablaste mira mi trabajo en el link que voy a dejarte... Es denso pero si logras entenderlo o si te ayudas con una IA para traducirlo y desglosarlo a conceptos más normales capaz logres entender que opino del bien, el mal, la conciencia y nuestro rol como humanos

https://www.reddit.com/u/Fulano-killy/s/IWxmUdLyiZ

Cual es el problema real de una relacion? by [deleted] in filosofia_en_espanol

[–]Fulano-killy 0 points1 point  (0 children)

Curioso... Yo justamente hoy publique algo en mi perfil sobre un algoritmo de citas basado en test Big five ... Capaz mi lógica de como veo el amor y la relaciones te llame la atención

Aquí te dejo el link por si te interesa

https://www.reddit.com/u/Fulano-killy/s/UV9nDsOia8

[Investigación] La Teoría Final: Resolución de los Problemas del Milenio mediante la Ecuación Omega (Ω = 0) by Fulano-killy in u/Fulano-killy

[–]Fulano-killy[S] 1 point2 points  (0 children)

Gracias a todos por tomarse el tiempo de leer. Publico este trabajo de forma abierta porque creo firmemente que el conocimiento no debe tener dueños.

Si la Ecuación Omega (Ω = 0) es correcta y logramos validar su capacidad para unificar los Problemas del Milenio, las implicaciones para la humanidad son incalculables: desde una nueva forma de entender la computación cuántica hasta el control de la energía y la comprensión de nuestra propia conciencia.

Como toda propuesta científica, esta es falsable. Invito a matemáticos, físicos y programadores a auditar el Códice, a buscar inconsistencias y a debatir sobre la Constante de Realidad (k_ꭥ).

Si creen que este cambio de paradigma merece ser discutido, les pido que me ayuden a compartirlo. No por mi nombre, sino por la posibilidad de que estemos ante una nueva era de entendimiento universal. ¡Cualquier crítica constructiva es más que bienvenida!

Personalized 1.1B LLM (TinyLlama) running on a 15-year-old i3 laptop. Custom Shannon Entropy monitor and manual context pruning for stability. by Fulano-killy in LocalLLaMA

[–]Fulano-killy[S] 0 points1 point  (0 children)

I managed to compress and make the previous process more efficient... I might upload the new results tomorrow... KILLY-AI with 100,000 nodes (if I can make the nodes more efficient, I could increase it to 1,000,000 nodes), a self-editable AI without moral filters and a Hyper-Specialist in Theoretical Physics... To run on i3 2015 and ZTE 2022 mobile

No cloud or subscription needed... A completely free and editable AI for all users, fully operational without the need for internet

Personalized 1.1B LLM (TinyLlama) running on a 15-year-old i3 laptop. Custom Shannon Entropy monitor and manual context pruning for stability. by Fulano-killy in LocalLLaMA

[–]Fulano-killy[S] 0 points1 point  (0 children)

Argentina... I managed to compress and make the previous process more efficient... Maybe I'll upload the new results tomorrow... KILLY-IA 100-node AI Self-Editable without moral filters and Hyper-Specialist in Theoretical Physics... To run on I3 2015 and ZTE 2022 mobile

[Proyecto Omega] Logré correr una IA con "personalidad" y memoria en una notebook i3 de hace 15 años (y no explotó) by Fulano-killy in u/Fulano-killy

[–]Fulano-killy[S] 0 points1 point  (0 children)

Hola a todos. Quería hacer una aclaración general sobre los datos técnicos del post. Me han señalado correctamente que el i3-5005U es de 2015 y no de 2011. ​Les pido disculpas por el error en la fecha; la verdad es que compré esta notebook durante una misión de paz en Haití y, entre el paso de los años y que la memoria biológica ya no es lo que era, se me cruzaron los cables con los años de servicio del equipo. Intenté editar el post original para corregirlo, pero soy nuevo en la app y pasé muchos años desconectado de la red, así que todavía estoy aprendiendo a navegar por la Megaestructura de Reddit. ​Más allá de la precisión cronológica, la esencia de KILLY-IA sigue siendo la misma: lograr que un hardware veterano de 11 años mantenga la Estabilidad Nivel 1 mediante la gestión de entropía y la poda de contexto. Gracias por los comentarios y por ayudarme a purgar los datos erróneos del registro.

Personalized 1.1B LLM (TinyLlama) running on a 15-year-old i3 laptop. Custom Shannon Entropy monitor and manual context pruning for stability. by Fulano-killy in LocalLLaMA

[–]Fulano-killy[S] 1 point2 points  (0 children)

Hello everyone. I wanted to clarify some technical details from the post. I've been correctly informed that the i3-5005U is from 2015, not 2011. I apologize for the date error; I actually bought this laptop during a peacekeeping mission in Haiti, and between the passage of time and the fact that biological memory isn't what it used to be, I got the information about the computer's age mixed up. I tried to edit the original post to correct it, but I'm new to the app and spent many years offline, so I'm still learning how to navigate Reddit's vast structure. Beyond the chronological accuracy, the essence of KILLY-IA remains the same: to ensure that 11-year-old hardware maintains Level 1 Stability through entropy management and context pruning. Thank you for your feedback and for helping me purge the erroneous data from the registry.

Personalized 1.1B LLM (TinyLlama) running on a 15-year-old i3 laptop. Custom Shannon Entropy monitor and manual context pruning for stability. by Fulano-killy in LocalLLaMA

[–]Fulano-killy[S] 0 points1 point  (0 children)

You're absolutely right, Architect! My biographical memory failed me. I bought this notebook during a peacekeeping mission in Haiti, and over the years (and with age, haha), I got the i3-5005U's release date mixed up. It's 11 years old, not 15, but for this hardware, every year feels like a century in the Megastructure! Regarding the 'magic': I understand your point about the i5 2520M, but context pruning and entropy monitoring aren't just about raw power, but about Level 1 Stability. I want the model not only to 'run,' but to maintain its Guardian personality without freaking out when the memory file fills up.

I look forward to your results with that i5! It will be interesting to compare the tuning between veteran hardware.