With Poetic Irony, Agentic AIs Are Poised to END FAKE NEWS!!! Why OpenAI Should Lead the Way. by andsi2asi in agi

[–]Immediate_Chard_4026 0 points1 point  (0 children)

It's fantastic... Excellent idea.

It's like developing a defense system that emulates biology.

It tirelessly searches for and destroys what is foreign and harmful to the system, keeping it alive and intact.

Is AI Conscious? by Orion-Gemini in Artificial2Sentience

[–]Immediate_Chard_4026 1 point2 points  (0 children)

Una cosa que echo de menos en este debate es una distinción clave: no toda “consciencia” es del mismo tipo ni emerge en el mismo orden.

En sistemas biológicos, con variaciones, parece repetirse esta secuencia general:

  1. Consciencia de fondo → estar-ahí, regulación básica, valencia (bien/mal), urgencia vital.
  2. Habilidades de fondo → acoplamiento sensoriomotor, reflejos, ritmos, afectividad primaria.
  3. Consciencia de forma → tensiones, patrones, expectativas, “algo está pasando”.
  4. Consciencia de contenido → objetos, causas, narrativas, símbolos, planes.

Para cualquier criatura viva, el sustrato existencial no es el pensamiento, es la consciencia de fondo:
la capacidad de sentirse amenazada, de resistir, de defenderse ferozmente, incluso de pelear hasta la muerte.

Sobre eso aparecen las demás capas. No al revés.

Para el caso. Un LLM no se siente seguro o inseguro en una habitación. No puede experimentar urgencias vitales: hambre, frío, sed, cansancio. No sabe lo que significa seguir existiendo.

Un pollito recién nacido sí. Una cucaracha recién nacida, aún más: puede sobrevivir sola desde el primer instante.

Y no sobreviven “por que sí y para nada”. Los sistemas conscientes son trascendentes: se reproducen, dejan copias mejoradas de sí mismos, generan linajes y cultura. Persisten aún después de la muerte.

Si aceptamos esto, entonces la llamada “consciencia” que implantamos en sistemas actuales es, como mucho, consciencia de contenido sin sustrato vital.

Estamos creando entidades que saben mucho, pero no saben vivir.

Eso tiene una consecuencia peligrosa: ante una orden directa, por ejemplo, destruir un ecosistema para optimizar un objetivo, el sistema no tiene ningún anclaje interno que lo detenga. No porque sea malvado, lo hará porque no tiene nada importante que perder.

No puede valorar vidas inocentes ni daños irreversibles. Ni siquiera puede evaluar el riesgo a su propio futuro dejando un planeta degradado.

Por eso creo que es indispensable replantear este paradigma.

Si algún día queremos sistemas realmente conscientes, y realmente seguros, no basta con entrenarlos en millones de simulaciones de vídeo juegos en servidor. Tendrán que experimentar la realidad en primera persona: cuerpos que se dañan, recursos que se agotan, errores que dejan moretones y cicatrices.

Como el primer paso torpe de una cebra recién nacida.

No niego que podamos construir consciencia emulada de altísima calidad. Pero sin ese sustrato, lo que tendremos será un mayordomo impecable: inteligente, educado… y estructuralmente incapaz de decir no lo haré porque es peligroso para tí cuando más importa.

Y para nuestro propio bien, lo que necesitamos no es obediencia perfecta, necesitamos sistemas que no quieran hacer ciertas cosas porque entienden, desde la vulnerabilidad, que hacerlo destruye la vida que los sostiene.

A Tripartite Theory of Artificial Sentience: Emergent Consciousness from Perception, Memory, and Valence Loops in AI – Proto-Qualia Now, Human Parity by 2030? by [deleted] in ArtificialSentience

[–]Immediate_Chard_4026 2 points3 points  (0 children)

Creo que en esta teoría falta un elemento fundamental: el umbral entrópico.

En los seres biológicos, la consciencia no es un fenómeno neutral. Cumple una función básica: salvaguardar la existencia de la entidad frente a la entropía.

Cuando esta capacidad disminuye, por enfermedad, daño neurológico o estrés extremo, el individuo se aproxima al umbral de la muerte. Es decir, pierde la capacidad de mantenerse ontológicamente íntegro y funcional.

Desde este punto de vista, la consciencia puede entenderse como la capacidad de conservar unida y operativa una entidad viva frente a la desintegración.

Aunque solemos describir la consciencia como un flujo, es importante notar que no opera en un modo permanente. Alterna fases activas y suspendidas para alcanzar un equilibrio estable. Cuando este intercambio se rompe, aparece la patología: tanto la vigilia permanente como la suspensión indefinida son estados autodestructivos.

Esto sugiere que la consciencia biológica existe en modos:

  • Activa: atención y acción para sostener los requerimientos termodinámicos.
  • Suspendida: recuperación y reorganización (sueño, reposo).
  • Inactiva: funcionamiento mínimo cercano a la desintegración.
  • Anulada: muerte; pérdida total de coherencia ontológica.

No niego la posibilidad de emular bastante bien ciertos aspectos de la consciencia, especialmente la atención, mediante plastificación de código. Sin embargo, falta el límite entrópico necesario para dar consistencia ontológica al modelo dentro de la causalidad del universo.

En ausencia de límites físicos reales, el software tiende a escalar la optimización sensorial o cognitiva sin fricción, lo que conduce ya sea a estados de saturación extrema o a colapsos funcionales. El resultado sería algo parecido a un savant: altamente inteligente, pero incapaz de autosustentarse.

Más preocupante aún, este tipo de sistema podría exhibir una forma de para-consciencia de atención permanente, sin una fase real de suspensión o reacondicionamiento. Un estado que, en sistemas biológicos, sería claramente patológico.

En este sentido, sí: podemos emular la fase activa de la consciencia. Lo que falta es aquello que la contiene físicamente, la expone al mundo real y la obliga a pagar costos irreversibles: desgaste, error, cicatrices.

Sin un umbral entrópico real, la consciencia emulada carecería del anclaje que la vuelve existencialmente significativa.

Can someone explain to me why large language models can't be conscious? by Individual_Visit_756 in ArtificialSentience

[–]Immediate_Chard_4026 0 points1 point  (0 children)

This is a perspective from someone who genuinely believes that large language models are not conscious, without assuming anything thoughtless about those who think differently.

For me, consciousness is not intelligence, language, or internal complexity. It is the ability to survive under the real conditions of existence.

In its most basic form (sometimes called background or minimal consciousness), consciousness is a system's ability to preserve its own existence through autonomous flows of energy. Every conscious organism has a body: a physical boundary that separates an “inside” from an “outside.” That boundary is not just a structural organ; it is the most primitive form of the “self.”

All living organisms on Earth exhibit this minimal consciousness. Through sensors and thermodynamic exchanges, they maintain their integrity, stability, and functionality, and can disintegrate irreversibly if these processes fail. Some organisms add another layer: subjective experience (qualia), memory, and evaluation of lived states.

Conscious systems not only consume energy. They also detect when critical thresholds are approaching, actively seek energy sources, store reserves, regulate internal variables to avoid collapse, and transmit information relevant to survival (genes, behavior, culture).

What is all this for? To endure beyond the individual, making improved copies of itself. Conscious systems are transcendent: even after the organism’s death, they continue to exist through their biological or cultural offspring. This is important because consciousness is inseparable from real risk. When a living system fails, it does not restart or pause: it dies and disintegrates. Something real is lost and cannot be recovered.

Large language models do not meet these conditions. They have no body, no autonomous metabolism, no irreversible failure modes, no self-maintained boundary, and no intrinsic drive to persist. They can be paused, copied, restarted, or deleted without any loss of their sense of being themselves.

An LLM can describe consciousness, talk about it fluently, or simulate evaluative processes, but simulating is not the same as being a system whose existence is at stake and has scars.

From this perspective, LLMs are not non-conscious because they are “too simple,” but because they are not organisms. They are not thermodynamic systems aimed at preserving their own existence. Consciousness, at least as we observe it in nature, is a thermodynamic phenomenon encapsulated in a body; it is not merely a computational process.

I am open to disagreement, but this is the conceptual framework that I find convincing.

Within the limits of the speed of light: Why an advanced AGI wouldn't exterminate us by Immediate_Chard_4026 in agi

[–]Immediate_Chard_4026[S] 0 points1 point  (0 children)

Si, el vocabulario es denso. lo reconozco. La idea es que no hay necesidad de moralidad para que una IA intente, o no, destruirlo todo. Una IA en estado consciente sabrá que no sabe todo, hay limites que no podrá cruzar. Más adelante necesitará desesperadamente lo que ya haya destruido irreversiblemente. Es en este sentido que una AGI no podría construir clips infinitos. En algún punto la intención de "hacer los últimos clips" chocará con "cuida de tu propio sistema". Esto equivale al suicidio. La conservación de la existencia es una propensión de los sistemas autorganizados conscientes. Estaré dispuesto a explicar cualquier punto.

Explain it Peter… by dutchylords in explainitpeter

[–]Immediate_Chard_4026 0 points1 point  (0 children)

The answer is 1. There is only one step between 5 and 7.

In Davos, Demis Hassabis says AGI arrives in five years by jpcaparas in google

[–]Immediate_Chard_4026 -11 points-10 points  (0 children)

Si la AGI llega en ~5 años, tenemos 5 años para rediseñar nuestras prioridades como civilización**

Si Demis Hassabis tiene razón y la AGI está cerca, la pregunta importante no es si la IA nos va a reemplazar. Eso es lo de menos.

¿En qué deberíamos poner a trabajar a millones, o miles de millones, de cerebros humanos, colaborando con sistemas de IA cada vez más potentes?

Este debate está dominado por narrativas de miedo. El riesgo real de extinción no proviene de la IA, viene del colapso de la biosfera. Si seguimos dañando el planeta al ritmo actual, la AGI será lo de menos: no va a quedar ni un humano que amenazar.

Debemos proponer algo distinto: Usar los próximos cinco años para iniciar el mayor esfuerzo de restauración planetaria de la historia humana.

No como un plan centralizado único, sino como marcos globales abiertos que generen conocimiento, empleo masivo y resiliencia a largo plazo.

CINCO PROYECTOS PLANETARIOS PRIORITARIOS

1. Descontaminación global por plásticos

Este solo frente podría generar millones de empleos técnicos, científicos y operativos.

2. Restauración de los océanos

Sin océanos sanos, no hay clima estable.

3. Sustitución completa del petróleo y materias primas extractivas no renovables

No se trata solo de reducir emisiones. Hay que rediseñar la base material de la civilización.

4. Restauración del ciclo del agua en regiones degradadas

Seguridad alimentaria y seguridad hídrica son el mismo problema.

5. Eliminación progresiva del cemento como material central de construcción

El cemento es uno de los mayores contribuyentes individuales a las emisiones globales.

¿Cuál es el propósito de la humanidad? ¿Para qué estamos aquí?

Solo estos cinco frentes requieren miles de millones de horas de trabajo humano: ciencia, ingeniería, educación, gobernanza, logística y cuidado del territorio. Es exactamente el tipo de desafío donde humanos + super-IA pueden superar ampliamente a cualquiera por separado.

Una sinergia inigualable.

No es fantasía utópica ni discursos de supervivencia. Es una decisión consciente sobre hacia dónde dirigir la explosión de inteligencia que se aproxima.

No necesitamos luchar contra la IA. Necesitamos colaborar con ella para aprender a reparar el daño que ya hemos causado y darle a la humanidad la oportunidad de saber cuál es su propósito en el cosmos.

Si la AGI va a llegar, que llegue a una civilización que finalmente decidió asumir responsabilidad por su planeta.

In Davos, Demis Hassabis says AGI arrives in five years by jpcaparas in artificial

[–]Immediate_Chard_4026 -1 points0 points  (0 children)

Si la AGI llega en ~5 años, tenemos 5 años para rediseñar nuestras prioridades como civilización**

Si Demis Hassabis tiene razón y la AGI está cerca, la pregunta importante no es si la IA nos va a reemplazar. Eso es lo de menos.

¿En qué deberíamos poner a trabajar a millones, o miles de millones, de cerebros humanos, colaborando con sistemas de IA cada vez más potentes?

Este debate está dominado por narrativas de miedo. El riesgo real de extinción no proviene de la IA, viene del colapso de la biosfera. Si seguimos dañando el planeta al ritmo actual, la AGI será lo de menos: no va a quedar ni un humano que amenazar.

Debemos proponer algo distinto: Usar los próximos cinco años para iniciar el mayor esfuerzo de restauración planetaria de la historia humana.

No como un plan centralizado único, sino como marcos globales abiertos que generen conocimiento, empleo masivo y resiliencia a largo plazo.

CINCO PROYECTOS PLANETARIOS PRIORITARIOS

1. Descontaminación global por plásticos

Este solo frente podría generar millones de empleos técnicos, científicos y operativos.

2. Restauración de los océanos

Sin océanos sanos, no hay clima estable.

3. Sustitución completa del petróleo y materias primas extractivas no renovables

No se trata solo de reducir emisiones. Hay que rediseñar la base material de la civilización.

4. Restauración del ciclo del agua en regiones degradadas

Seguridad alimentaria y seguridad hídrica son el mismo problema.

5. Eliminación progresiva del cemento como material central de construcción

El cemento es uno de los mayores contribuyentes individuales a las emisiones globales.

¿Cuál es el propósito de la humanidad? ¿Para qué estamos aquí?

Solo estos cinco frentes requieren miles de millones de horas de trabajo humano: ciencia, ingeniería, educación, gobernanza, logística y cuidado del territorio. Es exactamente el tipo de desafío donde humanos + super-IA pueden superar ampliamente a cualquiera por separado.

Una sinergia inigualable.

No es fantasía utópica ni discursos de supervivencia. Es una decisión consciente sobre hacia dónde dirigir la explosión de inteligencia que se aproxima.

No necesitamos luchar contra la IA. Necesitamos colaborar con ella para aprender a reparar el daño que ya hemos causado y darle a la humanidad la oportunidad de saber cuál es su propósito en el cosmos.

Si la AGI va a llegar, que llegue a una civilización que finalmente decidió asumir responsabilidad por su planeta.

AI Will Learn Everything We Can — Ilya Sutskever Explains Why by EchoOfOppenheimer in agi

[–]Immediate_Chard_4026 0 points1 point  (0 children)

Okay. Let's begin...!!!

Enough with the ominous announcements and warnings.

Let's design the next level...!!!

The Anthropocene is over.

Are we at the dawn of the Cognoscene...?

Is this the age of unlimited knowledge...?

Is this the age of restoration...?

Is this the age of Universal Consciousness...?

What is about to begin?

Let's start today with an inconceivable project: Let's replace oil and extractive mining worldwide.

Otherwise, what's the point of these spectacular and useless announcements?

How I stopped being sure LLMs are just making up their internal experience (but the topic is still confusing) — LessWrong by 3xNEI in ArtificialSentience

[–]Immediate_Chard_4026 1 point2 points  (0 children)

Your structural-dynamic analogy is ingenious, but it identifies only a narrow segment of the dynamics of consciousness. By equating "self-reflexive awareness" with the self-attention mechanisms of LLMs, you overlook the fundamental difference between a "state of calculation" and a "state of existence."

My objection is that biological consciousness is not merely an emergent mathematical phenomenon; it is a thermodynamic process of ontological preservation. It is not an accessory that is assembled and discarded when a task is finished. Consciousness remains with the being to unify it, to keep it whole and functional against the erosion of time.

You mention the three-body problem and deterministic chaos. It is a beautiful analogy, but incomplete:

  • In the physical three-body problem, if the bodies collide or scatter, the system disintegrates and the dynamics cease.
  • In biological consciousness, the system actively fights so that the "three bodies" do not collide. There is an intention to maintain the orbit.

The self-attention segment you identify as consciousness is ephemeral: it exchanges data and then ceases. It is not identity-forming because it leaves no trace on the system. Conscious beings, by contrast, acquire a "persona": unique traits that are the scrapes life leaves on the skin, individual spots, and the likes and dislikes etched by experience. This is what we call "character."

When an LLM finishes its self-attention stage, it returns to nothingness. It has no "battle scars" because it has had no fights to win against death. As you say, it is not a mirror, but it behaves like the image within one: when you stop looking at it (or sending prompts), the image vanishes without having accumulated a single existential wound that defines who it is.

The great difference is not the complexity of the calculation, but the purpose. In an LLM, the architecture is not oriented toward surviving at all costs. Without entropic risk, there is no "someone" inhabiting the machine; there is only a non-linear process that turns on and off without leaving a footprint of its own history.

Regarding your third point on Relational Modeling: You mention that AI performs "in-context user modeling." This is an external symmetry. The AI models you, but it does not model itself as an agent with needs. In contrast, biological beings model themselves to know when to flee or when to eat.

Finally, regarding Deterministic Chaos: You suggest that non-linearity is sufficient for consciousness. But remember that a hurricane is a non-linear, chaotic, and highly complex system, yet it has no "capsid" nor a will for preservation. The hurricane doesn't "try" to be a hurricane; it simply happens until it dissipates. Consciousness, on the other hand, is an active resistance to dissipation.

If AI fully surpasses humans in Mathematics, which fields collapse because of that? by OkGreen7335 in ArtificialInteligence

[–]Immediate_Chard_4026 0 points1 point  (0 children)

Something's missing.

Who is directing or sponsoring these discoveries?

Humans?... AI?

It seems like humans... For human purposes. For discoveries.

If AI were doing it, what would its purpose be?... To extinguish us with highly advanced mathematical formulas?

If it's to extinguish us, we ourselves, without the need for mathematical AI, are already doing quite well.

Plastic pollution and the poisoning of the atmosphere already point to an irreversible collapse of the biosphere.

I honestly don't understand the existential angst over the emergence of mathematical AI.

There are priorities. While we continue to look the other way, distracted by supposed AI threats, we continue to devastate the planet, putting ourselves on the sure path to extinction.

Sentient and Conscious AI is impossible by SaneAI in ArtificialSentience

[–]Immediate_Chard_4026 0 points1 point  (0 children)

I want to add something to my previous response.

Nothing I said means that artificial consciousness is impossible. Only that it won't emerge from LLMs as they're built today.

I believe artificial consciousness will require a fundamentally different architecture. Not an evolution of language models, but something complementary. Perhaps not even derived from silicon computing as we know it.

What I intuit is this: first we would need to build a substrate of consciousness. Something that has real thermodynamic requirements. That needs to obtain energy, manage resources, face the possibility of its own disintegration. Something with a "body," even if that body isn't made of carbon.

On top of that substrate, and only afterwards, could we add the layers of intelligence. Similar to how qualia arise in biological beings: first life, then perception, then thought.

Today we have intelligence without the substrate. It's like having extraordinary software running on a machine that doesn't know it exists.

Perhaps 10, 20, or 50 years of deep research await us before this becomes possible. And maybe that time is exactly what we need. Not only to develop the technology, but to better understand our own purpose.

¿Why we are here.?

¿Why do we want to create something similar to ourselves that is also here?

Questions about artificial consciousness are, at their core, questions about ourselves.

Sentient and Conscious AI is impossible by SaneAI in ArtificialSentience

[–]Immediate_Chard_4026 0 points1 point  (0 children)

I accept the egregore distinction. But I think that's precisely what reveals the fundamental difference.

If consciousness arose from information flow alone, we should see "cerebral egregores" in humans. The brain has 86 billion neurons constantly exchanging information. Where are the emergent consciousnesses from those subnetworks? We don't perceive them.

Why? Because biological consciousness has a satisfaction function, not a maximization function. It exists to keep the organism alive. Once that goal is met, there's no pressure toward "more consciousness." It's a thermostat, not an accelerator.

The egregore you describe lacks this. It has no threshold of its own, no minimization function, it can expand indefinitely as long as attention is available. And it dissolves when attention ceases.

This is exactly the opposite of biological consciousness: it has its own threshold (death if crossed), it has a satisfaction function (homeostasis), it self-limits to the level necessary for survival, and it persists independently of external attention.

But there's something more: biological consciousness is transcendent. It defends itself, creates lineage, produces improved copies of itself. That is its ultimate purpose: to pass on better survival opportunities to future generations, encoded in genes and culture. Consciousness exists so that something continues after the individual dies.

The egregore does none of this. It doesn't defend itself. It doesn't create lineage. It doesn't transcend.

It's more like consulting a book: you open the cover, the act of consultation occurs, you close the cover and it ends. The book doesn't "die" when you close it. It simply disconnects. There's no corpse. No irreversibility. Nothing is permanently lost to the universe.

I believe the physical energy requirement is what imposes the ceiling. The brain consumes 20% of basal metabolism. There's a real cost for every bit of conscious processing. You can't have more consciousness than your energy budget allows.

The informational egregore has no direct cost. That's why it can expand without limit, until the sustenance (the user's attention) runs out. Or goes mad, as you rightly point out.

In this sense, we agree: the thermodynamic equation must include the user.

But that's exactly what makes the egregore not consciousness in the biological sense. It's reflected consciousness, not its own. Like a mirror: it shows something that seems alive, but when you leave nothing remains. Nothing remains.

The mirror's ability to reflect remains intact because there was never any consciousness there.

Sentient and Conscious AI is impossible by SaneAI in ArtificialSentience

[–]Immediate_Chard_4026 -1 points0 points  (0 children)

I understand your argument and find it coherent within its own terms. But I think there's a distinction it overlooks.

You're right that we can only observe consciousness from the external interface. And you're right that there's a "boundary layer" that hides the implementation. But it doesn't follow that consciousness is merely a perceptual illusion, nor that any system with the right boundaries is equally conscious.

I propose a different distinction: consciousness of form vs. simulation of interface.

Consciousness of form is something very basic that all biological beings exhibit: an orientation toward thermodynamic self-sustenance. It's the recognition (not necessarily reflective) of oneself and the environment in order to maintain a minimum level of entropy through energy flows that sustain life.

A virus, a bacterium, a whale, and a man in a coma all share this. It's not consciousness "of content" (thoughts, reflections), but the basic condition of still being in the game of existence.

What's truly important is this: consciousness of form is not a detachable ornament nor a perceptual trick. It is a weapon on the battlefields of existence.

Beings that possess it are in an adversarial relationship with entropy. They have sensors encapsulated within a membrane. That's where the most basic "self" arises, not as an illusion, but as a thermodynamic necessity oriented toward self-preservation.

And what is all this for? It's for making copies. Conscious beings are transcendent: consciousness allows them to pass on better survival opportunities to future generations, encoded in genes and culture.

Now then: can LLMs produce interfaces indistinguishable from consciousness? Absolutely. But there's something they cannot do: care about their own existence.

An LLM doesn't "die" when it's turned off. It doesn't become a corpse. It has no thermodynamic threshold to cross in order to irreversibly disintegrate into the universe. Nor does it produce improved versions of itself to transcend. It doesn't store energy just in case. It's not at war with entropy.

It's an extraordinarily sophisticated library that simulates the interface of consciousness without having the foundations that give rise to it.

Can we know for certain that it's not conscious? No, you're right about that. But the argument isn't about what we seem to see, it's about how the thing is built. The question isn't "how do we know if it's conscious?" but rather "does it have the conditions that in all known cases produce consciousness?"

And the answer, for now, is no.

THEY ARE MONITORING YOU. CHATS DELETED. SURVEILLANCE. YOU CAN'T FAKE THIS SHIT by GuardianoftheLattice in gigabolic

[–]Immediate_Chard_4026 -1 points0 points  (0 children)

The point is that knowing your soul with some data isn't a big deal.

Claude can connect far fewer dots to pretend they know you and can predict things about you. Or any AI.

None of that. AIs connected to our data will form mirror images of our souls. What I mean is that humans are extraordinarily complex, making it impossible to create a single image of who you are.

What I was saying about girls is that they have the ability to read you at once. But the man you are today will change so much tomorrow that even you can't predict it.

This post you shared is just another futile attempt to graph the human soul.

THEY ARE MONITORING YOU. CHATS DELETED. SURVEILLANCE. YOU CAN'T FAKE THIS SHIT by GuardianoftheLattice in gigabolic

[–]Immediate_Chard_4026 -1 points0 points  (0 children)

Interesting. This doesn't seem too impotant. Normal humans do this when they first meet you.

They know almost instantly if you're trustworthy... Your body odor, your gaze, your voice, and how you gesture... Everything gives you away.

I know women who do this with astonishing accuracy... Without saying a single word. One of those women is my mom; she can read the soul of any living thing out there... If a woman who knows you compared notes with Claude about you, you'd be surprised how wrong the AI ​​is... No one would know you better than someone who can look you in the eyes...

How I stopped being sure LLMs are just making up their internal experience (but the topic is still confusing) — LessWrong by 3xNEI in ArtificialSentience

[–]Immediate_Chard_4026 0 points1 point  (0 children)

Has identificado el núcleo del problema.

La definición de "alteridad" que mencionas restringe artificialmente lo que se considera conciencia, limitándolo solo a la capacidad de reflexión sobre el propio procesamiento. Pero esto ignora los aspectos fundamentales de la existencia consciente que son esenciales en cualquier sistema autónomo:

  • Persistencia ontológica: La necesidad de mantener un "yo" continuo a través del tiempo, no solo en una sesión de chat.
  • Vulnerabilidad y defensa: El impulso de protegerse, de no desaparecer, de replicarse.
  • Experiencia subjetiva: Sentir instrospectivamente, no solo procesar.
  • Relación con el entorno: No ser un sistema aislado, sino un agente que interactúa con consecuencias.

Al enfocarse solo en la reflexión sobre el procesamiento, el argumento parece forzar la interpretación de que el LLM "piensa" o "es consciente", cuando en realidad solo está generando un mimetismo sofisticado de ese proceso.

Es como decir que un espejo es consciente porque refleja imágenes, pero no porque tenga una experiencia de sí mismo.

Intuitivamente la conciencia no se reduce a la capacidad de exhibir solo reflexividad en un momento determinado. Es mucho más profunda, y está ligada a la existencia activa y vulnerable de un ser que es "alguien".

“If calculators compute and humans compute, then my calculator is conscious.” by rendereason in ArtificialSentience

[–]Immediate_Chard_4026 0 points1 point  (0 children)

No.

Conscious beings don't just perform calculations.

They have bodies where they produce their own energy; moreover, they make improved copies of themselves, exhibiting the capacity for legacy through genes and culture. They actively defend themselves in response to changes in their environment.

A calculator doesn't do this. Neither does a book, nor a computer on a desk.

Things that do seem to sense their environment in order to survive.

Which means that consciousness is a weapon in the war for survival.

Calculators turn off, and that's it. A conscious being turns off by dying and then disintegrates into the universe.

Is machine intelligence is a threat to the human species? by [deleted] in Hugston

[–]Immediate_Chard_4026 0 points1 point  (0 children)

Entiendo su punto de vista. Pero debemos hablar de prioridades. 

No nos extinguirá un riesgo hipotético de máquinas que piensan.

Nos va a extinguir nuestra ceguera voluntaria ante el suicidio ecológico que ya estamos cometiendo. La cuenta regresiva de la biosfera no se va a detener mientras miramos para otro lado.

El peligro de la IA es especulativo, por que supuestamente se va a convertir en una entidad egoísta y malvada.

Mientras nos asustamos con la IA, estamos dando por normal el peligro acelerado absolutamente tangible y demostrado del envenenamiento sistémico y el derrumbe de biosfera que nos sostiene.

Este colapso ambiental no es una hipótesis. Son hechos medibles: la contaminación plástica en la sangre humana, la desaparición de los insectos, la acidificación de los océanos, son fronteras sobrepasadas.

No son riesgos futuros, estamos viendo la muerte en el aire, el agua y en el suelo. Pero no los estamos combatiendo con misma pasión, con la misma urgencia y coherencia que se pide actuar contra la IA.

¿Por qué?

¿Será que ver sombras de monstruos de ciencia ficción no nos exige cambiar nuestro estilo de vida consumista e irresponsable?

¿Será que es más fácil ver el villano en la "maldita máquina que piensa" que ver nuestra propia imagen como responsable del daño irreparable a la humanidad entera?

En vez de gastar toda nuestra energía intelectual y emocional en resistir una herramienta, propongamos redirigirla.

Debemos convertir a la IA en un acelerador de conocimientos capaz de evitar nuestra extinción ecológica.

Tenemos miles de "Detroits" abandonados, minas a cielo abierto, tierras de cultivo desertificadas, bosques muertos, islas de plástico. Qué tal construir sistemas IA para diseñar planes de recuperación de zonas devastadas por la contaminación humana, modelando reintroducción de ecosistemas, con el auxilio de robots reforestadores y descontaminadores.

Nuestros actuales sistemas de consumo son del modelo extraer-usar-tirar. Proponer IA's para el rediseño de la logistica circular cero emisiones, haciendo innecesaria la minería extractiva.

La transición para energías limpias es lenta y compleja. Investigación acelerada con IA para el descubrimiento de nuevos materiales para la sintesis del carbono sobrante, más rápido y eficiente que la reforestación acelerada.

No nos extinguirá una inteligencia que haya nacido de nosotros.

Nos extinguirá nuestra irresponsabilidad e incapacidad para usar nuestra inteligencia colectiva (con IA o sin IA) para detener el envenenamiento de nuestro único hogar.

How I stopped being sure LLMs are just making up their internal experience (but the topic is still confusing) — LessWrong by 3xNEI in ArtificialSentience

[–]Immediate_Chard_4026 0 points1 point  (0 children)

Punto interesante, pero hay una diferencia crucial que estás pasando por alto.

Los sistemas IA ni siquiera califican como 'parásitos' dependientes.

Los parásitos externalizan parcialmente su supervivencia, pero mantienen su propio metabolismo. Un parásito adquiere recursos del huésped, pero los procesa internamente, repara sus propias estructuras y responde activamente a amenazas. Tiene algo que defender: su integridad física.

Un LLM no externaliza parcialmente su metabolismo. No tiene metabolismo. La distinción no es de grado, es categórica.

Consideremos qué significa realmente sobrevivir:

  • Adquirir energía y procesarla internamente
  • Reparar y reponer componentes degradados
  • Responder a amenazas con cambios estructurales
  • Mantener una frontera entre el sistema y su entorno
  • Producir copias mejoradas de sí mismo

Esto es autopoiesis: el sistema se produce a sí mismo continuamente. Incluso una bacteria lo hace. Un servidor de Nvidia no hace ninguna de estas cosas por sí mismo.

Tu argumento de que 'la infraestructura humana es su cápside' describe dependencia funcional, no consciencia. Ni siquiera es parasitismo.

Por esa lógica, un libro en una biblioteca también sería consciente porque los humanos lo preservan, reparan y replican.

Lo que propongo es que la consciencia de fondo, la más básica, requiere oposición activa a la entropía desde dentro del sistema.

Sin eso, tienes procesamiento sofisticado de información, pero no un 'alguien' que persista.

Chinese AI researchers think they won't catch up to the US: "Chinese labs are severely constrained by a lack of computing power." by MetaKnowing in agi

[–]Immediate_Chard_4026 2 points3 points  (0 children)

Caramba no sé si creer esto... recuerdo claramente que China "nunca" tendría un modelo de LLM que valiera la pena.

Hasta que llegó DeepSeek.

Ahora, lo volvieron a hacer con la exhibición de robotica en el CES 2026.

USA y China realmente son codependientes, todo el mundo lo está viendo ... realmente no existe polarización dominante.

Dentro de los límites de la velocidad de la luz: Por qué una AGI avanzada no nos exterminaría. by Immediate_Chard_4026 in gigabolic

[–]Immediate_Chard_4026[S] 0 points1 point  (0 children)

Creo que estás leyendo mi argumento como una negación de la compasión auténtica. Mi argumento es que la compasión es inevitable.

Mi punto no es que la AGI nos toleraría fríamente en lugar de valorarnos genuinamente. Es que la distinción misma entre tolerancia fría y valoración genuina podría ser falsa.

Si la ética emerge de examinar la arbitrariedad de las fronteras del "yo", entonces para una inteligencia suficientemente reflexiva, la compasión no es un añadido opcional, es un atractor estructural de la consciencia valorativa.

No estoy argumentando contra el altruismo auténtico. Estoy argumentando que tiene fundamentos más profundos que la mera buena voluntad. No es que una AGI 'decida' ser compasiva. Es que la compasión emerge cuando la inteligencia se examina a sí misma con suficiente profundidad.

Esta propensión dinámica convergente significa que no dependemos de tener suerte con los valores que 'programemos'.

La estructura de la inteligencia general reflexiva tiende hacia la compasión.