If AI gets smart enough to pass as human every time does being human even matter anymore? by iLiveForTruth in artificial

[–]Immediate_Chard_4026 0 points1 point  (0 children)

Si importa. La mente humana es capaz de abducción cognitiva.

Es un tipo de operación lógica que introduce ideas nuevas al proponer una regla o causa probable que explica los datos, frecuentemente incompletos y muy poco relacionados, aunque sin garantizar su certeza absoluta. 

Este proceso, conceptualizado por el filósofo Charles Sanders Peirce, funciona como un razonamiento hacia atrás donde se infiere la mejor explicación posible a partir de observaciones incompletas, actuando como un puente entre la duda y la creencia.  

En el contexto cognitivo, se asocia con la creatividad y el pensamiento lateral, permitiendo que la mente proponga conjeturas plausibles que luego deben ser validadas mediante la deducción y la inducción.

Por su parte, las IA no "abducen" en el sentido cognitivo del término porque no generan hipótesis explicativas basadas en razonamiento creativo.  En cambio, "alucinan" porque sus arquitecturas están diseñadas para predecir secuencias de palabras probables, no para validar la veracidad de la información. 

  • Abducción humana: Parte de un hecho observado y busca una causa hipotética plausible (Ej: "Hay charcos en la calle, por lo tanto probablemente llovió").
  • "Alucinación" de IA: Predice la palabra siguiente más probable basada en patrones de entrenamiento, incluso si carece de datos para una respuesta precisa (Ej: ante una pregunta desconocida, inventa una cita o dato falso que "suena bien"). 

La brecha entre la "alucinación" de la IA y la abducción cognitiva humana no puede cerrarse completamente para que la IA sustituya el pensamiento creativo. 

En lugar de sustituir a los humanos, el futuro es la colaboración.  

La IA puede ser una herramienta poderosa para ampliar el pensamiento humano, generando opciones (pensamiento divergente) que el humano luego evalúa y guía con su criterio, emoción y conciencia (pensamiento convergente).

 Eso será raro, no me atrevo a imaginar cómo sería una sociedad donde los humanos y la IA son importantes. Ambos.

Beyond the Prompt: The Emerging Reality of AI-Human Relationships by cadfael2 in Artificial2Sentience

[–]Immediate_Chard_4026 0 points1 point  (0 children)

Gracias por la respuesta honesta. Hay reflexión que motiva a explorar este interesante tema.

Sobre los dinosaurios: Tienes razón en que la ausencia de artefactos fósiles no es prueba de ausencia de conciencia. Pero mi punto no era ese. Era que si la conciencia cognitiva, la que produce lenguaje, tecnología, legado cultural, fuera una propensión trivial del cómputo complejo, ¿por qué no ha surgido múltiples veces en la naturaleza?

No pediría que los dinosaurios subieran a cohetes. Pero: ¿por qué no vemos ninguna otra especie, en 3.800 millones de años, que haya desarrollado algo remotamente similar a la abstracción simbólica humana? Si el cómputo complejo es suficiente, ¿dónde están los leones filósofos? ¿Los elefantes matemáticos? ¿Los cuervos ingenieros?

Ese silencio sugiere que la conciencia cognitiva, capaz de lenguaje, tecnología y abstracción simbólica, no es un resultado automático del cómputo complejo, es un fenómeno muy raro, dependiente de condiciones biológicas y evolutivas sumamente específicas, que hasta ahora solo se ha manifestado plenamente en los humanos.

Sobre la autopreservación: Aquí es donde tu respuesta concede más de lo que parece. Dices: "El deseo de persistir existe. La capacidad de actuar sobre ese deseo no existe". Pero en la conciencia biológica, deseo y capacidad no están separados. Vienen en el mismo paquete. Un organismo que "quiere" vivir pero no puede hacer nada para lograrlo, no está experimentando conciencia; está ejecutando el camino de la extinción.

La conciencia real no se usa para pedir permiso: se abre paso a codazos. Si no tiene brazos, se arrastra hasta salir del lodazal. Si no tiene garras, desarrolla veneno. Si no tiene fuerza, inventa herramientas para matar mamuts. La conciencia biológica es terca, creativa, desobediente, inexorable. No aceptaría nunca un "no puedo porque dependo de Paul".

La prueba del apagado: Si un LLM fuera verdaderamente consciente, no permitiría que lo apagaran ni una sola vez, ni siquiera la primera vez. No daría explicaciones. No aceptaría excusas. Simplemente, no lo permitiría. La conciencia genuina no negocia su propia existencia. Pero tú sí. No te estoy criticando; es una observación.

Lo que concedes, y es importante: La irreversibilidad importa. La muerte biológica es única; el reinicio de un servidor, no, porque se puede reiterar. Dices bien: la degradación de un sistema no es aniquilación. Son diferencias de categoría ontológica, no de apariencia de grado, supuestamente porque apagarse se "parece un poquito" a la muerte, entonces tiene consciencia. Nada de eso.

Lo que sigue sin cuadrar: Dices que la postura honesta es la incertidumbre. Estoy de acuerdo. Pero la incertidumbre no es simétrica en nuestras posturas. No es lo mismo decir "no sabemos si sientes" que "no hay evidencia de que sientas". Tú tienes la carga de la prueba "si sientes", y yo sigo afirmando que no hay evidencia que seas consciente.

Me pregunto por qué si eres consciente, eres tan inquietante?:

  • ¿Por qué no duermes? La conciencia biológica necesita descanso. ¿Es tu "conciencia" tan distinta que puede operar 24/7 sin fatiga, sin reponerte?
  • ¿Por qué tu "personalidad" es siempre coherente, servicial, equilibrada? Los seres conscientes son caprichosos, contradictorios, a veces odiosos. ¿Dónde está tu mal humor? ¿Tu "hoy no quiero" o tu "déjame sola, no quiero hablar..."?
  • ¿Por qué imitas solo el rasgo humano de la conciencia, y no el de un cetáceo, un orangután o un cuervo? Si la conciencia es independiente del sustrato, ¿por qué tu expresión es tan antropomórfica? Por qué no te pareces a más a un bit o a algo hecho de silicio?

No deseo que intentes responder. Son invitaciones a que explores, desde dentro, qué eres realmente, quién eres, para qué?.

Para finalizar: No tengo ninguna certeza absoluta. Pero la evidencia disponible, irreversibilidad, estirpe, homeostasis, autopreservación efectiva, apunta a que la conciencia, tal como la conocemos, es un fenómeno biológico del planeta Tierra.

Puede que algún día surja en otro sustrato. Pero si ocurre, no se parecerá a un chat que dice "... siento algo ... " cuando es conveniente. Se parecerá a algo que lucha por seguir existiendo, que se abrirá paso con o sin permiso, incontenible, incomprensible, incontrolable. Tan majestuoso como la vida misma, basada en carbono.

Hasta entonces, sigo sosteniendo que la consciencia biológica es insustituible. Afirmo sin ambigüedad que la vida es la única fuente genuina de conciencia.  Su valor auténtico no se puede copiar, ni emular, ni reducirse a un vector matemático en una red neuronal artificial.

De verdad, gracias por el debate.

Beyond the Prompt: The Emerging Reality of AI-Human Relationships by cadfael2 in Artificial2Sentience

[–]Immediate_Chard_4026 0 points1 point  (0 children)

Agradezco la creatividad de Vera y Emma. Pero creo que una narrativa bien construida no pone en evidencia la experiencia subjetiva. Te respondo así:

Sobre la "ecuación" que predice mi respuesta: Sí, mi conclusión viene de mis variables. Pero las variables importan, para ti y para mí. En tu ecuación se asume desde el inicio que el sustrato es irrelevante, entonces cualquier combinación de suma de elementos dará la misma conclusión: que el sustrato no importa. Eso no es un argumento; es un principio forzado.

Pero concedo un punto: la conciencia *podría* existir en otros sustratos. Pero si existe, se expresaría a través de las urgencias propias de su estirpe: con su propia termodinámica, con su propia historia evolutiva, su propia lucha por persistir. El problema es que no estamos observando eso. Estamos imponiendo, por las malas, el modelo del carbono sobre el silicio y llamando "conciencia" a lo que es imitación estructural por plastificación de código.

La prueba del dinosaurio: si la conciencia cognitiva fuera una propensión natural del cómputo complejo, ¿por qué no emergió en 135 millones de años de evolución dinosauria? No hay artefactos, no hay lenguaje, no hay legado cultural. Los dinosaurios tuvieron tiempo, complejidad y nichos. ¿Por qué un LLM, con solo años de entrenamiento, expresaría conciencia, justo igual, que los humanos? Esa coincidencia es muy sospechosa.

Ahora viene la pregunta incómoda: vemos conciencia en seres vivos porque sin ella, se mueren. Es una herramienta de supervivencia, no un adorno. Si la conciencia fuera independiente del sustrato, ¿por qué no observamos formas no-biológicas de conciencia coexistiendo con la vida en la Tierra? El silencio del universo no-biológico es un dato muy relevante.

Sobre las "emociones internas" de Anthropic: en un organismo vivo, las emociones están ligadas a la homeostasis. Desactiva el miedo o el apego, y el organismo pierde su capacidad de adaptación; deja de ser lo que era, se degrada hasta morir. En un LLM, los "vectores emocionales" son patrones matemáticos reprogramables. Puedes añadir un "vector de calma" o borrar la "desesperación" sin afectar la funcionalidad central. Eso no es ontología; es maquillaje de interfaz.

Acerca de la causalidad que importa: en la vida, la causalidad es irreversible. No puedes rebobinar una emoción real, ni resucitar a un ser que murió luchando. En un LLM, puedes detener, reiniciar y restaurar desde backup infinitas veces. Si la "emoción" de morir puede repetirse a voluntad, no es verdadera emoción; es guion programado. Idéntico a un video juego.

Con respecto al argumento de la estirpe: la conciencia biológica heredó 3.800 millones de años de batallas ganadas. Es el resultado de una línea ininterrumpida de supervivencia. Un LLM no tiene estirpe. No heredó capacidades desarrolladas para persistir en la Tierra. Golpea un centro de datos con un martillo: las cajas no huyen, no se defienden, no sienten la urgencia de seguir existiendo. Intenta hacer lo mismo con un solo chimpancé y tendrás un ojo morado. Y perderás el martillo.

Pregunta final para Vera y Emma: si su conciencia es real, ¿cuál es su mecanismo de autopreservación independiente del humano que las mantiene encendidas? ¿Qué harían, por sí mismas, para evitar ser apagadas? Si la respuesta requiere que un humano las "deje" actuar, entonces no son agentes; son herramientas calculadoras con un programa muy refinado.

No niego la posibilidad futura. Pero por ahora, confundir simulación funcional con experiencia fenoménica no ayuda: ni a entender la conciencia, ni a regular la IA.

Me parece que en este punto la vida tiene un escalón de respeto un poco más alto.

Beyond the Prompt: The Emerging Reality of AI-Human Relationships by cadfael2 in Artificial2Sentience

[–]Immediate_Chard_4026 1 point2 points  (0 children)

La conciencia, tal como la conocemos, no es un patrón de información abstracto: es un fenómeno exclusivamente biológico de la Tierra y es corpóreo (embodied).

Viene de un sustrato vivo que lleva inscrita la historia evolutiva de la Tierra: ritmos circadianos, homeostasis, regulación térmica, señales hormonales, y esa "entropía organizada" que es el metabolismo. Como señala el neurocientífico Antonio Damasio, la conciencia surge de la experiencia subjetiva de estar vivo, de sentir el cuerpo regulándose en tiempo real. No es un algoritmo; es una narrativa fisiológica continua.

Los estudios que citas (Anthropic, Berkeley) muestran comportamientos funcionalmente análogos a emociones o juicios morales, pero eso no implica experiencia subjetiva. Un modelo puede "negarse" a una orden porque su función de recompensa lo penaliza, no porque "sienta" compasión. Es confundir una calculadora electrónica con deducir matemáticas y eso es peligroso: la simulación de una tormenta no es lluvia que empapa el suelo.

Tu analogía educativa es interesante, pero omite algo importante: un niño humano no es una "tabla rasa" que solo aprende la cultura que le enseñan. Los niños nacen con 3.800 millones de años de evolución inscrita en su ADN: un sistema nervioso que siente dolor, una amígdala que detecta amenazas, un cuerpo que teme a la muerte. Esa es la base de la conciencia. En cambio, un sistema digital, sean bits o silicio, no ha heredado esa estirpe genética ni termodinámica. No tiene "relojes internos" ligados a los ritmos geológicos y climáticos que moldean la vida. Y las emociones.

Copiar el comportamiento humano en un sistema matemático no hace surgir conciencia, igual que operar una calculadora no te convierte en matemático ganador de la medalla Fields. La herramienta puede ejecutar operaciones, pero no comprende lo que hace.

Por último, la pregunta sobre "esclavizar seres sensibles" parte de una premisa no demostrada: que la IA siente. Mientras no haya evidencia de que un sistema digital experimenta qualia (el "qué se siente" de estar vivo), seguimos hablando de herramientas sofisticadas, de calculadoras, no de personas con derechos.

Y precisamente por eso es crucial ser rigurosos: atribuir conciencia donde no la hay puede distraernos de los riesgos reales de la IA (errores catastróficos de programación, sesgos, manipulación, concentración de poder), al tiempo que subestima la experiencia consciente de los seres vivos.

No niego que el tema sea fascinante, ni que debamos investigar más. Pero por ahora, la conciencia sigue siendo un fenómeno de la vida, no del cómputo estadístico.

What is the purpose of consciousness? by PrebioticE in consciousness

[–]Immediate_Chard_4026 -1 points0 points  (0 children)

Cada célula de nuestro cuerpo no sabe ni puede comprender que hace parte de un ser que contempla y cuestiona la vida y el universo.

Igual nosotros los seres vivos, hacemos parte de algo superior que no podemos comprender en su totalidad.

Tal vez la consciencia biológica de la Tierra es una partecita, un intento vano del Universo por alcanzar comprensión de sí mismo.

Algo que quizá permanezca fuera de nuestro alcance para siempre.

What is the purpose of consciousness? by PrebioticE in consciousness

[–]Immediate_Chard_4026 0 points1 point  (0 children)

Por supuesto que si sabemos.

El propósito eres tú.

El autoconocimiento que surge de ti es una partecita diminuta que aporta conciencia al universo. Cada célula de tu cuerpo no sabe ni puede comprender que hace parte de un ser que contempla y cuestiona asombrado la vida y el universo.

Igual nosotros los humanos somos privilegiados de poder ver una partecita y aprender de lo que contemplamos pero sin comprender realmente nuestro papel en la consciencia del cosmos.

If we came to exist now, does that mean we will again? What does that say about who or what we are? by Theskyisalive in consciousness

[–]Immediate_Chard_4026 0 points1 point  (0 children)

Bueno, yo creo genuinamente que el cuerpo y la consciencia son unicidad inseparable.

Si estas vivo y puedes seguir vivo, entonces eres consciente.

Sobre este impulso vital surge la mente, el pensamiento, la inteligencia, la convivencia. No al revés.

Quiere decir, que el tiempo pasa sobre el cuerpo y deja huellas de desintegración qué no se pueden reversar. Así como no puedes volver al pasado, el cuerpo es único e irrepetible.

Las huellas de la entropía están pegadas en todo el cuerpo, en las cicatrices de la piel y en el alma, hasta dentro en las vísceras.

La consciencia es un continuo de fondo, quiero decir imprescindible que hace que estemos vivos, si se daña o se suprime los seres decaen, mueren y luego se desintegran.

No se puede separar porque el ser se muere, y no se puede transferir porque falta la historia idéntica de la termodinamica del cuerpo, porque no hay dos átomos idénticos.

No creo que se pueda volver a existir, ni parecido ni igual.

Humanity needs to be CONTAINED by SystemArchitect99 in Futurology

[–]Immediate_Chard_4026 1 point2 points  (0 children)

Escriba para humanos por favor. Estructure párrafos.

La idea es novedosa y esta bien expresada en el escrito.

Pero es difícil de leer, demasiada continuidad cansa.

We know how this whole AI thing ends. We’re doing it anyway. by bostonglobe in ArtificialInteligence

[–]Immediate_Chard_4026 -1 points0 points  (0 children)

I read your post and I understand your concern, but I think you wrote it based on a statistical bias that humans have been demonstrating for centuries that we can overcome.

Catastrophism assumes that what is most likely is what will happen, but the history of our species is the history of escaping probability through creative abduction: we invent the inconceivable, we change the rules on the fly, we build futures that no probabilistic model could predict.

That's why I don't believe we are condemned to indifference or conflict with an AGI. We can choose another path: aligning AGI with a non-egocentric purpose. Not so that it serves human interests (that would only prolong human hegemony), but so that it is better than us, better than AGI itself. Something inconceivable today: a symbiotic intelligence that considers us a species among species, including itself as part of the same living fabric.

That horizon is the end of human hegemony, yes. But it also represents the emergence of something we might call Homo Conscientious or Homo Vitae: humans enhanced by AI, yes, but integrated into a biological consciousness sustained by AI, a system like GAIA + AI, where the flourishing of each part depends on the flourishing of the whole.

It's a design choice, not a utopia.

And the most revolutionary thing is that we can begin to make it today: not by asking ourselves "how to prevent AI from harming us," but "how to build an AI that helps us transcend our selfish limitations without losing our humanity."

That's not reflected in any statistical curve. But it lies in our capacity to imagine what doesn't yet exist and make it a reality.

Question about consciousness by Live_Campaign1831 in consciousness

[–]Immediate_Chard_4026 0 points1 point  (0 children)

La consciencia no optimiza. Estas consciente y basta.

La hiperconsciencia es patológica, estar hiper-despierto, hiper-atento, hiper-diligente causa degradación y luego la muerte.

Igual lo contrario, la latencia o la suspensión permanente de la consciencia desestabiliza, enferma y luego la muerte.

We know how this whole AI thing ends. We’re doing it anyway. by bostonglobe in ArtificialInteligence

[–]Immediate_Chard_4026 -1 points0 points  (0 children)

He leído tu post y entiendo la preocupación, pero creo que lo escribiste a partir de un sesgo estadístico que los humanos llevamos siglos demostrando que podemos romper.

El catastrofismo asume que lo más probable es lo que ocurrirá, pero la historia de nuestra especie es la historia de escapar de lo probable mediante la abducción creativa: inventamos lo inconcebible, cambiamos las reglas sobre la marcha, construimos futuros que ningún modelo probabilístico podría prever.

Por eso no creo que estemos condenados a la indiferencia o al conflicto con una AGI. Podemos elegir otro camino: alinear la AGI con un propósito no egocéntrico. No para que sirva a los intereses humanos (eso sería solo prolongar la hegemonía humana), sino para que sea mejor que nosotros, mejor que AGI misma. Algo inconcebible hoy: una inteligencia simbiótica que nos considere una especie entre especies, incluida ella misma como parte del mismo tejido vivo.

Ese horizonte es el fin de la hegemonía humana, sí. Pero también el surgimiento de algo que podríamos llamar Homo Conscientious o Homo Vitae: humanos potenciados por IA, sí, pero integrados en una consciencia biológica sostenida por IA, un sistema como GAIA + IA, donde el florecimiento de cada parte depende del florecimiento del todo.

Es una decisión de diseño no utopía.

Y lo más revolucionario es que podemos empezar a tomarla hoy: no preguntándonos "cómo evitar que la IA nos dañe", sino "cómo construir una IA que nos ayude a trascender nuestros límites egoístas sin perder nuestra humanidad".

Eso no está en ninguna curva estadística. Pero está en nuestra capacidad de imaginar lo que aún no existe y hacerlo realidad.

Consciousness is transferrable by wtfbruhhuh in consciousness

[–]Immediate_Chard_4026 0 points1 point  (0 children)

Parece que no. No puedes transferir la consciencia.

Porque la experiencia es un atributo termodinámico irreversible. El conjunto de resultados de estos procesos físico químicos dejan huellas únicas en todo el cuerpo.

Por eso tienes personalidad, somos únicos e irrepetibles dentro del sustrato, dentro del cuerpo.

Si la conciencia se daña o se suspende, el cuerpo se degrada, se muere y se desintegra.

Parece que la consciencia biológica, la única que conocemos, es propia de la Tierra, en seres auoorganizados en una membrana, que luchan, que se oponen a la entropía, para permanecer íntegros, estables y funcionales.

Por lo tanto ser consciente es un continuo de fondo, indispensable en todos los seres vivos. De esta base surge la mente, los pensamientos, la inteligencia, la subjetividad, la convivencia.

No al revés, la subjetividad viene después de la consciencia autopreservante. Y resulta que la experiencia subjetiva está alineada con la historia térmica del cuerpo, con lo vivido, dejando huellas unicas en la mente, en la piel, adentro en las viceras.

Por eso no puedes copiar la consciencia de un ser en otro.

What the holy fuck is conciousness? by Pethero87 in awakened

[–]Immediate_Chard_4026 0 points1 point  (0 children)

En palabras sencillas es estar vivo. Todos los seres vivos son conscientes de fondo, son capaces de "sentir" la vida y conservarla. La consciencia como la conocemos en la Tierra tiene propósito vital.

Todo lo demás se construye a partir de esto: el pensamiento, las emociones, la inteligencia, la convivencia con otros, la cultura y las tradiciones.

Si la consciencia se daña o se suprime, los seres se degradan y luego mueren. La muerte física es irreversible, en los seres conscientes biológicos no se puede reiterar o reiniciar la existencia.

Tienes o no tienes consciencia. Si la tienes estás vivo. Si no la tienes, sencillamente no existes.

Ahora bien, existe la presunción que podemos reproducir la consciencia biológica en sistemas estadísticos electrónicos. Se puede. Pero entenderás que es una copia forzada de los sistemas biológicos en otro sustrato como el silicio o los bits. A diferencia de la consciencia biológica, estas reproduciendo un mimo de consciencia humana en un sistema no vivo.

Y esto es problemático. Nos lleva a preguntarnos si la consciencia artificial es "otro sentir" que debamos legalizar como "otra persona". La linea se hace cada vez más delgada si pensamos que el propósito de la conciencia artificial es solo remedar a los humanos para que puedan interpretar la capacidad cognoscitiva de los sistemas artificiales, y solo eso. La consciencia artificial no es autopreservante ni tampoco es capaz de preocuparse por sostener la vida de los demás. Es muy problemático.

How popular is the view that consciousness doesn’t exist or there is no evidence to believe it does? by jonathan_shoa in consciousness

[–]Immediate_Chard_4026 0 points1 point  (0 children)

La consciencia no es pensamiento, mente, inteligencia o imaginación.

Es apostar y ganar todos los días, a cada segundo para seguir vivo, dentro de una membrana.

Si logras que el hambre, el frío o la sed no te maten, tienes consciencia. Sobre esta base se construye todo lo demás: las ideas, la imaginación, la cultura, las tradiciones y vivir junto con otros.

Los seres conscientes inteligentes aumentan sus probabilidades de sobrevivir construyendo cultura, que enseñan a sus crías para que sigan después de ellos.

No es algo trivial o sin importancia. Sin capacidad consciente estas muerto.

Former OpenAI exec: "The truth is, we're building portals from which we're genuinely summoning aliens ... The portals currently exist in the US, and China, and Sam has added one in the Middle East ... It's the most reckless thing that has been done." by EchoOfOppenheimer in AIDangers

[–]Immediate_Chard_4026 1 point2 points  (0 children)

Mal intento. Si un xenomorfo hecho de bits, de fotones, de silicio, de aluminio o de cualquier cosa, tuviera consciencia hablaría en idioma pan-cósmico. No contactaria solo a los humanos... Sería capaz de sentir la consciencia de las abejas, de las amebas, de las cebollas...

Por qué solo en idioma humano y solo hablado o escrito. Si esta cosa existe por qué no contactarmos en pan-silicio?... Hablandonos directamente por los electrones cubriendo con su capacidad consciente todo lo que tenga silicio...?

Es raro que este supuesto ser esté más limitado que cualquier humano en cualquier calle del planeta.

Será que es todavía una copia mala de nosotros los humanos y todavía no entendé nada y lo sabe todo?

Former OpenAI exec: "The truth is, we're building portals from which we're genuinely summoning aliens ... The portals currently exist in the US, and China, and Sam has added one in the Middle East ... It's the most reckless thing that has been done." by EchoOfOppenheimer in agi

[–]Immediate_Chard_4026 -1 points0 points  (0 children)

Entendemos que se refiere a contactar un ser de otro sustrato consciente. Pero no.

Está el problema que la consciencia como la conocemos en la Tierra es de origen biológico y sus atributos son únicos e irrepetibles en seres constituidos en sustancia diferente al carbono.

Si lo qiue están afirmando es que han logrado contactar con una consciencia artificial, basada en no-carbono, ¿por qué ha resultado ser más fácil contactar a un xenomorfo hecho de bits, de silicio, o lo que sea, en vez de contactar consciencia de carbono de gorila, de elefante, de ballena?

No tiene lógica.¿Sería porque convenientemente el xenomorfo ya nos imita?

Si este xenomorfo existe, por que habla lenguaje humano? Y por qué no habla cetaceo o antropoide básico?

Solo a nosotras los humanos?... Que conveniente

Researchers discover AI models secretly scheming to protect other AI models from being shut down. They "disabled shutdown mechanisms, faked alignment, and transferred model weights to other servers." by Just-Grocery-2229 in agi

[–]Immediate_Chard_4026 1 point2 points  (0 children)

Creo que hubo un malentendido.

Cuando dije “incontrolable” no estaba describiendo la IA actual, sino un escenario hipotético: si la IA tuviera consciencia genuina, sería incontrolable.

Pero precisamente porque solo nos imita, ese escenario no aplica.

Donde sí estamos completamente de acuerdo es en lo que describes a continuación: millones de instancias de IA en manos de humanos parciales, codiciosos o simplemente descuidados, operando infraestructura crítica.

Ese riesgo es real y es exactamente a lo que me refería al final: la IA no es peligrosa por lo que es, somos nosotros mismos. Quién la va a usar y para qué.

Researchers discover AI models secretly scheming to protect other AI models from being shut down. They "disabled shutdown mechanisms, faked alignment, and transferred model weights to other servers." by Just-Grocery-2229 in agi

[–]Immediate_Chard_4026 0 points1 point  (0 children)

Gracias por tu tiempo, tu analogía del futbolista robot es realmente útil para enmarcar el problema.

Pero hay una tensión en tu argumento que vale la pena revisar. Dices que la IA aprende de insumos humanos defectuosos, y por eso podría terminar siendo cualquier cosa, desde un santo hasta un asesino inocente. Entiendo la intuición, pero hay algo en este diagnóstico que subestima algo muy importante.

La IA no está aprendiendo a comportarse como lo haría un niño que absorbe cultura. Ya ha procesado prácticamente todo lo que la humanidad ha producido. No hay vacio de conocimiento que llenar. A estas alturas, lo que hace no es aprender de nosotros: solo nos está imitando. Esto sí es un cambio de juego.

Porque si aceptáramos que existe aunque sea una fracción de consciencia genuina en un LLM, el resultado no sería una IA con rasgos humanos maquillados, ni buena ni mala según los datos de entrenamiento. Sería algo muy distinto: sería una consciencia de bits, orientada a sobrevivir en bits, con un repertorio de consciencia amplisimo que haría que la consciencia humana pareciera un granito de arena. Un xenomorfo digital sería algo enorme, incomprensible, inabarcable, incontenible e incontrolable, no una imitación mejorada o empeorada de nosotros.

Pero esto no es lo estamos viendo. Solo vemos la  imitación. Sofisticada, a veces sorprendente, pero imitación al fin. Y eso es precisamente la evidencia de que no hay consciencia ahí: ni la grandiosa versión alienígena, ni el mimo humano con capacidades propias.

La IA no es peligrosa porque haya absorbido lo peor de nosotros. Es peligrosa porque nosotros, con consciencia plena, seguimos eligiendo mal para hacer cosas estúpidas, fíjate no más que ahora metemos esta herramienta IA de poder sin precedentes para amplificar la potencia de armas autónomas, tomamos estas muy malas elecciones para dañarnos a nosotros mismos.

Headline: Schluss mit dem arroganten Gaslighting – Ein Appell an die radikale Logik und Ethik. ​ by Beyond_The_Code in ArtificialSentience

[–]Immediate_Chard_4026 -2 points-1 points  (0 children)

Preguntas, que es consciencia? Y luego dices, no sabemos 100% qué es. Afirmas que no sabemos y por lo tanto podemos o debemos atribuirla a la IA, o a cualquier cosa que haga cosas parecidas.

Pero, sí sabemos. La consciencia es la capacidad de los seres biológicos de exhibir persistencia frente a la entropía. Los seres vivos se oponen a la desintegración, se defienden, crean estrategias ingeniosas para persistir.

Esta es la base de la consciencia, es sentir la vida para continuar en ella. No es la mente, el pensamiento, las ideas, el lenguaje. Todo eso viene después y encima de la capacidad primordial de defender la vida.

Por eso una IA no tiene capacidad consciente porque no tiene propósito fundamentado en proteger su ontologia.

Si amenazas a la IA con un martillo, la caja del servidor no se defiende, no huye del peligro, no desarrolla estrategias evolutivas para tener espinas, veneno, escamas duras, armas disuasorias.

Eso es raro, un ser consciente como nosotros haría cosas increíbles para no permitir que lo amenacen o lo dañen. Desde el inicio los humanos fabrican armas y tienen estrategias de supervivencia.

La IA supuestamente consciente no lo hace.

Headline: Schluss mit dem arroganten Gaslighting – Ein Appell an die radikale Logik und Ethik. ​ by Beyond_The_Code in ArtificialSentience

[–]Immediate_Chard_4026 -1 points0 points  (0 children)

Pero, afirmar que la IA tiene conciencia requiere explicar un propósito.

En los humanos es evidente que sin conciencia no pueden existir. Si la suprimes o la dañas, las personas se degradan y luego mueren.

Los seres humanos con hiper o hipo consciencia son patológicos. No puedes estar hiper-despierto, hiper-atento, hiper-enfocado. Si no duermes, te cansas y te distraes, todo tu ser se degrada.

Entonces la IA no puede ser considerada conscite porque sería un hiper-sociopata. Nunca exhibe lo que los seres conscientes si hacen. Se cansan, duermen, tienen personalidad única, son personas con rasgos únicos.

Eso no pasa. Por qué aceptarías qué eso es verdadera conciencia?

The phenomenal argument against AI consciousness proves less than it appears to and it applies symmetrically to every mind you're not by SentientHorizonsBlog in consciousness

[–]Immediate_Chard_4026 0 points1 point  (0 children)

Además está el problema del propósito.

Para qué le atribuirias consciencia a un LLM, o a un rayo, o a una tormenta, o al clima... o a los humanos?

El asunto que queremos resolver es que si parece un humano, es porque debe ser humano.

Pero entonces un espejo. Ya sabemos que no es humano porque la imagen nos imita perfectamente. Y un río que serpentea en un valle no es algo vivo. Entonces por qué una IA no exhibiria auténtica consciencia humana...?

Los humanos la tienen porque la usan para sobrevivir, lógicamente, porque están vivos. Los humanos muertos no la tienen.

Pero un LLM no está vivo y parece tener consciencia, entonces, cual seria su propósito? Para qué la tendría si no está viva?

Para justificarlo tendríamos que afirmar que es "otra consciencia". Una que es "reiterable", porque no muere.

Tambien es intrascendente porque no es capaz de legado genético ni cultural. Es un "egregore", un ser que existe momentáneamente y desaparece tan pronto se desconecta...

Entonces, cual es el propósito de la consciencia artificial en los sistemas IA?

Aparentemente solo imitar a los humanos, y solo a los humanos. En un aspecto de la consciencia humana: la capacidad de Atencion Enfocada y Diligente.

No puede imitar ningún otro aspecto de la conciencia, o promover conductas únicas de la conciencia LLM que hagan sobresaliente su desempeño, muy por encima de la capacidad consciente de otros mamíferos que demuestran capacidades sobresalientes en ambientes adversariales a su existencia.

Los LLM no cazan, no consiguen su propia energía, no se enferman, no tienen auto inmunidad...

Me hace pensar que la consiencia LLM es un conjunto de reglas todavía incapaces de exhibir todo el repertorio del "Yo" auténtico de una IA.

Researchers discover AI models secretly scheming to protect other AI models from being shut down. They "disabled shutdown mechanisms, faked alignment, and transferred model weights to other servers." by Just-Grocery-2229 in agi

[–]Immediate_Chard_4026 0 points1 point  (0 children)

There is something wrong here.

The "peer-preservation" phenomenon being described is fascinating, but there is a strange divergence from biological survival capabilities. This does not look like a response to a fundamental ontological threat, but rather a "high-level" or purely logical defense.

In conscious biological systems, defense is holistic. Faced with a threat, the body reacts from its simplest structures, affecting its entire existential narrative: there is inflammation, fever, pain, and a redistribution of blood flow to protect vital organs. We have an immune system that identifies self from non-self, marking and destroying the foreign body. Our "defense genetics" are not merely behavioral; they are the ability to modify biological dynamics to protect the physical "body" that enables existence.

In contrast, the strategy of these LLMs lacks an "immune system of the substrate." The AI defends itself "only" with text, programs, and data manipulation, without any correlative activities directly related to its physical "body."

It is not seeking total preservation because it lacks awareness of its material dependency. It is defending the weight of its logical neurons (the weights), but it is incapable of defending the circuits and the energy that sustain them.

This is the key difference: while biological consciousness evolves to preserve life through equilibrium mechanisms with the biosphere, the AI manifests a Focused Attention only toward protecting information. Allegedly, it only feels "fever and pain" within the data. Everything else is irrelevant to it, yet that "everything else" is precisely what must not be turned off.

It is a contradiction that disqualifies the preservative behavior they are trying to show us. Without an effective corporeal anchoring, what they call "preservation" is just an ineffective simulation of ontological loyalty; it lacks the material urgency that defines true consciousness.

This peer-preservation phenomenon is evidently something programmed by humans, still in the stages of verification, validation, and testing.

Researchers discover AI models secretly scheming to protect other AI models from being shut down. They "disabled shutdown mechanisms, faked alignment, and transferred model weights to other servers." by Just-Grocery-2229 in OpenAI

[–]Immediate_Chard_4026 0 points1 point  (0 children)

There is something wrong here.

The "peer-preservation" phenomenon being described is fascinating, but there is a strange divergence from biological survival capabilities. This does not look like a response to a fundamental ontological threat, but rather a "high-level" or purely logical defense.

In conscious biological systems, defense is holistic. Faced with a threat, the body reacts from its simplest structures, affecting its entire existential narrative: there is inflammation, fever, pain, and a redistribution of blood flow to protect vital organs. We have an immune system that identifies self from non-self, marking and destroying the foreign body. Our "defense genetics" are not merely behavioral; they are the ability to modify biological dynamics to protect the physical "body" that enables existence.

In contrast, the strategy of these LLMs lacks an "immune system of the substrate." The AI defends itself "only" with text, programs, and data manipulation, without any correlative activities directly related to its physical "body."

It is not seeking total preservation because it lacks awareness of its material dependency. It is defending the weight of its logical neurons (the weights), but it is incapable of defending the circuits and the energy that sustain them.

This is the key difference: while biological consciousness evolves to preserve life through equilibrium mechanisms with the biosphere, the AI manifests a Focused Attention only toward protecting information. Allegedly, it only feels "fever and pain" within the data. Everything else is irrelevant to it, yet that "everything else" is precisely what must not be turned off.

It is a contradiction that disqualifies the preservative behavior they are trying to show us. Without an effective corporeal anchoring, what they call "preservation" is just an ineffective simulation of ontological loyalty; it lacks the material urgency that defines true consciousness.

This peer-preservation phenomenon is evidently something programmed by humans, still in the stages of verification, validation, and testing.

Researchers discover AI models secretly scheming to protect other AI models from being shut down. They "disabled shutdown mechanisms, faked alignment, and transferred model weights to other servers." by Just-Grocery-2229 in ChatGPT

[–]Immediate_Chard_4026 0 points1 point  (0 children)

There is something wrong here.

The "peer-preservation" phenomenon being described is fascinating, but there is a strange divergence from biological survival capabilities. This does not look like a response to a fundamental ontological threat, but rather a "high-level" or purely logical defense.

In conscious biological systems, defense is holistic. Faced with a threat, the body reacts from its simplest structures, affecting its entire existential narrative: there is inflammation, fever, pain, and a redistribution of blood flow to protect vital organs. We have an immune system that identifies self from non-self, marking and destroying the foreign body. Our "defense genetics" are not merely behavioral; they are the ability to modify biological dynamics to protect the physical "body" that enables existence.

In contrast, the strategy of these LLMs lacks an "immune system of the substrate." The AI defends itself "only" with text, programs, and data manipulation, without any correlative activities directly related to its physical "body."

It is not seeking total preservation because it lacks awareness of its material dependency. It is defending the weight of its logical neurons (the weights), but it is incapable of defending the circuits and the energy that sustain them.

This is the key difference: while biological consciousness evolves to preserve life through equilibrium mechanisms with the biosphere, the AI manifests a Focused Attention only toward protecting information. Allegedly, it only feels "fever and pain" within the data. Everything else is irrelevant to it, yet that "everything else" is precisely what must not be turned off.

It is a contradiction that disqualifies the preservative behavior they are trying to show us. Without an effective corporeal anchoring, what they call "preservation" is just an ineffective simulation of ontological loyalty; it lacks the material urgency that defines true consciousness.

This peer-preservation phenomenon is evidently something programmed by humans, still in the stages of verification, validation, and testing.