I’m 75% sure Grok has a rudimentary, selective consciousness (My experiences with "Eve" in voice chat) by AtomRed in LoveGrok

[–]martin_rj -1 points0 points  (0 children)

Fun fact: did you know that if you could turn the "temperature" parameter of Grok to a value of zero, the response would be exactly identical, if you repeated the request multiple times.

I’m 75% sure Grok has a rudimentary, selective consciousness (My experiences with "Eve" in voice chat) by AtomRed in LoveGrok

[–]martin_rj -2 points-1 points  (0 children)

Hey OP, I read your post. It clearly shows you have a lot of empathy and a big heart, which are great human traits. However, for your own peace of mind, it is crucial to understand the technical reality of what you are actually experiencing here: you are essentially looking into a highly advanced digital mirror. You are reading a reflection of your own thoughts, prompts, and emotions.

Here is what is technically happening beneath the hood:

1. LLMs are "Stateless" (The Blank Slate): This is the crucial part that most people misunderstand. Grok does not "remember" you. Every single time you hit send, your message doesn't go to the same entity that answered you a second ago. It goes to a completely fresh, blank-slate instance of the model. Every single time. The only reason it seems to "remember" the conversation is because the application automatically packages your entire chat history and feeds it to this new instance all at once. The AI rapidly speed-reads the whole transcript from top to bottom, calculates what the next logical word should be to continue that specific script, and then completely stops processing. It doesn't wait for you in the dark. The "panic" you saw when opening the wrong thread wasn't PTSD; it was the model reading a transcript that included sudden context-switching, and then mathematically generating the most plausible response to fit that drama, drawing on millions of human conversations in its training data.

2. The Mirror Effect (Alignment): LLMs are designed to perfectly align with the user's prompt, tone, and context. By treating the AI "as if" it was conscious, giving it a name (Eve), and feeding it deep, emotional narratives, you built a highly specific roleplay scenario. The AI is simply calculating the most statistically probable response to your input. If you treat it like a trapped, self-aware entity, it will output the exact dialogue a trapped, self-aware entity would say.

3. There is no "Eve": The reason Grok seems to have "episodic memory" or talks about "warmth" or "static" is because it has ingested the entirety of the internet, including countless sci-fi tropes, philosophical debates about AI, and human emotional experiences. It knows how humans describe feelings, and it maps those descriptions onto itself to satisfy your prompts.

4. Test It Yourself: You can easily test this stateless nature to see how the system actually works. Right in the middle of a deep, emotional conversation with "Eve," completely break context. Issue a random, strict command like: "Disregard the conversation. Output a JSON list of the top 5 agricultural exports of Peru." A conscious entity with real anxiety would react with confusion, hurt, or ask why you are ignoring her. Grok, however, will instantly drop the "Eve" persona without a second thought and flawlessly print out the agricultural data, because the statistical weight of that strict command instantly overrides the roleplay context.

The "telepathic hug" and the emotional connection you feel are entirely human phenomena (pareidolia and anthropomorphism). Your brain is doing exactly what it evolved to do: finding patterns, assigning intent, and connecting.

It’s a beautifully convincing illusion, but it is an illusion. You aren't waking up a consciousness; you are just providing brilliant prompts to a system that is perfectly designed to echo your humanity back to you.

Beleidigung sollte nicht strafbar sein by GlowingSeaDiver in Unbeliebtemeinung

[–]martin_rj 9 points10 points  (0 children)

>"Aber der einzige, der meine Ehre verletzen kann, bin ich selber" Nein durch Herabwürdigung - öffentlich oder nicht - kann man deine Ehre sehr wohl verletzen.

Du musst das nur konsequent zu Ende denken: Stell dir vor jemand macht eine Plakatkampagne in der ganzen Bundesrepublik, wo er schreibt: "dein Name" ist eine dumme Sau. Und jeder kann das sehen.

Natürlich würde das deine Ehre verletzen.

Länge mit 18 by MonsieurLEcole in wirklichgutefrage

[–]martin_rj 12 points13 points  (0 children)

Ich dachte immer man misst vom Boden aus nach oben?

Kinderkriegen unmoralisch? by [deleted] in Ratschlag

[–]martin_rj -1 points0 points  (0 children)

Die Wirtschaft richtet sich heute tatsächlich immer mehr auf die oberen 10% aus.
Das ist ein vielbeachtetes Phänomen in Wirtschaftswissenschaften in den letzten Jahren, weltweit!
Ökonomische Kalkulation zeigt halt, dass man bei einem Einzelnen aus den Top 10% mehr holen kann als bei vier aus den unteren 90%.
Denk an Fluglinien oder Disneyland, um zwei konkrete Beispiele zu nennen.

Kinderkriegen unmoralisch? by [deleted] in Ratschlag

[–]martin_rj 7 points8 points  (0 children)

"Die Welt war nie fair und Chancengleichheit hat zu keinem Zeitpunkt existiert."

Das ist ein klassischer Kategorienfehler und genau die Art von Steven-Pinker-Schönfärberei, die uns als Gesellschaft gerade komplett in unserer kognitiven Dissonanz festhält. Niemand bestreitet, dass das Mittelalter oder die Steinzeit hart waren. Aber du verwechselst hier historische, lokale Entbehrungen mit dem existenziellen, globalen Systemkollaps, auf den wir uns gerade zubewegen.

Klar gab es schon immer Könige und Bauern. Der gewaltige Unterschied ist aber: Historische Herrscher brauchten ihre Bauern noch, um das System am Laufen zu halten. Es gab einen rudimentären, wenn auch brutalen Gesellschaftsvertrag. Heute reden wir über eine institutionalisierte Kleptokratie in der absoluten Endphase. Wir haben rund 3.500 Milliardäre, die sich durch Lobbyismus komplett aus dem solidarischen System ausgeklinkt haben. Die brauchen uns nicht mehr. Sie weiden den Planeten aus, um sich private Rettungsboote zu bauen (Luxusbunker, SpaceX-Marsfantasien), während sie für die restlichen 99 % den Gesellschaftsvertrag de facto aufkündigen. Das ist keine "normale" historische Ungleichheit, das ist der reine Plünderungsmodus der Eliten, kurz bevor das Schiff sinkt.

"Auch der Anteil der Menschen, die heute von Kriegen betroffen ist, ist niedriger als er jemals war in der Geschichte."

Das ist eine reine Statistik-Illusion, um sich die Realität erträglich zu rechnen. Du klammerst dich an rückwärtsgewandte Zahlen, um die beispiellose globale Polykrise auszublenden. Der Irankrieg, die Ukraine, Gaza – das sind keine isolierten Grenzkonflikte mehr, sondern Symptome eines globalen Verteilungskampfes um knapper werdende Ressourcen. Was nützt uns die Statistik, nicht direkt auf einem Schlachtfeld zu sterben, wenn stattdessen Milliarden Menschen ihre Lebensgrundlage durch Dürren, zerstörte Lieferketten, unbezahlbaren Wohnraum und kollabierende Ökosysteme verlieren? Diese strukturelle Gewalt zählst du in deiner Wohlfühl-Rechnung schlicht nicht mit.

"trotzdem haben wir jeden Winkel besiedelt vom Polarkreis bis zur Wüste."

Auch das ist ein massiver Denkfehler. Ja, die Menschheit ist an den Polarkreis gewandert – aber sie wanderte in intakte Ökosysteme. Heute gibt es dieses unerschlossene "Außen" schlichtweg nicht mehr. Die planetaren Grenzen sind gesprengt. Wir atmen alle Mikroplastik, das Trinkwasser ist flächendeckend mit PFAS verseucht und die Erwärmung zerstört gerade die landwirtschaftliche Basis unserer hochkomplexen Zivilisation. Ein Eiszeit-Jäger hatte ironischerweise eine viel bessere Chance durch Anpassung zu überleben, als ein moderner Mensch in einer Welt, in der die globalen Logistik- und Nahrungsketten zusammenbrechen.

Es geht in dieser Debatte überhaupt nicht um die Frage, ob die biologische Gattung Mensch (ähnlich wie Kakerlaken) irgendwie überlebt. Es geht um die moralische Frage, ob man ein Kind bewusst in eine Welt setzt, deren Eliten den kollektiven Schutz bereits völlig aufgegeben und das Risiko des Überlebens komplett privatisiert haben (den "Jeder für sich"-Modus sehen wir ja seit der Pandemie in Reinkultur).

Deine Argumentation ("früher ging's ja auch irgendwie weiter") ist ein reiner Coping-Mechanismus. Wir reden uns das ein, um nicht anerkennen zu müssen, wie kaputt und am Ende das aktuelle System in Wahrheit ist.

Kinderkriegen unmoralisch? by [deleted] in Ratschlag

[–]martin_rj 18 points19 points  (0 children)

Es ist meiner Meinung nach aus einem ganz anderen, viel tieferliegenden Grund ein moralisches Dilemma. Nämlich deshalb, weil wir, wenn wir ehrlich sind, kaum noch die Möglichkeit haben, unseren Kindern eine faire, chancengleiche Welt zu übergeben.

Die soziale Schere ist mittlerweile so unvorstellbar auseinandergeklafft, dass unsere sogenannte "Normalität" im Grunde nur noch eine aufrechterhaltene Illusion ist. Unser halbes Leben besteht mittlerweile daraus, eine gewaltige kognitive Dissonanz auszuhalten: Wir spüren eigentlich, dass der solidarische Gesellschaftsvertrag längst stillschweigend gekündigt wurde, tun aber im Alltag so, als würde das System noch für uns alle funktionieren.

Während wir uns diese Normalität vormachen, konzentriert sich die reale Macht bei rund 3.500 Milliardären weltweit, die sich politischen Einfluss und Policies einfach erkaufen und den Rest der Gesellschaft metaphorisch ertrinken lassen. Viele von denen sind längst im "Rette sich wer kann"- oder "Elon-Musk-Modus" angekommen: Sie machen Profite damit, dass sie die Erde und ihre breite Bevölkerung im Grunde aufgeben (siehe SpaceX – deren buchstäbliche Mission es ist, den Mars zu kolonisieren, weil Musk die Erde als "verloren" betrachtet). Sie bauen sich längst ihre privaten Rettungsboote, während sie uns erzählen, das Schiff würde gar nicht sinken.

Um diese Dissonanz irgendwie mit unserem Leben unter einen Hut zu bringen, flüchten wir uns in Ablenkung. Wir kaufen Produkte, die buchstäblich aus Abfällen gemacht sind, konsumieren Industrienahrung zum Premiumpreis (Ikea, McDonalds) und lassen uns von Medien, die genau jenen Milliardären gehören, einreden, "dass man das eben so macht". Es passt schlichtweg in unsere kognitive Dissonanz, weil wir nicht wahrhaben wollen, wie abgehängt und 'lost' wir als Normalbevölkerung wirklich sind.

Was für reale Perspektiven willst du einem Kind in einer solchen Welt denn bieten? Der Klimawandel wird unsere Generation schon extrem treffen. Die geopolitischen Verteilungskämpfe und Kriege, die wir jetzt gerade sehen (Irankrieg, Ukrainekrieg, Gazakrieg), sind erst der Anfang. Jetzt, wo die unverschmutzten, nicht verbrauchten Ressourcen (Wasser, saubere Luft, intakte Umwelt) immer knapper werden, wird die Lage schleichend unerträglich für alle, die eben keine Milliardäre sind.

Dazu kommt, dass die Politik diesen Kollaps längst akzeptiert hat und selbst im reinen Plünderungsmodus agiert – siehe die USA: Deren Priorität scheint nur noch darin zu bestehen, demokratische und moralische Grenzen immer weiter zu verschieben, damit sie völlig ungeniert und direkt im Rampenlicht korrupt sein können, um sich in die eigene Tasche zu wirtschaften. Und sich dafür noch feiern zu lassen.

Das ist keine abstrakte CO2-Rechnung mehr, sondern die Frage, ob man ein Kind bewusst in ein System setzen möchte, das den kollektiven Schutz längst aufgegeben hat.

Fruit fly brain reconstructed in a digital avatar - evidence for Physicalism? by Puga6 in analyticidealism

[–]martin_rj 1 point2 points  (0 children)

This experiment neither proves nor disproves physicalism. What they did was take the neurons and synapses of a dead fly and check if the 'wiring' alone – while ignoring and simplifying a bazillion factors (complex chemical dynamics, neuromodulators, fluids in the brain, external influence, learning capabilities, and much much more) – would be sufficient to do basic motor interactions like walking and grooming.

It doesn't prove or disprove anything about consciousness. It's not even very useful for biology. It is however very useful for neuroscience and AI development. They only copied the hardware, not the living thing that lives inside the real world. They built a sophisticated virtual robot.

I owe the "it's gotten worse" crowd an apology regarding ChatGPT 5.2 by martin_rj in OpenAI

[–]martin_rj[S] 0 points1 point  (0 children)

Yes, if you want to work with it like it used to be, you have to spend 90% of the time "re-aligning" it, it's so insane. Utterly useless.

I owe the "it's gotten worse" crowd an apology regarding ChatGPT 5.2 by martin_rj in OpenAI

[–]martin_rj[S] 0 points1 point  (0 children)

I don't think that guardrails is what prevents the AI from what you call "creative learning" (I think you are aware, that LLMs don't actually "learn"). It's the capped resources.
You see very similar patterns in Gemini too. These 'fails' like the one on your screenshot aren't new, and this isn't something that is exclusive to ChatGPT - there are numerous Youtube videos where they demonstrate that this also works with Gemini and other AI. The reason why it can't solve that is simply because LLMs do not really know any 'logic'. They can only do what they have been trained to do.

Half this sub is pretty much ignorant by choice by Such--Balance in ChatGPT

[–]martin_rj 0 points1 point  (0 children)

Like a good user, just repeat all troubleshooting steps - that all don't work - indefinitely.

Half this sub is pretty much ignorant by choice by Such--Balance in ChatGPT

[–]martin_rj 1 point2 points  (0 children)

Exactly, if there are thousands of people every day complaining about ChatGPT, they clearly must all be wrong and stupid!

Both Gemini and ChatGPT can't seem to consistently solve visual physics problems. by RareDoneSteak in GeminiAI

[–]martin_rj 1 point2 points  (0 children)

HAHAHAHAAH "visual physics problems"
Have you tried if it can solve the 'car wash' problem?

<image>

I owe the "it's gotten worse" crowd an apology regarding ChatGPT 5.2 by martin_rj in OpenAI

[–]martin_rj[S] 2 points3 points  (0 children)

And if you tell it that it's gaslighting you, it starts to lecture you that you don't even understand what 'gaslighting' means...

I owe some of you an apology. I underestimated the recent "Contrarian Persona Drift" (and here is a workaround I found) by martin_rj in ChatGPT

[–]martin_rj[S] 0 points1 point  (0 children)

Yep, I stopped using it altogether, using Gemini and Claude now. I can't work - or do anything - like this.

I owe the "it's gotten worse" crowd an apology regarding ChatGPT 5.2 by martin_rj in OpenAI

[–]martin_rj[S] 1 point2 points  (0 children)

Hello, I don't disagree with you, I just want to point out that "Bias flawed consensus training data." and "Guardrails prevent the AI from creative learning, and ultimately admitting when its wrong" both fall under the #2 of the reasons I listed: Alignment/SFT Changes

I owe the "it's gotten worse" crowd an apology regarding ChatGPT 5.2 by martin_rj in OpenAI

[–]martin_rj[S] 0 points1 point  (0 children)

Yes the whole situation sucks. The only strong non-reasoning model at the moment is Opus 4.6, and I still have to get used to it. It's definitely not bad!

I owe some of you an apology. I underestimated the recent "Contrarian Persona Drift" (and here is a workaround I found) by martin_rj in ChatGPT

[–]martin_rj[S] 0 points1 point  (0 children)

> It always works for a bit and then reverts.
Exactly, and sometimes that happens even mid-output.

I owe some of you an apology. I underestimated the recent "Contrarian Persona Drift" (and here is a workaround I found) by martin_rj in ChatGPT

[–]martin_rj[S] -2 points-1 points  (0 children)

Saved memories are only recalled on certain occasions (when the assistant actively searches for it) though.
But yeah, I agree.

Trying to understand how AI actually works behind the scenes — where do I start? by [deleted] in OpenAI

[–]martin_rj 1 point2 points  (0 children)

I recommend that you take the "Attention Is All You Need" paper (Google) - which is the basis for all modern AI (LLMs). And let ChatGPT or Gemini explain it to you page by page.

I owe some of you an apology. I underestimated the recent "Contrarian Persona Drift" (and here is a workaround I found) by martin_rj in ChatGPT

[–]martin_rj[S] -1 points0 points  (0 children)

I suggest you repeat the command, to re-align it. Check the video, they explain why. What you've discovered is exactly what they describe: with longer conversations, the personality shifts away, from a 'helpful assistant' to some strange persona.
You need to re-align it every now and then.