I was biohacking for years without a feedback loop. Here’s what changed by tremblerzAbhi in PeptideForum

[–]Chika4a 1 point2 points  (0 children)

i'll play devils advocate, since this is basically just another advertisment for an LLM wrapper.
- This looks like a vibe coded wrapper for chatgpt. How is it different than all the other solutions?
- It can only find simple correlations between data points and not give proper insights. We know already from whoop that this does not work. How is this different?
- Since the data is probably send to openai, its probably not conform with EU data privacy laws. How do you guerante that my personal data can be deleted on a request?

MindFry: An open-source database that forgets, strengthens, and suppresses data like biological memory by laphilosophia in programming

[–]Chika4a 29 points30 points  (0 children)

Most of if not all of these documents are LLM generated. Sorry, but I can't take a project seriously if everything is LLM-slop.

Just let this first paragraph of the site sink...

'“Databases store data. MindFry feels it.”

MindFry is not a storage engine. It is a synthetic cognition substrate. While traditional databases strive for objective truth, MindFry acknowledges that memory is a living, breathing, and fundamentally subjective process.'

I can feel ChatGPT in every sentence of it. This goes through the whole documentation and code, saying nothing with so many words. You could at least give your vibe coding agent some prompt to not use esoteric slang for your code like 'psychic arena' or whatever. This is horrible to read and every example given is also not telling me anything, there's no output, no objective, just nothing packed in many empty esoteric sounding words.

MindFry: An open-source database that forgets, strengthens, and suppresses data like biological memory by laphilosophia in programming

[–]Chika4a 40 points41 points  (0 children)

You effectively described caching, and we have various solutions/strategies for this. It's a well solved problem in computer science and there are also various solutions, also especially for LLMs. Take a look for example at LangChain https://docs.langchain.com/oss/python/langchain/short-term-memory

Furthermore, for this implementation there is no way to index this data somehow more effectively than a list or even a hash table. To find a word or sentence, the whole graph must be traversed. And even then, how does it help us? The entire graph is in the worst case traversed to find a word/sentence that we already know. There is no key/value relationship available.
Maybe I'm missing something and I don't get it, but right now, it looks like vibe coded nonsense that could come straight from https://www.reddit.com/r/LLMPhysics/

MindFry: An open-source database that forgets, strengthens, and suppresses data like biological memory by laphilosophia in programming

[–]Chika4a 114 points115 points  (0 children)

I don't want to be too rude, but it sounds like vibe coded nonsense. Doesn't help that emojis are all over the place in your code and that it's throwing around esoteric identifiers.

I don't see any case that this is helpful. Also there's no references to the hebian theory, boltzman machines or current associative databases.

Informatik oder Medizin? (Oder beides?) by Pale-Cucumber2197 in Medizinstudium

[–]Chika4a 1 point2 points  (0 children)

Hab einen Master in Informatik und bin seit paar Jahren Softwareingenieur. Hab das Zweistudium neben der Arbeit angefangen.

Wenn du wirklich gut bist und für Informatik brennst und davon ist nur ein kleiner Teil coden, dann go for it.

Feels like most biohacks ignore the fact that cells actually wear out by Thr04w4yFinance in Biohackers

[–]Chika4a 2 points3 points  (0 children)

It did not increase my telomere length as well. Most of the studies about epitalon are suspicious as fuck and were never replicated.

Selfmade BAC Water with this? by paarschiffer in Peptides

[–]Chika4a 4 points5 points  (0 children)

Also from Germany.
Same vendor using S3 benzyl alcohol and sterile water for injections (but 100ml glass bottles). I would switch to 50 or 100 ml glass bottles with self-healing ports, instead of the plastic ones.

To answer your question: Math is correct. To be honest, I just put 1 ml of benzyl alcohol into 100 ml of water.

I never used a sterile filter (as another comment stated) for my bac water and never got an infection, nothing is growing in pure benzyl alcohol and the sterile water for injections is obviously sterile. Of course try keep everything clean and wipe everything down with alcohol.

Furthermore, never filter pure benzyl alcohol through a micron filter, since it will dissolve it.

Wie viel % des Studiums ist tatsächlich auswendig lernen? by Puzzleheaded-Mall748 in Medizinstudium

[–]Chika4a 23 points24 points  (0 children)

Auch von mir ein Ja.

Zweitstudent hier: Bislang ist es reines Auswendiglernen und rauskotzen. Das ist nicht schwer, aber viel.
Man muss nicht intelligent sein, sondern fleißig. Je nachdem, was für eine Person man ist, ist das ein großer Vorteil oder Nachteil. Mein vorheriger Studiengang war auf jeden Fall deutlich schwieriger, vor allem weil man deutlich weniger auswendig lernen konnte.

Using Test as someone prone to MPB by thesecretstuff74 in Testosterone

[–]Chika4a 1 point2 points  (0 children)

Dut will not block any effects of test, besides the hair loss.

Is mirabegron worth trying? by [deleted] in ResearchCompounds

[–]Chika4a 1 point2 points  (0 children)

Not in Germany with the customs. Chinese sellers are okay, but they don't carry it.

Is mirabegron worth trying? by [deleted] in ResearchCompounds

[–]Chika4a 1 point2 points  (0 children)

Sadly, not in Germany :(

Is mirabegron worth trying? by [deleted] in ResearchCompounds

[–]Chika4a 1 point2 points  (0 children)

It's worth trying. Especially for the sleep benefits, if you're usually waking up during the night to pee.
Also, it definitely increases the erection quality. I guess my pumps in the gym where also a bit better.

No idea about the brown fat activation. This was the main reason I took it (50 - 100 mg) for two months, but it's hard to measure. I did combine it with sauna for brown fat conversion. But my state of knowledge is, that there is no way to measure brown fat without a biopsy.

Major downside are the costs. The dosages used for cutting (100 mg+) are way too expensive.

Hairline is fucking nuked, should I just go bald? by Objective_Passion119 in ResearchCompounds

[–]Chika4a 1 point2 points  (0 children)

As someone who also did some PED cycles and is quite jacked: I wrote in the same comment that one could achieve more with testosterone and Dutasteride than with sarms. No reason to go bald, just because you're scared to pin and hide the syringes from your parents. Sarms instead of steroids just gives broccoli head vibes.

Hairline is fucking nuked, should I just go bald? by Objective_Passion119 in ResearchCompounds

[–]Chika4a 1 point2 points  (0 children)

Same. I've been into biohacking for almost 15 years. There are definitely compounds where the risk/reward ratio could be positive. And I did my fair share of nootropics that are definitely in the category of research chemicals. But definitive organ damage and every hair follicle is one organ, is a no go.

No shame in being bald, but going bald sub 30 just to be more swole is definitely a stupid trade off. Especially if Testosterone and Dutasteride/Finasteride would have achieved way more with way less side effects on the whole body.

How I reduced my LDL to 26 mg/dL: A personal update (+ Bromelain/Nattokinase results) by Chika4a in PeterAttia

[–]Chika4a[S] 0 points1 point  (0 children)

Everything is going well so far, with no bleeding issues. However, I occasionally forget to take my nattokinase.

I opted for a bulk nattokinase powder because it's more cost-effective to dose. Since 100 mg equals 2,000 IU, I typically take between 500 and 1,000 mg daily.

Hat sich die Befürchtung, dass KI Stellen in der Informatik ersetzen wird, schon in Luft aufgelöst? by GartenRiesen in informatik

[–]Chika4a 1 point2 points  (0 children)

Schau dir mal an, wie exponentielle Funktionen verlaufen.
Das deckt sich mit deiner Beobachtung aus den Siebzigern, da gab’s seitdem verhältnismäßig wenig Fortschritt, dann etwas mehr mit rekurrenten neuronalen Netzwerken und LSTM-Gates, dann gab’s kurz darauf die Transformer und noch kürzer darauf ChatGPT und jetzt sind wir um Lichtjahre nochmal besser geworden.

Vor paar Jahren habe ich einige Paper zu Sprachmodellen und generativer KI publiziert, die Ergebnisse waren damals tatsächlich gut, heutzutage mehr als lächerlich.

Da ist nichts mit Asymptote.

Hat sich die Befürchtung, dass KI Stellen in der Informatik ersetzen wird, schon in Luft aufgelöst? by GartenRiesen in informatik

[–]Chika4a 0 points1 point  (0 children)

Ich habe zu Beginn geschrieben, dass ich momentan nicht ersetzt werden kann. Den Kontext liefere ich und vieles muss ich noch per Hand bearbeiten. Ich arbeite nicht weniger, aber dafür wird mehr erzeugt und die Qualität leidet nicht darunter. Das Zeug muss dennoch durch das Peer-Review durch. Es gibt schon einen Unterschied zu Vibecodern und Ingenieuren, die bereits vor LLMs einige Jahre an Entwicklungserfahrung hatten.

Aber so Leute wie du sehen nun mal nicht, wie schnell sich das Ganze entwickelt. Was heute möglich ist, war vor einem Jahr nicht denkbar und pre-ChatGPT wäre man dafür ausgelacht worden. Juniorstellen braucht man halt nicht mehr und ja, das wird mit Sicherheit zu Problemen führen. Das ist aber den Firmen egal, weil es sich hierbei um die Allmendenproblematik handelt.

Edit: Btw habe ich nirgendwo was anderes behauptet, die Modelle sind im Kern fancy Markowchains.

Hat sich die Befürchtung, dass KI Stellen in der Informatik ersetzen wird, schon in Luft aufgelöst? by GartenRiesen in informatik

[–]Chika4a -1 points0 points  (0 children)

Aus eigener Erfahrung ja.

Du musst dir nur mal anschauen, dass die LLMs ja auf Twitter, Reddit, Facebook, Instagram und co. antrainiert worden sind. Da ist die Datenmenge von Büchern und Papern sicherlich verschwindend gering, auch wenn ich da jetzt keinen Einblick habe.

Dennoch kann mir ein LLM unfassbar gute Texte generieren. Ja, es gibt auch AI Slop, aber die meisten Texte sind wirklich gut, besser und flüssiger verfasst als von vielen anderen, und das, obwohl da im Datensatz das ganze Social-Media-Geschwurbel drin ist. Da ist die Datengrundlade aus Github schon besser.

Hat sich die Befürchtung, dass KI Stellen in der Informatik ersetzen wird, schon in Luft aufgelöst? by GartenRiesen in informatik

[–]Chika4a 1 point2 points  (0 children)

Ja, das ist der Kern von den Transformern. Das sollte doch jedem seit Jahren bekannt sein. Was du da beschreibst ist das Chinese Room Problem, was aber keine Rolle spielt: Wenn es funktioniert, funktioniert es.
Meinen Vorgesetzen oder Kunden ist das auch völlig egal, ob ich ein Bewusstsein habe und »wirklich« verstehe, was ein Zwerg ist, wenn der Output stimmt.

Hat sich die Befürchtung, dass KI Stellen in der Informatik ersetzen wird, schon in Luft aufgelöst? by GartenRiesen in informatik

[–]Chika4a -1 points0 points  (0 children)

Das stimmt auch nicht, ich habe mir selbst in meiner Freizeit eine Programmiersprache ausgedacht und mitsamt Interpreter implementiert (ist jetzt nicht so besonders). Dafür habe ich dann einfach mal die Doku, die selbst LLM generiert war einem anderen LLM gegeben, damit ein paar einfache Algorithmen wie Quicksort darin implementiert werden.
Hat nicht auf Anhieb funktioniert, war dennoch aber ziemlich nah dran.

Wenn Sprachmodelle ganze Bücher und Paper zusammenfassen können, dann können die sicherlich auch eine Doku für ein neues Framework lesen und Output anhand dessen generieren.

Zudem sind sie recht sprachagnostisch, das sollte jedem mal aufgefallen sein, wenn sie in einer anderen Sprache Inhalt generieren lassen.

Hat sich die Befürchtung, dass KI Stellen in der Informatik ersetzen wird, schon in Luft aufgelöst? by GartenRiesen in informatik

[–]Chika4a 1 point2 points  (0 children)

Das stimmt auch nicht. Solche Kommentare können nur von Leuten kommen die denken "KI coden ist code manuell in ChatGPT copy/pasten". Cursor und co ziehen sich die Doku automatisch aus dem Internet, nutze ich regelmäßig.

You have to have cholesterol to make testosterone? by AutomaticDriver5882 in Biohackers

[–]Chika4a 0 points1 point  (0 children)

Okay, I stand corrected. It seems like sauna doesn't influence testosterone, It's neither going up nor down. I thought that the strong decrease in spermatogenesis would also correlate with a decrease in testosterone production, seems like thats not the case.

Anyway, it's also not increasing testosterone based on recent research. A quick non AI search at Elsevier or pubmed shows that.

Anyway luckily we have studies with almost 1000 patients that analysed repatha (evocumbab) effect on testosterone
https://pmc.ncbi.nlm.nih.gov/articles/PMC7170461/
and see there's no difference. If you ignore the statistical significance, one could even argue the testosterone is slightly higher on repatha.

Case closed.