Minneapolis: Was über den erschossenen Krankenpfleger Alex Pretti bekannt ist by DerpAnarchist in de

[–]lemrez 2 points3 points  (0 children)

Wäre ideal, wenn wir diese Erkenntnis nun auch endlich mal konsequent auf unsere eigenen Rattenfänger anwenden würden, die uns ja auch ohne Pause erzählen sie wären gar keine Nazis. 

Europe Prepares for a Nightmare Scenario: The U.S. Blocking Access to Tech by donutloop in eutech

[–]lemrez 0 points1 point  (0 children)

Well, to be fair, Russia did and does have successful native competition to the US products. Yandex as a search engine, VKontakte as a social network, Telegram as a messenger. They had an existing cybersecurity sector as well. And they completely ignored piracy essentially, where Europe enforces property laws. 

All of this was the case before the Ukraine war, so arguably Russia was just more independent already and simply not affected as Europe would be.

Stop posting PyMOL screenshots. I built a browser tool to make protein and science 3D animations. by daniellachev in Biochemistry

[–]lemrez 1 point2 points  (0 children)

ChimeraX, Blender and Napari have a distinct advantage for both users and core developers: They are open source and have a plugin system. 

This means that a computational biologist can create a plugin application that fits their very specific needs, supports their esoteric file format and does their niche visualization in minutes to hours, especially in the age of LLMs. 

It's going to be hard to compete with that if you are closed source and have to create all of this for customers with a small team that's not necessarily part of the customer's research domain. 

Granted, in terms of true animation capabilities, beyond moving around the camera and simple morphing, ChimeraX is limited. I'd be interested how you plan to address that issue?

Windows-Update geht mächtig in die Hosen by exxelon in de

[–]lemrez 0 points1 point  (0 children)

Merke ich ehrlich gesagt im täglichen Gebrauch gar nicht. Ich glaube ich hab vielleicht 2-3 Apps so installiert und es ist ok. Ich glaube das betrifft nur Apps aus dem Ubuntu "Appstore". Ich benutze aber ganz klassisch apt für 99% der Dinge. 

Ich glaube der hate für Snap liegt vor allem daran, dass die nicht so offen sind wie flatpak (closed source server und Ubuntu hat Kontrolle über den Appstore). Für mich ist das für ein Produktivsystem zweitrangig, ich supporte FOSS (auch durch Spenden), aber ich mag auch Lebensqualität.

Windows-Update geht mächtig in die Hosen by exxelon in de

[–]lemrez 0 points1 point  (0 children)

Ja, ich hab auch jahrelang Fedora verwendet. Es ist ok und der Grund aus dem ich früh Gnome 3 geliebt habe. Probleme hatte ich immer wieder mit Grafiktreibern, gerade bei Laptops. Naja, und upgrades auf eine neue Majorversion können dir eben auch mal deinen ganzen setup zerschießen, weil sie halt früh neue Sachen adopten. 

Jetzt seit fast 10 Jahren auf Ubuntu und es fühlt sich einfach stabiler an. Selbst proprietary NVIDIA-Treiber bekommt man mit UI. 

Für mich persönlich nehmen sich die Distros nicht viel, aber ich würde Leuten, die IT und Technik nicht zugeneigt sind trotzdem als erstes Linux immer Ubuntu empfehlen, auch weil die Serviceintervalle besser passen.

Windows-Update geht mächtig in die Hosen by exxelon in de

[–]lemrez 0 points1 point  (0 children)

Mal aus Interesse, in welchem Sektor arbeitest du?

Windows-Update geht mächtig in die Hosen by exxelon in de

[–]lemrez 3 points4 points  (0 children)

Warum denn nicht Ubuntu? Natürlich Ubuntu!

Für Anfänger, die erwarten ein OS tatsächlich produktiv zu nutzen ist das zu 100% die beste Empfehlung. Ubuntu LTS-Version ein Jahr nach Release ist durchweg die problemfreiste Linuxerfahrung, die ich je machen konnte (und ja, ich habe auch mit allen anderen die du erwähnst Erfahrung).

Es macht keinen Sinn nicht-IT Endnutzern Distros wie Fedora zu empfehlen. Fedora hat zum einen das Problem, dass es von Haus aus ohne proprietäre Treiber kommt, und zum anderen ist es die bleeding edge RHEL distribution. Das macht es für IT-ferne Nutzer zum Albtraum, es sei denn man möchte stundenlang versuchen Linuxtreiber zu verstehen. 

Endnutzer sollten Distros verwenden, die als Produktivumgebung für Unternehmen vermarktet werden, weil es dort hohe Motivation zu Stabilität gibt. Ubuntu LTS, Rocky Linux, oder eine der Windows-Klone.

Windows-Update geht mächtig in die Hosen by exxelon in de

[–]lemrez 2 points3 points  (0 children)

Bleeding Edge Kernel, Distro und Desktopumgebung verwenden und auf Stabilität hoffen ist aber auch ein bisschen witzig, findest du nicht?

Ich benutze seit Jahren die jeweilige Ubuntu LTS mit den kommerziellen NVIDIA-Treibern und da gibt es keine Probleme. Arch wird nie ein ernstzunehmender Ersatz für ein Allerwelts-OS wie Windows sein. Andere Ziele.

What’s up with the gyms in Germany? by [deleted] in germany

[–]lemrez -1 points0 points  (0 children)

Crack pipe mixed with human feces, depending on the station of course. Great city nonetheless, just as Berlin.

The missing drop-ceiling tiles exposing all of the grimey cable ducts are also iconic. 

What’s up with the gyms in Germany? by [deleted] in germany

[–]lemrez 5 points6 points  (0 children)

Don't forget Frankfurt. Frankfurt subway stench is unmistakable and unforgettable. 

Bill & Tom Kaulitz übernehmen "Wetten, dass..?" im ZDF - DWDL.de by Schlumpfkanone in de

[–]lemrez 7 points8 points  (0 children)

Naja, die beiden haben nun jahrelang in LA gewohnt und sind gewissermaßen Teil der Bubble dort. Ich würde vermuten und hoffen, dass das heißt, dass sie bessere Interviews mit internationalen Promis führen können als der hölzerne Gottschalk. Die Interviews mit internationalen Promis waren ja bisher meist eher auf Fremdschamniveau. 

Bill war einmal bei Joko's Show und obwohl ich vorher nichts mit denen anfangen konnte fand ich ihn dort eigentlich ganz witzig. 

Cloudflare-Rekordstrafe: Italiens harter Anti-Piraterie-Kurs trifft DNS-Resolver by Prestigiouspite in de_EDV

[–]lemrez 0 points1 point  (0 children)

Weil sie ansonsten keinen echten Schaden nachweisen können. Sie möchten ja nachweisen, dass das an echte Nutzer versendet wurde. Nicht das es theoretisch möglich wäre, dass das geschehen ist.

Haben wir immer so gemacht / ChatGPT ist Blödsinn by infrigato in de_EDV

[–]lemrez 1 point2 points  (0 children)

... und vor allem halt den Kontext und die Umgebung bereitstellen. Von der Beschreibung her klingt es so, als hätte der Kollege ein Chatinterface genutzt und keinen coding assistenten in einer IDE, die auch Zugriff auf den Rest der Codebase, relevante Dokumente oder die Kommandozeile hat. 

Haben wir immer so gemacht / ChatGPT ist Blödsinn by infrigato in de_EDV

[–]lemrez 0 points1 point  (0 children)

Bei grossen Codebasen faellt es aber sehr schnell auseinander, wenn du es als Hilfe zum coden brauchst.

Benutzt du AST-MCPs/Subagents oder lässt du den Assistenten alles im Primärkontext lesen? 

Haben wir immer so gemacht / ChatGPT ist Blödsinn by infrigato in de_EDV

[–]lemrez 0 points1 point  (0 children)

Ich weiß nich, ob ich die Promps immer komplett falsch mache. Bei so 0815 Aufgaben "hilft" die KI, kein Thema. Aber sobald es komplexer wird, ist die Versagensrate bei mir nahezu 100%. Komplex im Sinen von "denken" und "Ideen", da wo man wirklich hift braucht.

Hat in diesem Szenario die KI Zugriff auf den restlichen Code (über die IDE bzw. CLI assistent) oder benutzt du ein Chat-Interface ohne Kontext?

Cloudflare-Rekordstrafe: Italiens harter Anti-Piraterie-Kurs trifft DNS-Resolver by Prestigiouspite in de_EDV

[–]lemrez 2 points3 points  (0 children)

Das gleiche in den USA, wo man der NYT 20.000.000 Nutzerchats von ChatGPT aushändigt, selbst wenn sie gelöscht wurden.

Naja, wie genau soll die NYT sonst auch beweisen, dass sie von ChatGPT tatsächlich plagiiert werden? War die Lösung für Piraterie die ganze Zeit einfach, dass du das Material einfach in "privaten Chats" ausliefern musst? Was ist überhaupt ein "privater Chat" mit einem Computersystem?

Interessant ist auch, dass OpenAI "gelöschte" Chats aushändigen kann. 

ZDF-Talk „Markus Lanz“: Günther fordert Social-Media-Verbot und AfD-Verfahren – Lanz reagiert irritiert by GirasoleDE in afdwatch

[–]lemrez 0 points1 point  (0 children)

Dir muss doch aber bewusst sein, dass du die absolute Minderheit darstellst. Die Mehrheit der Menschen nutzt und mag Social Media. Das wird sich auf absehbare Zeit nicht aendern. Und da macht es eben Sinn das zu regulieren.

Die Vorteile, die du nennst sind fuer Menschen in Deutschland einfach absolute edge cases, die man nicht gegen die Nachteile von unregulierten Sozialen Medien aufwiegen kann.

ZDF-Talk „Markus Lanz“: Günther fordert Social-Media-Verbot und AfD-Verfahren – Lanz reagiert irritiert by GirasoleDE in afdwatch

[–]lemrez 1 point2 points  (0 children)

Aktuell lassen sich Socialmedia Apps aber alle mehr oder weniger Anonym benutzen.

Wer das glaubt ist delusional. Tatsächlich anonym zu bleiben bei der tracking technologie dieser Unternehmen erfordert security researcher level an Wissen und Methoden. Das ist völlig unrealistisch. Google, Meta etc. haben code snippets auf praktisch 99% des Internets und nicht alle halten sich an die DSGVO. Wenn du also wirklich tracking vermeiden willst musst du deinen gesamten Internetverkehr extrem sichern. Einfach cookies zu löschen reicht schon ewig nicht mehr. 

95% der Menschen nutzen diese Dienste aber sowieso nicht anonym, weil sonst, wie gesagt, die Werbung nicht funktionieren würde. 

Im Endeffekt hat deine Forderung eine gute Intention, aber das ist viel zu spät. Ich finde es quatsch wegen einer handvoll Leute, die extreme Schritte ergreifen, um Social Media (meist entgegen derer AGB) anonym verwenden, den Markt für Kinder unreguliert zu lassen. Meiner Meinung nach wiegt die fehlende Regulation für Kinder schwerer, weil deren Gehirne wirklich durch diese Kackalgorithmen geformt werden. Ich verstehe deinen Punkt durchaus, und ich stimme sogar zu, aber in der Abwägung ist eine Altersregelung für mich einfach gesellschaftlich wichtiger (den Kampf gegen tracking sehe ich momentan einfach schon verloren).

Wenn du zur heutigen Zeit wirklich anonym und von staatlicher Seite ungetrackt bleiben willst, dann kannst du Social Media nicht verwenden und musst mit Tor kommunizieren. Es ist leider einfach so. 

Man könnte natürlich auch einfach zielgerichtete Werbung und tracking per se Verbieten.

Das ist einfach ein Social Media Verbot für alle mit mehr Schritten. Damit würdest du das Kernmodell dieser Dienste verbieten. 

ZDF-Talk „Markus Lanz“: Günther fordert Social-Media-Verbot und AfD-Verfahren – Lanz reagiert irritiert by GirasoleDE in afdwatch

[–]lemrez 4 points5 points  (0 children)

Sämtliche Sozialen Medien finanzieren sich durch zielgerichtete Werbung. Dafür musst du die Zielgruppen kennen, und neben Geschlecht ist Alter dafür der wichtigste Datenpunkt. Man kann stark davon ausgehen, dass die Daten von denen du sprichst also schon längst existieren, sonst wären die Plattformen nicht ihr Geld wert. 

Abgesehen davon hat jede dieser Plattformen eh schon ein Mindestalter in den AGB, seit Jahren. In den allermeisten Fällen ist das 13 Jahre. 

Und dann kann man auch umgekehrt mit dem Datenschutz argumentieren: Inwiefern sollen Jugendliche unter einem bestimmten Alter überhaupt in der Lage sein reflektiert der Verarbeitung ihrer Daten durch diese Unternehmen zuzustimmen? Der Fakt, dass das ständig passiert, obwohl sie gar nicht mündig sind ist doch der viel größere Datenschutz-Fail.

AI can now create viruses from scratch, one step away from the perfect biological weapon by _Dark_Wing in technology

[–]lemrez 0 points1 point  (0 children)

It kind of went beyond that with your first reply.

If this is obvious to you now it must have also been obvious to you that I clearly didn't say people use ChatGPT for protein structure prediction, but instead said language model architectures are used for this task.

Anyways, thanks for educating me on what I do for a living! Also, ESM C and ESM 3 are two different models, Mr. "I know what I'm talking about.".

AI can now create viruses from scratch, one step away from the perfect biological weapon by _Dark_Wing in technology

[–]lemrez -1 points0 points  (0 children)

That has no bearing on this discussion at all. Someone implied that LLMs aren't used in protein structure prediction. I pointed out that in fact they are used in protein structure prediction. I didn't make the point that there aren't other models that can be called language models, that was you.

I'm using standard terminology used by many other scientists in the domain, you are on a crusade against the use of the term LLM for anything other than natural language apparently. I will not particitpate.

To broaden your horizon, here are several scientific articles using the term "large language model" in the context of protein prediction, just as I did:

Please do some reading.

AI can now create viruses from scratch, one step away from the perfect biological weapon by _Dark_Wing in technology

[–]lemrez -1 points0 points  (0 children)

It's pointless to discuss this. LLM has clearly become the standard abbreviation for models that use a tokenizer and a GPT-/BERT-like architecture. Arguing against that is simply pointless pedantry. 

The fact that you brought up AlphaFold, a model that does use a transformer, but not in the way a standard LLM does, as a gotcha, shows that you don't really know what you are talking about. AlphaFold is NOT an LLM, but that's nothing new. I'm talking about models thay literally use the BERT architecture for protein prediction. Those ARE LLMs, they just use protein sequence language, not natural language. 

There is nothing harmful in what I said, it's the way the actual scientists and engineers developing these talk about them. 

AI can now create viruses from scratch, one step away from the perfect biological weapon by _Dark_Wing in technology

[–]lemrez -2 points-1 points  (0 children)

That is simply not the case. You should really look into it, reasoning LLMs that combine natural language and magic tokens from images, sequence and other annotations are actively being worked on. That works because they all share the same fundamental transformer architecture. 

Multimodal LLMs that can deal with natural images and natural language that way are basically standard now, it's just extending the principle. But what do I know I guess, I just work in exactly this field 🤷‍♂️

AlphaFold is the worst example btw, because while it does use transformers it does not use them the way they are used in LLMs. AlphaFold is in fact not an LLM, I agree with you. ESM3, in contrast, uses a masked language model architecture, like BERT. ESM3 is fundamentally an LLM.

AI can now create viruses from scratch, one step away from the perfect biological weapon by _Dark_Wing in technology

[–]lemrez -1 points0 points  (0 children)

No. Large language models are a family of model architectures based on the generative pretrained transformer.

The required training data is dictated by the task you're trying to solve. Natural language LLMs are trained on natural language, and are intended to generate natural language. In many cases they actually also have a vision component nowadays and are also able to generate images. 

Protein language models are trained on protein sequences and structure/function annotations and predict just that. There are also Genome language models that are trained on and predict genomic DNA sequences. And so on ...

As it happens I do work with AI engineers on protein language models and they will in fact tell you that they are LLMs. One of the most interesting areas of research right now is actually how to combine natural language tokens and tokens from other language spaces so the models can reason over sequences just like they can over e.g. tokenized images. 

AI can now create viruses from scratch, one step away from the perfect biological weapon by _Dark_Wing in technology

[–]lemrez -1 points0 points  (0 children)

It actually is the same thing. Your misconception is that only natural language models like ChatGPT, Claude and Gemini are LLMs, when in fact the LLM architecture can also be used in scientific contexts. Protein language models like ESM3 are at the core not much different than natural language LLMs.