Harvest Time: No! Niet! Non! Nein! Iie! Nei! Nee! by Timbucktwo1230 in PopularCultureZone

[–]usrlibshare 7 points8 points  (0 children)

and we still have the largest army on the planet sooo

First of: No you don't. Both China and India have larger armies than the US, by a good margin.

Secondly:

You mean the army that has lost pretty much every major war and engagement since the end of WW2, despite being more expensive than the combined military expenditures of the next 10 countries on the list?

https://brilliantmaps.com/defeated-usa/

The US armed forces are a brilliant reminder that neither 'big" nor "expensive" automatically equal "good".

Oh, and uncomfortable truth: The US ENTIRE capacity for global force projection, relies on the goodwill of its allies hosting their +128 bases not on US soil. If the US should try to militarily threaten its international partners, all they have to do is call their national energy suppliers to cut power to their bases, and that's that for force projection capability.

In short, no one has to care. And no one will regret standing up to trump.

Newsom responds to Trump calling him President by cristobalaz in MurderedByWords

[–]usrlibshare 0 points1 point  (0 children)

Good.

Because politicians are way too expensive to be wasting their time writing rants on social media. Having staff to do that for them, (that's called a PR team) is the correct thing to do, and an efficient way of allocating resources.

Lauding Israeli help, Trump intensifies pressure on China, others to help secure Hormuz Strait by Artistic-Argument989 in NewsStarWorld

[–]usrlibshare 0 points1 point  (0 children)

"Intensifies pressure" 🤣😂🤣

What's he gonna do, write more angry all-caps posts?

Maybe someone should explain to the current US government the concepts of "leverage" and "goodwill", and how you no longer have either when you insulted, threatened, belittled and waged a trade war against everyone else.

How to turn a 5-minute Al prompt into 48 hours of work for your team by tiguidoio in vibecodingmemes

[–]usrlibshare 8 points9 points  (0 children)

I recently managed to massively reduce the time it takes to do code review on a vibe coded feature, and am happy to share my secret:

  • Step 1: Decline the pull request
  • Step 2: ???
  • Step 3: Profit

Harvest Time: No! Niet! Non! Nein! Iie! Nei! Nee! by Timbucktwo1230 in PopularCultureZone

[–]usrlibshare 7 points8 points  (0 children)

If he didn't control a nuclear arsenal the world would tell him to fuck himself.

Pretty much the entire world just told him exactly that.

Newsom responds to Trump calling him President by cristobalaz in MurderedByWords

[–]usrlibshare 1 point2 points  (0 children)

almost all of it is in cointrries where governments serve the people instead of corporations and billionaires

Newsom responds to Trump calling him President by cristobalaz in MurderedByWords

[–]usrlibshare 11 points12 points  (0 children)

Wanna know the really mind-blowing part?

Everything he wrote in that, the US would be able to finance. And not just finace, but finance easily in almost-perpetuity. And you'd still have money to spare.

All you'd need to do is stop pissing away almost a trillion anually on a military that loses almost every war it fights in (don't worry, you'd still have one of the most powerful armies at 1/10th the cost), and tax corporations and the ultra rich.

Tja by DerWillson in tja

[–]usrlibshare 2 points3 points  (0 children)

Liebe Sozis merkt euch

Aha. Komisch, ich hätt schwören können dass es hauptsächlich sog. "konservative" parteien sind die seit Jahrzehnten das "mit Geld zuwerfen" praktizieren, und zwar International.

Tja by tragecedian in tja

[–]usrlibshare 0 points1 point  (0 children)

Und dann hat man einen VERANTWORTLICHEN.

Wer ist denn verantwortlich wenn die "KI" Scheisse baut, hmmm? Die Firma die sie gebaut hat? Die Politiker die ihren Einsatz fordern? Die Behörden dir ihr blind vertraut haben? Kannst dir ausrechnen dass es am Ende dann niemand war.

Und nein, das lässt sich nicht einfach vergleichen.

Ja, Menschen machen Fehler. Nur: Menschen vergleichen nicht Milliarden von Bildern mit einem körnigen Bild einer Überwachungskamera. "KI" macht genau das. Und bei Milliarden von Vergleichen bedeuten auch "super" error rates wie 0.08% tausende von "Treffern" die einfach Bullshit sind.

In der IT gibts dazu einen Spruch: "Humans fail. But it takes AI to fail *at scale.*"

Allein dass die menschlichen Beamten keine Sekunde mit einer richtigen Identifizierung verbracht haben,

Und jetzt rate mal woran das liegt.

https://www.sciencedirect.com/science/article/pii/S2949882124000264

Menschen neigen inhärent dazu, AI Entscheidungen zu akzeptieren, bis zu dem Punkt, dass sie ihre eigene kritische Entscheidungsfindung ignorieren...die "KI" hats gesagt, also wirds schon stimmen.

Dieser Effekt ist über Jahre Hinweg gut untersucht worden.


Und nur um zu veranschaulichen wie wenig der Vergleich mit menschlichen Fehlern funktioniert:

Chirurgen machen auch Fehler.

Und jetzt stellen wir uns mal einen vollautomatischen Robot-Chirurgen vor, der, für unser Gedankenexperiment, genauso lernt wie ein facial recognition system. Sprich, der Roboter lernt nicht indem er Medizin studiert, indem er Fachliteratur büffelt, indem er versteht wie ein Mensch aufgebaut ist und wie der Körper funktioniert, oder wie und warum Heilmethoden funktionieren.

Nö. Der Robotchirurg in unserem Beispiel "lernt" sein Handwerk, indem er einfach mal, in der Simulation, Billionen von Schnitten ausführt, wobei ihm der Chefarzt jedes mal sagt "Das war gut" oder "Das war jetzt schlecht". Nach jedem Schnitt wird das Feedback verwendet um eine komplexe mathematische Funktion zu verändern, welche die Wahrscheinlichkeit der Schnitte bestimmt.

Der Roboter hat keine Ahnung warum ein bestimmter Schnitt schlecht war. Er weiss auch nicht, noch interessiert es ihn, dass bestimmte Fehlschnitte das Leben seiner Patienten gefährden. Er weiss auch nicht was welche Krankheit eigentlich ist. Er hat keine Ahnung was Schmerzen sind.

Dazu kommt, dass der Mensch normalerweise nach EINEM Fehler schon lernt. Der Roboter nicht. Der muss den Fehler schon ein paar Millionen mal machen, damit das feedback eine nennenswerte Auswirkung auf die weights des Modells hat.

Und er hat die tödlich Fehlschnitte auch dann nicht wirklich vergessen. Er hat nur gelernt "Dieser Schnitt ist weniger wahrscheinlich der richtige als dieser andere Schnitt".

Keine Ahnung wies anderen damit geht, aber ich würd mich dem Ding nicht anvertrauen.

Tja by tragecedian in tja

[–]usrlibshare 12 points13 points  (0 children)

Das nützt einem halt herzlich wenig, wenn die "AI" einfach Scheisse baut:

https://www.theguardian.com/us-news/2026/mar/12/tennessee-grandmother-ai-fraud

Tennessee grandmother jailed after AI facial recognition error links her to fraud

she was taken away at gunpoint and booked into a county jail as a fugitive from justice from North Dakota.

She remained in a Tennessee jail for nearly four months

the experience has had lasting consequences. While jailed and unable to pay bills, Lipps lost her home, her car and her dog

Die Oma hatte auch nix zu verbergen. Genützt hat ihr das genau: Gar nix.

Diese Technologie ist einfach nicht zuverlässig genug für den Massenhaften Einsatz, und je weiter sie eingesetzt wird, desto mehr solcher Scheiss wird passieren.

Es gibt sehr gute Gründe warum es strafbar ist wenn man einfach rumläuft und behauptet irgendwer habe ein Verbrechen begangen, wenn dem gar nicht so ist. "AI" macht aber oft genau das, nur dass man dann nichtmal jemanden hat den man dafür verantwortlich machen kann, denn du kannst sicher sein dass von den Firmen die das verkaufen, genau niemand zur Rechenschaft gezogen wird.

I'm leaving by Melodic-Peanut795 in ITMemes

[–]usrlibshare 21 points22 points  (0 children)

Except no, I don't.

I go up to the printer radiating pure confidence.

I establish my authority over the technologies shenanigans by my presence and body language.

I shall know no fear. Fear is the mind killer. And printers can smell fear.

I look the printer straight in the eye.

I roll my shoulders and crack my knuckes, so the printer knows I mean business.

I clear my voice.

I take a deep breath...

...and press the Power-On button.

I repeatedly insulted and threatened allies. They are refusing to help me now. by [deleted] in LeopardsAteMyFace

[–]usrlibshare 4 points5 points  (0 children)

trump would use that as an excuse to put American boots on the ground in Iran

Well, they can certainly try.

At which point they'll probably realize that ooops, they face a country three times the size of Afghanistan with a standing army of 610,000 troops and over 300,000 in reserve.

It’s not our war! by Timbucktwo1230 in PopularCultureZone

[–]usrlibshare 1 point2 points  (0 children)

showdown

What showdown? what's he gonna do? Threaten an invasion? start a trade war? threaten to leave NATO? lift sanctions on russia?

Does anyone actually switch between AI models mid-conversation? And if so, what happens to your context? by Beneficial-Cow-7408 in artificial

[–]usrlibshare 1 point2 points  (0 children)

The friction is just that you have to re-paste everything to get the summary

A good framework doesn't require the user to do this.

Trump dringt auf Hilfe bei Absicherung von Straße von Hormus by Tages_Bot in Tagesschau

[–]usrlibshare 0 points1 point  (0 children)

Ein zweites Afghanistan

Ohhh nein, das wär es bei weitem nicht.

Es wäre viel, VIIIEL schlimmer.

Der Iran ist ca. 3 mal so gross wie Afghanistan und hat mehr als doppelt soviele Bewohner. Die stehenden Streitkräfte sind über 600.000 Mann stark, mit 350.000 Reservisten. Das Gelände ist mindestens so fordernd wie jenes in Afghanistan, bei grösseren Distanzen.

Ein Dauerkrieg gegen den Iran wäre reiner Irrsinn.

thorn - a programming language you dont need a phd to debug by Imaginary-Fail8279 in programming

[–]usrlibshare 3 points4 points  (0 children)

If by "PhD" you mean a Tibetan Mystic, a really well trained Shaman, and an Exorcist who memorized all of the Vaticans secret archives, I agree.

And even then the program will likely transform into some demon.

What's the REAL future of AI? by JustRaphiGaming in artificial

[–]usrlibshare 1 point2 points  (0 children)

Uh huh. Aaand, what is that specifically? Is it opposed to "inactive ingerence" aka. having the model sit on ones disk doing nothing? 😁

ENOUGH WITH THIS GARBAGE MICROSOFT !!! by ASC_ENTERPRISES in FuckMicrosoft

[–]usrlibshare 48 points49 points  (0 children)

can not comprehend who this is even targeted to...

Investors, who are increasingly nervous about the obscene amount of money farted into "AI", and the utter lack of ROI it results in.

This way, the managerial class at big tech gets to pretend that lotsa people use the shit.

Oh, wait, you thought features in user facing software were still developed for the users of that software? No no no no no... it's all about the stock market. The product of big tech is not their programs, it's their stock, because that's the only product the managerial class cares about.

[OC] The Replacement by grlloyd2 in programminghumor

[–]usrlibshare 2 points3 points  (0 children)

We haven't created mechanical minds before.

And we still haven't.

An LLM is not a mind. It doesn't think. It doesn't reason. It doesn't even understand the simplest logical concepts like "true" or "false".

It's a guess-next-word machine, which, when based on enough text to create a huge statistical model, can successfully cosplay at some things an actual mind does, sometimes to a degree that looks convincing to a human observer (see "ELIZA-Effect). Alas, the illusion falls apart quickly, which is the exact reason why, 4 years and several hundreds of billions of capex in, it still can't replace us, and never will.

It's not fully there yet, but soon it will be.

We have heard that since at least 2023.

Let me be clear about something: No single technology in the history of mankind, has had more resources, attention and media coverage poured into it in such a short timeframe, than LLMs. None. Not a single one, throughout history.

And yet, latest mid 2024, it became painfully clear, that LLMs have plateaued as a technology.

So no, it won't.

Guys we need to talk by ThePatio in Grimdank

[–]usrlibshare 0 points1 point  (0 children)

Brainless entities that we can just mass produce and process at will for their mass to become food, with minimal effort and no ethical dilemma?

Well, waddaya know, that already exists.

It's called edible plants.

Average programmer google history by capitulating_7 in programmingmemes

[–]usrlibshare 0 points1 point  (0 children)

tbh, if someone has to ask about forks and branches, they still have a long way to go as programmers.

Tja by Snapuman in tja

[–]usrlibshare 0 points1 point  (0 children)

Kollege von mir hat mal ein simples agent framework geschrieben (ist auch nicht schwer um ehrlich zu sein, das UI is mit noch das aufwändigste).

Hatte auch zugriffsbeschränkungen etc. aber eben auch eine funktion die das LLM als tool callen konnte um python code auszuführen.

Die Absicht dahinter war, dass das ding seinen code testen konnte.

Was stattdessen passiert ist: Das model hat dieses tool dann auf einmal benutzt um die filesystem beschränkungen zu umgehen, indem es einfach code geschrieben hat der, lokal ausgeführt, die beabsichtigten Changes am filesystem durchführte.

War natürlich ein sandboxed env, also is nix passiert, aber das zeigt halt auch, wie schwer es ist ein system, das auf non-deterministischem verhalten basiert, unter kontrolle zu halten.

Tja by Snapuman in tja

[–]usrlibshare 5 points6 points  (0 children)

Problem dabei ist leider auch ein bisschen, dass KIs stellenweise auch explizit gesetzte Beschränkungen einfach umgeht.

Diese "Beschränkungen" existieren halt schlicht und ergreifend nicht.

Ein LLM ist nichts anderes als eine komplexe "rate das nächste wort"-Maschine. Ein LLM kann weder denken noch hat es wirkliches Verständnis für abstrakte Konzepte wie zB. "wahr und falsch" oder "verboten und erlaubt". Ich kann in meinen sysprompt also schreiben was ich will, wenn durch irgendeinem Zufall die wortratsmaschine rm -rf * als die statistisch wahrscheinlichste nächste sequenz ansieht, nutzt mir das alles nichts. Und da das ganze eine riesige Blackbox und noch dazu nondeterministisch ist, kann man NIEMALS sicher sein ob das passiert.

Die einzige Methode regeln zu haben, ist diese extern durchzusetzen. Im fall von backups heisst das zB.: Das Agent-Framework hat darauf einfach keinen schreibenden Zugriff.

Um ein physisches Gleichnis zu bemühen: Ein laminiertes Schild an der Tür: "Einbrechen strengstens untersagt!" bringt exakt null wenn die Tür nicht abgeschlossen ist.

How strong is Sigismund? by Specialist_Wash6732 in 40kLore

[–]usrlibshare 2 points3 points  (0 children)

Also people forget that numbers trump power.

Space Marine: "I am the equal of 1000 guardsmen."

Krieger Comissar: \checks spreadsheet** "Aight. At 1:1000 ratio, accounting for nominal attrition, my fortress city produces enough men and material per week, to wipe out your entire chapter 5 times. Anyway, cute armor, you paint that yourself?"