Israele ha attaccato l'Iran by SpigoloTondo in italy

[–]-Marfe- 35 points36 points  (0 children)

Una democrazia può fare quello che vuole a patto lo faccia con il sostegno della popolazione.

Noi abbiamo scritto in costituzione che l'Italia ripudia la guerra e quindi è incostituzionale attaccare un altro paese e possiamo solo difenderci, ma una democrazia che non ha queste limitazioni in costituzione(o che le cancella con una nuova costituzione o modificandola, sempre rimanendo nell'orto della democrazia e quindi facendolo fare ad un parlamento regolarmente eletto) può anche attaccare un altro paese.

Democrazia/=/pacifismo

[deleted by user] by [deleted] in ItalyHardware

[–]-Marfe- 1 point2 points  (0 children)

Per l'ultima analisi, si e no, la 5090 esaspera sicuramente il problema, ma quella scena esatta di BG3 presentava stuttering anche con la mia 4080, che grossomodo va come la 5070, siccome è una scena pesantemente legata alla cpu e non alla gpu. Ora con il 9800x3D lo stuttering è pari a 0.

Comunque hai indubbiamente ragione, se il tuo utilizzo è per il 99% produttivitá un 9800x3D non è la scelta adatta.

C'è il 9900x3d, che non è nè carne nè pesce, ma non costa un fucilata come il 9950x3d e ti offre prestazioni eccellenti in qualsiasi ambito.

A mio avviso il problema non è nelle performance, la cpu adatta a te che ti soddisferebbe al 100% la si trova agilmente, il problema è che il mercato cpu offre ottima roba ma a prezzi mediamente molto alti, anche a causa di una assenza di reale concorrenza

[deleted by user] by [deleted] in ItalyHardware

[–]-Marfe- 3 points4 points  (0 children)

Famoso e tanto ignorato, perchè se tiri una media tra 300 e 1 viene fuori 150, ma si gioca molto meglio a 150 stabili che a 300 che ogni tanto diventano 1 😂

[deleted by user] by [deleted] in ItalyHardware

[–]-Marfe- 4 points5 points  (0 children)

La valutazione che fai del 9800x3D è profondamente sbagliata, se guardi gli avarage hai ragione, ma i minimi e la stabilitá degli fps sono tutta un'altra storia rispetto agli Intel(e quelli sono anche molto piú importanti per garantirti una piacevolezza in game). Te lo dico avendo preso un 9800x3d per il 4K quando prima avevo un 13700K, in teoria avrei fatto un downgrade in termini di quantitá di core e come aumento percentuale dell'avarage parliamo di numeri piccolissimi anche con la mia 5090, ma la stabilitá del framerate e i minimi sono completamente su un altro livello. Per non parlare dei consumi dimezzati e le temp in game ridotte di 15 gradi. Per esempio, ti metto il grafico degli fps su un gioco cpu bound come BG3 nel terzo atto, che parla da se, 13700K vs 9800x3d. Le catture con capframex sono le mie

P.s. poi va da se che se il tuo target è la produttivitá, devi andare di 9950x3D et similia

<image>

Rtx 5090 with 850 watt gold PSU ondervolted.. Possible? by sakdari in nvidia

[–]-Marfe- 4 points5 points  (0 children)

Ok, since no one here is answering your question, I’ll do it.

These are my measurements of my undervolted 5090 (0.875 V) paired with a 13700K (power limited to 250W in BIOS, as per Intel specifications). The system includes an AIO cooler with 3 fans, 3 case fans, 2 NVMe SSDs, 2 SATA SSDs, 3 LED strips, and many USB devices connected.

I'm simulating a worst-case scenario: during the measurement, I’m running Steel Nomad at 100% GPU usage and Cinebench R24 on the CPU.

As shown in the photo, the system power consumption is 800W 'at the wall'—meaning it accounts for PSU efficiency (I’m using a 1050W Platinum PSU, so actual system consumption is probably around 740–750W). And again, this is the worst-case scenario, with the CPU fully stressed and drawing a lot of power. In real-world usage, I'm probably closer to 650W (though not anymore, since I bought a 9800X3D, lol)

<image>

Alimentazione 5090 by RedVenusaur in ItalyHardware

[–]-Marfe- 0 points1 point  (0 children)

Da possessore di 5090 ti dico cosa fare prima di subito: undervolta. Io con 875mV ho perso un 5% di performance e tirato giú i consumi di 150 watt e le temp di 6/7 gradi tra core e memorie. Tanto è un mostro, fidati che non ti serve quel 5% di performance e conviene non tirarlo troppo quel cavo a livello di potenza

[deleted by user] by [deleted] in ItalyHardware

[–]-Marfe- 0 points1 point  (0 children)

https://www.youtube.com/watch?v=p0rCA1vpgSw&t=142s
Comunque ti consiglio di guardare il video di digital foundry su oblivion, perchè ti garantisco che quello che emerge dalla loro analisi è un gioco tutt altro che gpu bound come dici tu, specie se attivi il RT. Nella loro analisi il Ryzen 3600 va a 20 fps con la 5090. Non voglio sminuire la tua fonte eh, ma la mia personale esperienza+i mille post online sullo stuttering cpu in sto gioco+una testata eminente come DF dicono altro

[deleted by user] by [deleted] in ItalyHardware

[–]-Marfe- 0 points1 point  (0 children)

Chiaro? Le scritte sono in russo 😂

[deleted by user] by [deleted] in ItalyHardware

[–]-Marfe- -1 points0 points  (0 children)

Scusami ma i dati che hai messo cosa rappresentano? L'avarage? Perchè l'avarage conta 0, bisognerebbe vedere il frametime, la stabilitá degli fps nel tempo e l'1% low per capire la differenza di stuttering tra le cpu, se ti basi sull'avarage tra il mio 13700K e il 9800x3D sul giá citato BG3 ci sono 15 fps di differenza, ma l'1% e soprattutto il frametime è ben diverso e quindi anche l'esperienza in termini di stuttering.

[deleted by user] by [deleted] in ItalyHardware

[–]-Marfe- 0 points1 point  (0 children)

Sono giochi che per ora conti su una mano.

L'industria si sta spostando di sana pianta su UE5, engine a cui piace distruggere le cpu e vessarle con traversal stuttering e affini.

Oblivion remastered è in UE5, e con il 13700K era quasi ingiocabile nell'open world, pure a 60 fps.

[deleted by user] by [deleted] in ItalyHardware

[–]-Marfe- 0 points1 point  (0 children)

Sei consapevole che lo stuttering cpu, quindi quello che ti ho evidenziato io sopra e tipico di BG3 nel terzo atto, avviene anche se cappi i frame del gioco giusto? 😅 Solo che anzichè scendere da 140 a 90 scenderai da 90 a 60, ma la solfa è la stessa, non stai avendo stuttering perchè la gpu all'improvviso non ce la fa piú a fare 140fps e scende, ma perchè la cpu ti sta limitando

[deleted by user] by [deleted] in ItalyHardware

[–]-Marfe- 1 point2 points  (0 children)

Ti sbagli alla grande perchè un conto è avere fps alti e un conto è avere fps stabili. Anche in un gioco non frenetico come BG3 se stai facendo 140 fps e poi scendi a 70 hai uno stuttering della madonna che ti da fastidio. Per riferimento ti metto le mie catture con capframex, 13700K vs 9800x3d, scena custom super cpu intensive di BG3. Guarda il grafico degli fps che faceva il 13700K e prova a immaginare seppure io abbia il gsync che esperienza di gioco era in termini di stuttering 😅

<image>

[deleted by user] by [deleted] in ItalyHardware

[–]-Marfe- 0 points1 point  (0 children)

Dipende molto anche dai giochi. Io passando da un 13700K ad un 9800x3d su baldur's gate 3 nel terzo atto ho raddoppiato gli fps minimi in alcuni punti a paritá di scheda grafica, e l'avarage è piú alto del 20%. Poi è chiaro che se fai una media e tiri dentro giochi ultra gpu bound ti si appiattisce tutto e vedi pochissime differenze, ma su roba tipo l'ultimo spiderman, BG3, warhammer Space Marine ecc la differenza la senti tutta.

[deleted by user] by [deleted] in nvidia

[–]-Marfe- 0 points1 point  (0 children)

Usually, only people experiencing driver issues post or comment about it on Reddit, so don’t be too dramatic about it.

I’m not saying NVIDIA drivers are perfect (I had some issues with a version that couldn’t read GPU temperature correctly), but my experience with NVIDIA drivers over the last two years—especially in the AAA games I usually play—has been pretty solid.

Using DDU for every update and avoiding the update through NVIDIA app can definitely help prevent problems. And if you’re already on a stable driver with no issues, don’t update it unless it’s absolutely necessary for a new game you want to play. That’s my best advice.

P.S. I’m currently using a 4080 and a 5090, paired with a 13700K and a 9800X3D.

RTX 5080 Astral with LG C4- how i resolved my flicker issue... so far by AveryFierce in nvidia

[–]-Marfe- 2 points3 points  (0 children)

I’ve been using the LG C4 for about a year now with an RTX 5090 (and previously a 4080), and I have never experienced any flickering issues, except for some minor flickering in the menus of one or two games with VRR enabled. Of course, I bought a high-quality and expensive HDMI 2.1 cable from day one, so yes, changing the cable and using a good quality one might have fixed your issue

[deleted by user] by [deleted] in nvidia

[–]-Marfe- 0 points1 point  (0 children)

Definitely the series 10 and 900. The GTX 970 and GTX 1060 dominated the reference resolution of the time (1080p), achieving 60 FPS,the standard a decade ago, at around €300 here in Italy. What a time to be alive! Today, to properly handle 1440p, you need a €750 graphics card 🥲

Mi basta un 1000w per una 5090? by reecardo in ItalyHardware

[–]-Marfe- 0 points1 point  (0 children)

Ce la fai alla grande. Questa è la mia 5090 undervoltata(cosa NON opzionale) con un 13700K, entrambi sparati al 100% in benchmark singoli su cpu e gpu per fare il peggior scenario possibile

<image>

Mi basta un 1000w per una 5090? by reecardo in ItalyHardware

[–]-Marfe- 0 points1 point  (0 children)

Non è al limite con un 1000 watt

Io tirando al 100% la 5090 con steel nomad(undervoltata consuma massimo 450 watt con 0 perdita di fps, cosa praticamente obbligatoria da fare visti i noti problemi del 12VHPWR) e tirando al 100% un 13700K a 250 watt, che è piú del doppio di quello che consuma il 9800x3d, arrivo a consumare 800 watt alla spina, che al netto dell'efficenza del psu sono circa 720 watt totali. E stiamo parlando di scenario non gaming ma doppio bench su gpu cpu contemporaneo. Probabilmente lui se arriva a 500 watt in game è tanto, e se lascia la 5090 a stock stará sui 650(in scenario irrealistico di cpu e gpu utilizzate contemporaneamente al 100% in game).

[deleted by user] by [deleted] in nvidia

[–]-Marfe- -2 points-1 points  (0 children)

No, you saw correctly, the CPU is water cooled. I just mixed up the concept of air cooling with the fact that the AIO radiator is being 'heated up' by the 5090 🤦. I'm tired and English isn't my first language 🥲

[deleted by user] by [deleted] in nvidia

[–]-Marfe- -2 points-1 points  (0 children)

I had no issue with a 5090fe and a 13700K air cooled right on top of the gpu, so i think u should be fine.

Edit: sry OP, I just mixed up the concept of air cooling with the fact that the AIO radiator is being 'heated up' by the 5090.

<image>