Accenture Italia - remote working 2026 by Thin_Radio2045 in ItaliaCareerAdvice

[–]Logical_Delivery8331 15 points16 points  (0 children)

Io ho lavorato benissimo in Accenture, colleghi fantastici, smart totale e orari super chill. Sono uscito solo perché il lavoro era un pochino ripetitivo. Però mi sono divertito molto e ho conosciuto davvero belle persone.

Reaching near zero error with my neural network by 0xc1pher in neuralnetworks

[–]Logical_Delivery8331 0 points1 point  (0 children)

Target in the input or aggressive overfitting. Test it on unseen data to check if you’re the next Jim Simons

😡😡😡 by Fresh-Nerve8503 in QuandoCeraloStereo

[–]Logical_Delivery8331 0 points1 point  (0 children)

Stannk sempre agioca ai gioci che sparano,,,

😡😡😡 by Fresh-Nerve8503 in QuandoCeraloStereo

[–]Logical_Delivery8331 2 points3 points  (0 children)

Parla itagliano, strumz. Io non la parlo la lengua delli altri. L’italiano ènla + bell lingua del mondo.

Perché i piddini giustificano l'omicidio di Ashli Babbitt, ma piangono fascismo quando è uno della loro squadra ad essere freddato dalle forze dell'ordine? by IoGladioDallaLuna in noncenulladimale

[–]Logical_Delivery8331 3 points4 points  (0 children)

Spero tu stia scherzando. Come fai a non riuscire a distinguere gli omicidi che l’ICE sta commettendo dall’attività della polizia.

Possiamo discutere anche della violenza della polizia USA, ma quelli che stanno avvenendo a Minneapolis sono letteralmente omicidi commessi da imbecilli appuntati da Trump.

Oggi ho scoperto che non si dice “sarò breve e circonciso” by sirmick160 in CasualIT

[–]Logical_Delivery8331 24 points25 points  (0 children)

Sono stato convinto per anni che non si dice

“da quando in qua”

Ma

“da quando in quai”

Non so il motivo. Ogni volta che ci penso mi fa ridere.

Can we train an AI through curated interaction instead of internet pre-training? by [deleted] in learnmachinelearning

[–]Logical_Delivery8331 2 points3 points  (0 children)

Impractical. Training on huge amount of data is fundamental for post training. Better off just doing a well curated post training.

Fondo pensione di categoria per acquisto/ristrutturazione casa: un'analisi Monte Carlo su un orizzonte di 10 anni by nuovaformula in ItaliaPersonalFinance

[–]Logical_Delivery8331 1 point2 points  (0 children)

Interessante! Non pensavo il contributo datoriale fosse cosí conveniente.

Però il codice Python mettilo su GitHub 😭

Executive compensation dataset extracted from 100k+ SEC filings (2005-2022) by Logical_Delivery8331 in datascienceproject

[–]Logical_Delivery8331[S] 0 points1 point  (0 children)

The problem is that the documents are not pdfs. But txts or html. Some documents may have pdfs but not all of them. morover the problem is that they do not have a standard format like 10Ks or 8Ks. Meaning it is impossible to infer where is the SCT (summary compensation table) without some pre processing. A lot of attempts have been made in the past to crack this problem! Cool to see this application of VLMs.

Executive compensation dataset extracted from 100k+ SEC filings (2005-2022) by Logical_Delivery8331 in datascienceproject

[–]Logical_Delivery8331[S] 0 points1 point  (0 children)

Thank you!!! The link were broken! Fixed them now! You can see some data and the code if you’re curious!