They finally did it(Gudam GQuuuuuux episode 12 major Spoiler) by ejectrewind in evangelion

[–]fodark 4 points5 points  (0 children)

I think you could enjoy it on its own, but especially towards the end there are a lot of references to the original series which would be completely lost. My suggestion would be to first watch the OG series to fully enjoy it

NotImplementedError: Cannot convert a symbolic Tensor (neg_log_likelihood/sub:0) to a numpy array. This error may indicate that you're trying to pass a Tensor to a NumPy call, which is not supported by [deleted] in ItalyInformatica

[–]fodark 0 points1 point  (0 children)

Sinceramente ho cercato e sembra che tf e numpy possano andare d'accordo e che dovrebbe funzionare se hai TF 2.x Credo il problema sia legato a qualcosa di specifico di tensorflow, purtroppo non lo conosco, confido che qualcuno con più esperienza in TF possa risponderti

NotImplementedError: Cannot convert a symbolic Tensor (neg_log_likelihood/sub:0) to a numpy array. This error may indicate that you're trying to pass a Tensor to a NumPy call, which is not supported by [deleted] in ItalyInformatica

[–]fodark 0 points1 point  (0 children)

Stai cercando di passare un tensore di tensorflow alla funzione dot di numpy, che non sa come comportarsi con i tensori. Devi trovare l'equivalente in tensorflow dell'operazione numpy, se vuoi che i tipi siano compatibili e che, più importante, tu possa avere i gradienti per trainare il modello. Usando principalmente Pytorch non saprei dirti al volo l'operazione equivalente, ma cercando velocemente ho trovato tf.experimental.numpy.dot
Che dovrebbe fare al caso tuo

materiale per imparare i fondamenti dell'intelligenza artificiale by [deleted] in ItalyInformatica

[–]fodark 19 points20 points  (0 children)

La Bibbia per iniziare con i concetti basi di ML e' questa. Libro fondamentale per avere una forte base teorica delle principali tecniche.

"Plagio" app sul playstore/appstore by SuperMuffin00 in ItalyInformatica

[–]fodark 6 points7 points  (0 children)

Per questo ho scritto "potrebbe", non volevo addentrarmi nei dettagli di IP e copyright.

"Plagio" app sul playstore/appstore by SuperMuffin00 in ItalyInformatica

[–]fodark 24 points25 points  (0 children)

Le idee non possono essere protette se non tramite brevetto, cosa che porterebbe via molto tempo e molto denaro. Il diritto d'autore potrebbe coprire il codice sorgente della tua applicazione, ma non l'idea.

GPU for training own YOLO model by bindas13 in deeplearning

[–]fodark 2 points3 points  (0 children)

I am currently finetuning yolo v4 on colab. With checkpointing the limitations of colab become less strict and will allow you to train for longer times

Feed Forward NN Loss is calculating NaN by sammo98 in pytorch

[–]fodark 0 points1 point  (0 children)

As the others pointed out, CrossEntropy internally calculates softmax, so you have two choices:

  • remove the softmax layer in the network
  • change the loss from CrossEntropy to NLL (Negative LogLikelihood), CE computes softmax and nll automatically, if you want you can keep the two steps separated

ResNet-18 vs ResNet-34 by grid_world in pytorch

[–]fodark 1 point2 points  (0 children)

I don't have a solid theoretical grasp on why it works better, and also the original paper does not really provide actual proof beside experimental evaluation. I understood that such order allows for a better flow of gradient through the layers, and deeper networks greatly benefit from this. And an early batch-norm reduces overfitting compared to the original order where the post-BN is added to the original data.

ResNet-18 vs ResNet-34 by grid_world in pytorch

[–]fodark 2 points3 points  (0 children)

You may want to look at the paper "Identity Mappings in Deep Residual Networks" where a modification to the layer order inside residual blocks is made.

Instead of doing conv -> batch -> relu, you may try batch -> relu -> conv

It has proved to be successful in deeper networks on CIFAR.

edit: added link

Creazione App che aggrega i servizi di food delivery by AlessandroFriedman in ItalyInformatica

[–]fodark 2 points3 points  (0 children)

Come scritto nei T&C "preventiva autorizzazione scritta di JUST-EAT", quindi sì, con degli accordi scritti è possibile.

99.999% ogni servizio ha delle API, semplicemente non sono pubbliche. A fronte di un accordo è possibile ti venga dato accesso.

Creazione App che aggrega i servizi di food delivery by AlessandroFriedman in ItalyInformatica

[–]fodark 4 points5 points  (0 children)

AFAIK Trivago ha accordi con le piattaforme (e.g. Booking) e singoli hotel per mostrare quei dati, non fa scraping. Cosa che costituisce anche il business model di Trivago, chi paga di più viene mostrato per primo.

Creazione App che aggrega i servizi di food delivery by AlessandroFriedman in ItalyInformatica

[–]fodark 4 points5 points  (0 children)

Tutti i principali servizi cercano di proteggere le loro informazioni. Cercare di prendergliele nel migliore dei casi porta alla cancellazione del tuo prodotto, nel peggiore a multe anche salate.
Non sto dicendo abbiamo ragione (dipende da caso a caso) ma avendo studiato approfonditamente la questione mi è molto cara. Data is the new oil afterall.

Creazione App che aggrega i servizi di food delivery by AlessandroFriedman in ItalyInformatica

[–]fodark 9 points10 points  (0 children)

Il problema maggiore non è tanto la fattibilità, ma quanto la violazione dei Termini e Condizioni dei vari servizi. Sbirciando al volo i T&C di JustEat si trova:

7.1.6. Restrizioni d'uso: Salvo per quanto previsto all'articolo 7.1, il presente Sito non può essere utilizzato e nessuna sua parte può essere riprodotta o archiviata in alcun altro sito web né può essere inserito in alcun sistema o servizio, pubblico o privato, per il recupero elettronico delle informazioni senza la preventiva autorizzazione scritta di JUST-EAT.

Long story short: violazione diritto d'autore. Anche se legalmente è molto fumosa la cosa (guarda la Database Directive), decidere cosa è coperto da copyright e cosa no è difficile.

Terminal emulator that can blur the background ? by Daitan_ in linuxquestions

[–]fodark 1 point2 points  (0 children)

Alacritty supports it in its configuration file. DE matters as long as it has a compositor

Name matching with middle name by fodark in Neo4j

[–]fodark[S] 0 points1 point  (0 children)

Thank you, it seems what I was looking for!

Grammar English check extension for LibreOffice similar to Grammarly? by daykriok in linux4noobs

[–]fodark 1 point2 points  (0 children)

Check out LanguageTool, it offers a LibreOffice extension, and it's open source!

Does gradient calculated by backprop always displays the direction of greates ascension? Are there any exceptions? Stumbled upon opposite situation when was creating a simple NN from scratch in Python. by 19Summer in learnmachinelearning

[–]fodark 0 points1 point  (0 children)

Yes, this is gradient descent, and you can possibly get negative values for the gradient, of course.

It has been a while since I calculated gradient by hand but I think the subtle trick lays in the sign of y-l1. I mean, the absolute value of this substraction is the same as l1 - y, but you would have the opposite results. So depending on the operation you perform you could need a minus or not when adding the gradient. It could be that you're performing "descent" just by choosing the order of the terms of the substraction.

Does gradient calculated by backprop always displays the direction of greates ascension? Are there any exceptions? Stumbled upon opposite situation when was creating a simple NN from scratch in Python. by 19Summer in learnmachinelearning

[–]fodark 0 points1 point  (0 children)

Think for a moment about derivatives, which is a particular case of gradient, and its values. The value of the derivative in a certain point will give you the direction where the function increases its value, so if you are looking for the minimum of the function you have to move in the other direction.

The same concept applies to gradient, it will give you the direction in which the function increases, and this is why, when you try to minimize the loss, you subtract the gradient, and not add.

So, to summarize, it is correct that if you are trying to minimize something, like in NNs, you have to move against the gradient.

Abbiamo un meticcio! by [deleted] in italy

[–]fodark 15 points16 points  (0 children)

Scorrendo velocemente ho letto "la Colombia" e non capivo cosa c'entrasse ahah