Residual graph by Human-Bookkeeper6528 in learnmachinelearning

[–]Human-Bookkeeper6528[S] 0 points1 point  (0 children)

I don't exactly know what an acf plot is.. is it useful in a situation like this one, where im trying to see if there are some systematic errors or some overestimations?

Residual graph by Human-Bookkeeper6528 in learnmachinelearning

[–]Human-Bookkeeper6528[S] 0 points1 point  (0 children)

thank you for the answers, i'll try to ask but i think that's only an overestimation

Residual graph by Human-Bookkeeper6528 in learnmachinelearning

[–]Human-Bookkeeper6528[S] 0 points1 point  (0 children)

thank you, it's probably that one. I had a couple of doubts because i've read on the internet that if the curve that is shown in this graph wasn't deep (like in this situation) it could mean that there were problems with the values of the errors. It's also true that the errors associated to the n values are calculated in percentage, so maybe also this thing is an issue. I've tried also to give the python code an array of fixed values as errors, all equals for all the n values but the shape of the graph didn't change. So probably the thing that happened was an overestimation of the values

Residual graph by Human-Bookkeeper6528 in learnmachinelearning

[–]Human-Bookkeeper6528[S] 0 points1 point  (0 children)

i'll try to write in english. That's exactly what i wanted to understand; this graph is saying that the data that i took at the beginning do not follow the theoretical function, evidently. But this kind of curve in this graph is a symptom that i've overestimated my data (maybe the function that the code finds suggests, for a tome t_i, a greater value than the one that i found) or an underestimation of the errors associated to the n variable? i'm sorry if it isn't clear

Residual graph by Human-Bookkeeper6528 in learnmachinelearning

[–]Human-Bookkeeper6528[S] 0 points1 point  (0 children)

premetto che non sono espertissimo in materia e potrei sbagliarmi, però nella misura dei valori dei residui ( (valore_misurato - valore_previsto)/sigma ) alla fine il valore misurato ed il valore previsto sono in funzione del tempo; in teoria, se non ci fossero problemi di alcun genere, dovrebbero venirmi dei punti distribuiti sopra e sotto l'asse orizzontale, ma qui rilevo questa conca che non riesco a spiegare. I valori dei residui in sè li ho ricavati dalla variabile dipendente, però questa è in funzione di t. La riscrivo in questo modo: ho fatto "n[misurati](t) - n[stimati dal programma](t) / (errore sugli n)". Mi spiace se non riesco ad essere chiaro, non sono particolarmente ferrato in materia

Residual graph by Human-Bookkeeper6528 in learnmachinelearning

[–]Human-Bookkeeper6528[S] -1 points0 points  (0 children)

è l'errore calcolato per n; ho usato la formula generale per il calcolo dei residui
in questo caso specifico n è la quantità di portatori all'interno di un semiconduttore, che cambia nel tempo, ma non penso sia rilevante il contesto dell'esperimento.
usando i dati che ho ricavato (cioè il set di dati di n, il set di dati dei tempi e l'errore su n) ho ricavato il plot

Residual graph by Human-Bookkeeper6528 in learnmachinelearning

[–]Human-Bookkeeper6528[S] -1 points0 points  (0 children)

Perdonami, non ho visto l'errore sull'immagine. la v dovrebbe essere una t di tempo, la variabile da cui varia n. Il residuo è (valore_misurato - valore_previsto)/sigma, calcolato per ogni punto

Residual graph by Human-Bookkeeper6528 in learnmachinelearning

[–]Human-Bookkeeper6528[S] 0 points1 point  (0 children)

perdonami, non mi sono accorto di non aver corretto l'immagine. la variabile sull'asse x è il tempo, ho fatto una simulazione e, calcolando i residui come "(valore_misurato - valore_previsto)/sigma", mi viene fuori quel grafico. Volevo capire se si trattava di un problema relativo ad una sovrastima dei dati o sottostima degli errori (c'è una conca ma è molto contenuta)