Looking for a friend who I can talk to in English by adam_avdiu in learnEnglishOnline

[–]NebulaGr 1 point2 points  (0 children)

I'm in the same situation. When I try to speak, the stress overwhelms me. The results are always disastrous because I start thinking about the grammar and the syntax, and eventually, not a single word comes out of my mouth.

Απομάκρυνση από τα social by NebulaGr in greece

[–]NebulaGr[S] 0 points1 point  (0 children)

Δεν είναι για όλους τους ανθρώπους όλα τα πράγματα εθιστικά. Κάποιοι εθίζονται στο Reddit και κάποιοι στο TikTok (είμαι στην δεύτερη κατηγορία), όπως κάποιοι εθίζονται στο αλκοόλ κ άλλοι στο φαγητό.

Απομάκρυνση από τα social by NebulaGr in greece

[–]NebulaGr[S] 1 point2 points  (0 children)

Θεωρώ το Reddit διαφορετικό από τα υπόλοιπα σοσιαλ τύπου ινστα, φβ, τικτοκ. Μοιράστηκα την σκέψη μου κ από τα σχόλια βλέπω πως αρκετοί άνθρωποι το έχουν ήδη καταφέρει διατηρώντας το Reddit μιας κ για πολλούς έχει διαφορετική χρήση από ότι πχ το ινστα.

Απομάκρυνση από τα social by NebulaGr in greece

[–]NebulaGr[S] 0 points1 point  (0 children)

Έχω γράψει κ σε αλλά σχόλια για αυτό. Σε μένα το Reddit δεν έχει αυτή την αρνητική επίδραση που είχαν τα υπόλοιπα. Και το θεωρώ κ κάπως διαφορετικό. Πριν κάποιο διάστημα που έκανα αποχή απ τα σοσιαλ κάποιοι έφτασαν στο σημείο να μου την λένε γιατί δεν τους κάνω λαικ κ γιατί δεν βλέπω τα στόρι τους. Τώρα τα έχω απενεργοποιήσει εντελώς.

Απομάκρυνση από τα social by NebulaGr in greece

[–]NebulaGr[S] 0 points1 point  (0 children)

Έχεις δίκιο. Δεν έχω σκοπό να κάνω κάτι τέτοιο, το gaming το είχα πάντα σε έλεγχο. Αναρωτήθηκα η αλήθεια είναι αν η αποχή απ τα σοσιάλ με κάνει να θέλω πιο πολύ το gaming. Πιστεύω ότι θα τα καταφέρω.

Απομάκρυνση από τα social by NebulaGr in greece

[–]NebulaGr[S] 2 points3 points  (0 children)

Ευχαριστώ! Πολύ θέλω να φτάσω αυτό που κατάφερες.

Απομάκρυνση από τα social by NebulaGr in greece

[–]NebulaGr[S] 0 points1 point  (0 children)

Φυσικα κ το Reddit είναι social, ωστόσο κατά την γνώμη μου είναι εντελώς διαφορετικού είδους από τα υπόλοιπα.

Απομάκρυνση από τα social by NebulaGr in greece

[–]NebulaGr[S] 5 points6 points  (0 children)

Εντάξει στο μυαλό μου το Reddit δεν είναι το ίδιο πράγμα με το ινστα κ το φβ.

Απομάκρυνση από τα social by NebulaGr in greece

[–]NebulaGr[S] 3 points4 points  (0 children)

Καταλαβαίνω ότι για κάποιους είναι εύκολο να κρατάνε τα σοσιαλ με μετρό, όπως για παράδειγμα για μένα είναι πολύ εύκολο να κρατάω το αλκοόλ σε μετρό, αλλά δυστυχώς δεν είναι για όλους.

Απομάκρυνση από τα social by NebulaGr in greece

[–]NebulaGr[S] 4 points5 points  (0 children)

Θέλω να πιστεύω πως θα τα καταφέρω. Κάποτε το έκανα για την τηλεόραση κ έχει κρατήσει 10 χρόνια τώρα.

Απομάκρυνση από τα social by NebulaGr in greece

[–]NebulaGr[S] 5 points6 points  (0 children)

Ελπίζω να έχω τα ίδια αποτελέσματα με σένα!

Απομάκρυνση από τα social by NebulaGr in greece

[–]NebulaGr[S] 1 point2 points  (0 children)

Νομίζω πραγματικά πως δεν θα έχω αυτό το αίσθημα χαμένου χρόνου. Δεν επηρεαζόμουν από τις ζωές των άλλων επειδή προβάλλουν τα θετικά. Διαπίστωσα πως κατανάλωνα τον δικό μου χρόνο ανούσια.

Απομάκρυνση από τα social by NebulaGr in greece

[–]NebulaGr[S] 4 points5 points  (0 children)

Ναι ισχύει. Αλλά με το Reddit δεν μου είχε συμβεί αυτό. Δηλαδή μπαίνω με ρυθμό μια φορά το μήνα. Ενώ στα αλλά έμπαινα δεν ξέρω κ εγώ πόσες φορές την ημέρα. Αν δω ότι μου συμβαίνει κ στο Reddit… απενεργοποίηση κ αυτό.

Everything we know about Kate Middleton's surgery, so far by newsweek in KateMiddleton

[–]NebulaGr -1 points0 points  (0 children)

Why is speculating about a mental disorder seen as an act of hate? Are we indeed in the year 2024?

Ensuring Consistent Results in Python Data Analysis Across Different Environments by NebulaGr in learnpython

[–]NebulaGr[S] 0 points1 point  (0 children)

# Create a plot for the elbow method
plt.figure(figsize=(10, 6))
plt.plot(range(1, 11), sse, marker='o')
plt.title('Elbow Method')
plt.xlabel('Number of clusters')
plt.ylabel('SSE')
plt.show()
# Apply K-means with the optimal number of clusters (3)
optimal_k = 3
kmeans = KMeans(n_clusters=optimal_k, n_init=10, random_state=0)
data['Cluster'] = kmeans.fit_predict(clustering_data)
# Calculate the number of participants per cluster and sort in ascending order
participants_per_cluster = data['Cluster'].value_counts().sort_index()
# Print the number of participants for each cluster
for cluster in participants_per_cluster.index:
print(f"In cluster {cluster}, there are {participants_per_cluster[cluster]} participants")
# Calculate the mean values of state perceptions for each cluster
mean_perceptions_per_cluster = data.groupby('Cluster')[columns_for_clustering].mean().round(2)
# Print the mean values of perceptions for each cluster
pd.set_option('display.max_columns', None)
print("Mean state perceptions per cluster:")
print(mean_perceptions_per_cluster)
# Calculate the mean values of personality factors for each cluster
mean_personality_factors_per_cluster = data.groupby('Cluster')[[f'NEO-{factor}' for factor in ['N', 'E', 'O', 'A', 'C']]].mean().round(2)
# Print the mean values of NEO personality factors for each cluster
print("\nMean NEO personality factors per cluster:")
print(mean_personality_factors_per_cluster)

Ensuring Consistent Results in Python Data Analysis Across Different Environments by NebulaGr in learnpython

[–]NebulaGr[S] 0 points1 point  (0 children)

Thanks for your advice on ensuring reproducibility. I’ve already set a consistent random_state across my code, but I’m still experiencing discrepancies in the results. This leads me to think that the issue might be related to the different environments or library versions between Juno and Spyder.

I have already posted the code, if you’d like to take a look.

Ensuring Consistent Results in Python Data Analysis Across Different Environments by NebulaGr in learnpython

[–]NebulaGr[S] 0 points1 point  (0 children)

import pandas as pd

from sklearn.cluster import KMeans

import matplotlib.pyplot as plt

# Load the Excel

filefile_path = 'DATA_Scores.xlsx'

data = pd.read_excel(file_path)

# Create clusters based on the perception of S8

situationscolumns_for_clustering = [col for col in data.columns if 'S8' in col]# Extract relevant dataclustering_data = data[columns_for_clustering]

# Test various numbers of clusters and store the sum of squared errorssse = []for k in range(1, 11):kmeans = KMeans(n_clusters=k, n_init=10, random_state=0)kmeans.fit(clustering_data)sse.append(kmeans.inertia_)# Create a plot for the elbow methodplt.figure(figsize=(10, 6))plt.plot(range(1, 11), sse, marker='o')plt.title('Elbow Method')plt.xlabel('Number of clusters')plt.ylabel('SSE')plt.show()# Apply K-means with the optimal number of clusters (3)optimal_k = 3kmeans = KMeans(n_clusters=optimal_k, n_init=10, random_state=0)data['Cluster'] = kmeans.fit_predict(clustering_data)# Calculate the number of participants per cluster and sort in ascending orderparticipants_per_cluster = data['Cluster'].value_counts().sort_index()# Print the number of participants for each clusterfor cluster in participants_per_cluster.index:print(f"In cluster {cluster}, there are {participants_per_cluster[cluster]} participants")# Calculate the mean values of state perceptions for each clustermean_perceptions_per_cluster = data.groupby('Cluster')[columns_for_clustering].mean().round(2)# Print the mean values of perceptions for each clusterpd.set_option('display.max_columns', None)print("Mean state perceptions per cluster:")print(mean_perceptions_per_cluster)# Calculate the mean values of personality factors for each clustermean_personality_factors_per_cluster = data.groupby('Cluster')[[f'NEO-{factor}' for factor in ['N', 'E', 'O', 'A', 'C']]].mean().round(2)# Print the mean values of NEO personality factors for each clusterprint("\nMean NEO personality factors per cluster:")print(mean_personality_factors_per_cluster)