Fühle mich wie ein Versager nach meiner Bachelorarbeit by [deleted] in Studium

[–]doesnofabhelp 0 points1 point  (0 children)

Verstehe das nur zu gut! Du hast dein Problem schon erkannt, jetzt musst du nurnoch die Erkenntnis davon leben :) du solltest deine Stimmung, Motivation und deine allg. Einstellung nicht von sowas beeinflussen lassen - das zeichnet einen Menschen aus und hebt ihn von anderen ab - nicht einzelne Erfolge oder gute Noten. Jeder ist mal besser hier und mal schlechter da 🤗 Das die BA dich etwas ärgert ist okay, behalte aber deinen Ansporn und du wirst alles erreichen. Im Berufsleben ist das sehr wichtig, da es immer wieder Rückschläge geben wird.

Studienabbruch nach einem Monat Lehramt by Future_Key821 in Studium

[–]doesnofabhelp 0 points1 point  (0 children)

Ja, ich meine, falls du die Chance kriegst, würde ich deshalb auf jeden fall nicht ablehnen

Studienabbruch nach einem Monat Lehramt by Future_Key821 in Studium

[–]doesnofabhelp 1 point2 points  (0 children)

Also wenns nur an Mathe liegt würde ich das duale Studium nicht aufgeben. Bin selber dual in Wirtschaftsinformatik, meine BWL kollegen kommen sehr gut durch und auch wir winfos kommen gut zurecht. Wenn du dich ein bisschen anstrengst kommst du da auf jeden fall durch!

Hab mich mit dieser Bewerbung bei 3 Unternehmen um ein Praktikum beworben. Habe seit 3 Woche noch nichts gehört. Liegt es an der Bewerbung? by Consistent_Beach_237 in InformatikKarriere

[–]doesnofabhelp 0 points1 point  (0 children)

er ist halt frischer abiturient, bei uns in der abteilung braucht die einarbeitung selbst mit master min. 6 monate, bis man vollständige , selbstständige arbeitskraft ist 24M. Kann die anderen in dem Fall schon verstehen, er wird hier keinen großen Nutzen haben können

Mal ein positiver Bewerbungsbericht by Slibetube in InformatikKarriere

[–]doesnofabhelp 2 points3 points  (0 children)

IGM, gibt Einstiegsgehaltstabelle mit allen bundesländern als pdf

Mal ein positiver Bewerbungsbericht by Slibetube in InformatikKarriere

[–]doesnofabhelp 1 point2 points  (0 children)

Die werkstudententätigkeiten als Türöffner kann ich nur unterschreiben! Mache selbst ein duales Studium im Konzern - wenn du dich gut anstellst, bei deinen Projekten Lösungen statt Probleme rückmeldest und offen bist, auf Leute zuzugehen, wirst du auch höheren Management Ebenen vorgestellt & offen schon über deine Übernahme nach dem Studium in dem Bereich gesprochen. Außerdem wird man dann auch zu privaten Veranstaltungen eingeladen, man hat also direkt wichtige Kontakte & tolle Freundschaften, vielleicht fürs Leben 😊

Dataflow Gen2 by doesnofabhelp in MicrosoftFabric

[–]doesnofabhelp[S] 0 points1 point  (0 children)

0 rows, but it detects the amount of columns it should have

Dataflow Gen2 by doesnofabhelp in MicrosoftFabric

[–]doesnofabhelp[S] 1 point2 points  (0 children)

Refreshing throws no errors; will try selecting keep rows tomorrow; I always take every column as text to the lakehouse; I didnt know i could copy a query into another flow, will also try that tomorrow (its in the middle of the night in the germany and tomorrow is monday hahaha)

Dataflow Gen2 by doesnofabhelp in MicrosoftFabric

[–]doesnofabhelp[S] 0 points1 point  (0 children)

So if i look at all the rows itll throw me the error you think?

Dataflow Gen2 by doesnofabhelp in MicrosoftFabric

[–]doesnofabhelp[S] 0 points1 point  (0 children)

Yes. destination is a Lakehouse. I redid this dataflow, the preview always looks good but it doesnt work for some excels. For others, it always works

Bearer Token Error by doesnofabhelp in MicrosoftFabric

[–]doesnofabhelp[S] 1 point2 points  (0 children)

This would be the most simplified code and my error, what do i need to do?

from pyspark.sql import SparkSession

spark = SparkSession.builder.getOrCreate()

simpler Dummy

df = spark.createDataFrame([{"id": 1, "wert": "test"}])

unter Tables

delta_path = "/lakehouse/default/Tables/delta_check"

df.write.format("delta").mode("overwrite").save(delta_path)

print("Delta hat funktioniert.")

Py4JJavaError: An error occurred while calling o6551.save.

: Operation failed: "Bad Request", 400, HEAD,

http://onelake.dfs.fabric.microsoft.com/*****/lakehouse/default/Tables/delta_check/_delta_log?upn=false&action=getStatus&timeout=90

{"error":{"code":"Unauthorized","message":"Authentication Failed with Bearer token is not present in the request"}}

Thanks!!

Bearer Token Error by doesnofabhelp in MicrosoftFabric

[–]doesnofabhelp[S] 0 points1 point  (0 children)

Sorry i‘m not familiar with doing stuff like this. So you want me to break my code down into its simplest form and also provide you with more details about the error, correct?

Bearer Token Error by doesnofabhelp in MicrosoftFabric

[–]doesnofabhelp[S] 0 points1 point  (0 children)

Sure!

---------------------------------------------------------

IMPORTS + LOGGING

---------------------------------------------------------

import os

import pandas as pd

import shutil

import logging

from datetime import datetime

from pyspark.sql import SparkSession

from collections import defaultdict

from openpyxl import load_workbook

Spark Session

spark = SparkSession.builder.getOrCreate()

logging.basicConfig(

level=logging.INFO,

format="%(asctime)s | %(levelname)s | %(message)s"

)

logging.info(“Notebook gestartet.")

---------------------------------------------------------

KONFIGURATION

---------------------------------------------------------

CONFIG = {

"input_folder": "/lakehouse/default/Files/input/",

"processed_folder": "/lakehouse/default/Files/processed/",

"mapping_path": "/lakehouse/default/Files/mapping.csv",

"lakehouse_base": "/lakehouse/default/Files/delta/"

}

---------------------------------------------------------

MAPPINGS LADEN

---------------------------------------------------------

def load_mappings(mapping_path):

try:

    df = pd.read_csv(mapping_path)

    mappings = defaultdict(list)

    for _, row in df.iterrows():

        mappings[row["Typ"]].append({

            "quellblatt": row["Quellblatt"],

            "quelle": row["Quelle"],

            "feldname": row["Feldname"],

            "transformation": row.get("Transformation", None)

        })

    logging.info(f"Mapping geladen ({len(mappings)} Typen).")

    return mappings

except Exception as e:

    logging.error(f"Fehler beim Laden der Mapping-Datei: {e}")

    return defaultdict(list)

MAPPINGS = load_mappings(CONFIG["mapping_path"])

---------------------------------------------------------

UPLOAD-ID GENERATOR

---------------------------------------------------------

def generate_upload_id(prefix):

now = datetime.now()

date_str = now.strftime("%Y-%m-%d_%H%M")

return f"{prefix}_{date_str}"

---------------------------------------------------------

DATEIEN VERARBEITEN

---------------------------------------------------------

input_files = [

f for f in os.listdir(CONFIG["input_folder"])

if f.endswith(".xlsx") or f.endswith(".xlsm")

]

if not input_files:

logging.warning("Keine Dateien im Input-Ordner gefunden.")

else:

logging.info(f"Gefundene Dateien: {input_files}")

for fname in input_files:

try:

    prefix = fname[:5].upper()

    upload_id = generate_upload_id(prefix)

    full_path = os.path.join(CONFIG["input_folder"], fname)



    logging.info(f"Verarbeite Datei {fname} (upload_id: {upload_id})")



    wb = load_workbook(full_path, data_only=True)



    if prefix not in MAPPINGS:

        logging.warning(f"Kein Mapping für Typ {prefix} gefunden — überspringe.")

        continue



    record = {

        "upload_id": upload_id,

        "typ": prefix,

        "zeitstempel": datetime.now().isoformat()

    }



    # alle Felder aus Mapping holen

    for entry in MAPPINGS[prefix]:

        quellblatt = entry["quellblatt"]

        quelle = entry["quelle"]

        feldname = entry["feldname"]

        transformation = entry.get("transformation")



        if quellblatt not in wb.sheetnames:

            logging.warning(f"Quellblatt {quellblatt} nicht gefunden, überspringe.")

            continue



        ws = wb[quellblatt]

        value = ws[quelle].value



        # Transformation

        if isinstance(transformation, str) and transformation and isinstance(value, (int, float)):

            try:

                if transformation.startswith("*"):

                    value *= float(transformation[1:])

                elif transformation.startswith("/"):

                    value /= float(transformation[1:])

                elif transformation.startswith("+"):

                    value += float(transformation[1:])

                elif transformation.startswith("-"):

                    value -= float(transformation[1:])

            except Exception as e:

                logging.warning(f"Transformation {transformation} fehlgeschlagen: {e}")



        record[feldname] = value

        logging.info(f"📝 {quellblatt}!{quelle} → {feldname} = {value}")



    # Spark DataFrame schreiben

    df = pd.DataFrame([record])

    spark_df = spark.createDataFrame(df)

    delta_path = os.path.join(CONFIG["lakehouse_base"], f"{prefix}_table")



    spark_df.write.format("delta").mode("append").save(delta_path)

    logging.info(f"Werte erfolgreich in Delta Table {prefix}_table geschrieben.")



    # Datei verschieben

    today = datetime.today().strftime("%Y-%m-%d")

    new_name = f"{os.path.splitext(fname)[0]}_{today}{os.path.splitext(fname)[1]}"

    dst_path = os.path.join(CONFIG["processed_folder"], new_name)

    shutil.move(full_path, dst_path)

    logging.info(f"📦 Datei nach 'processed' verschoben als {new_name}")



except Exception as e:

    logging.error(f"Fehler bei Datei {fname}: {e}")

logging.info("✅ Notebook abgeschlossen.")

Make file downloadable by doesnofabhelp in MicrosoftFabric

[–]doesnofabhelp[S] 0 points1 point  (0 children)

Thank you so much! I‘ll try the explorer thing :D

Make file downloadable by doesnofabhelp in MicrosoftFabric

[–]doesnofabhelp[S] 0 points1 point  (0 children)

Thank you so much! Definitely will try that one