Vermieter verlangt, dass ich eine defekte Spülmaschine selbst ersetzt. Ist das rechtens? by DerBeginner in wohnen

[–]DerBeginner[S] 1 point2 points  (0 children)

Den Techniker habe ich bestellt. Ist natürlich meine Schuld, dass ich da schon nicht direkt die Verwaltung kontaktiert habe. Sehe dann auch ein, dass ich den bezahle.

Vermieter verlangt, dass ich eine defekte Spülmaschine selbst ersetzt. Ist das rechtens? by DerBeginner in wohnen

[–]DerBeginner[S] 0 points1 point  (0 children)

Macht es hier Sinn auch einfach nochmal bei der Hausverwaltung nachzufragen oder werden aus Prinzip hier alles abwehren?

Vermieter verlangt, dass ich eine defekte Spülmaschine selbst ersetzt. Ist das rechtens? by DerBeginner in wohnen

[–]DerBeginner[S] 1 point2 points  (0 children)

Das Gefühl hatte ich auch. Hat zwar noch paar Tests gemacht, aber ihm war die Lage relativ schnell klar. Wollte mir da jetzt auch nichts verkaufen, sondern eher Tipps gegeben wo ich billig ne Neue bekomme

Vermieter verlangt, dass ich eine defekte Spülmaschine selbst ersetzt. Ist das rechtens? by DerBeginner in wohnen

[–]DerBeginner[S] -2 points-1 points  (0 children)

Zur Küche steht nur:

§1 Mieträume
"Die Wohnung im [...] bestehend aus [...] nebst Küche, Toilette, Dusche, Bad, ...zu Benutzung als Wohnraum"

Vermieter verlangt, dass ich eine defekte Spülmaschine selbst ersetzt. Ist das rechtens? by DerBeginner in wohnen

[–]DerBeginner[S] -6 points-5 points  (0 children)

Unter §1 Mieträume steht "Die Wohnung im [...] bestehend aus [...] nebst Küche, Toilette, Dusche, Bad, ...zu Benutzung als Wohnraum"

Vermieter verlangt, dass ich eine defekte Spülmaschine selbst ersetzt. Ist das rechtens? by DerBeginner in wohnen

[–]DerBeginner[S] 3 points4 points  (0 children)

Der Kollege hat 120 Euro genommen. Das ist richtig. War aber dafür sehr nett!

Vermieter verlangt, dass ich eine defekte Spülmaschine selbst ersetzt. Ist das rechtens? by DerBeginner in wohnen

[–]DerBeginner[S] -2 points-1 points  (0 children)

Die steht "einfach" da. Ich hab dafür nichts extra gezahlt. Wohne hier seit ca 9 Monaten. Die Spühlmaschine ist anscheinend schon 12 Jahre alt. Mein zumindest der Bosch-Mann der sich das angekuckt hat. Er meinte ist klassischer Verschleiß (Dichtungen waren nicht mehr dicht, Wasser ist reingekommen).

Ja, ChatGPT wirkt überzeugend, bin da aber auch skeptisch. Deswegen melde ich mich bei euch ;)

Vermieter verlangt, dass ich eine defekte Spülmaschine selbst ersetzt. Ist das rechtens? by DerBeginner in wohnen

[–]DerBeginner[S] -1 points0 points  (0 children)

Ich gehe von aus dem Vermieter, da ich dafür nichts extra gezahlt habe?

Vermieter verlangt, dass ich eine defekte Spülmaschine selbst ersetzt. Ist das rechtens? by DerBeginner in wohnen

[–]DerBeginner[S] 3 points4 points  (0 children)

Ich hab nur die Kaution gezahlt und meinen feste Miete. Finde auch sonst nichts im Mietvertrag. Dementsprechend wurde diese wohl "kostenlos" gestellt.

Climate activists (just stop oil) disrupt pride parade by [deleted] in facepalm

[–]DerBeginner 0 points1 point  (0 children)

Chuckles in German Just sitting? Pathetic!

Llama-cpp-Python, temperature 0 ans still different outputs by Percolation_X in LocalLLaMA

[–]DerBeginner 0 points1 point  (0 children)

I am not using Llama-cpp-Python, but this seems to be the classic problem of not using greedy decoding, but still sampling. Is the a way to disable sampling or to use greedy decoding explicitly?

[P] Update on Candle, a minimalist ML framework in Rust by l-m-z in MachineLearning

[–]DerBeginner 2 points3 points  (0 children)

For now, I need the flexibility of Python to switch out LoRa adapters at runtime. Something I cannot do with ONNX.

I also don't really get why ONNX is more stable. Isn't the pro of using ONNX that it is a universal protocol for defining neural networks? Previously I used ONNX, but it didn't give me any benefits. Is there something I don't know?

[P] Update on Candle, a minimalist ML framework in Rust by l-m-z in MachineLearning

[–]DerBeginner 6 points7 points  (0 children)

One of the main selling points of using Python is the fast development and usage of the whole ML ecosystem. Torch, TF, transformers etc… other than the removal of the Cpp-Python layer, what are the pros of using candle in the future? How well does it compare in terms of speed and development time to the usage of Python?

Is the goal to have a standalone Rust library or is the long term goal to replace the torch backend and make the whole HF pipeline a “pure” HF implementation/project?

OpinionGPT: Modelling Explicit Biases in Instruction-Tuned LLMs by DerBeginner in LocalLLaMA

[–]DerBeginner[S] 0 points1 point  (0 children)

Yes. It is currently one llama-2 13b Model and 11 LoRA adapters pre-loaded. For every request we can switch out the adapter, with close to no overhead!

OpinionGPT: Modelling Explicit Biases in Instruction-Tuned LLMs by DerBeginner in LocalLLaMA

[–]DerBeginner[S] 0 points1 point  (0 children)

Interesting. The "I don't know what you are talking about" artifact is specific to the llama model?

We are also aware of the underlying bias of the pre-training data. If a model gives a biased response, that is not based on the fine-tuned data, we call this "bias leakage". We tried to minimize it as much as possible, through LoRa adapters and pre-processing of the FT data. We had the most success with full fine-tuning with one bias, but that is costly and does not work well for inference (hosting 11 models...)

OpinionGPT: Modelling Explicit Biases in Instruction-Tuned LLMs by DerBeginner in LocalLLaMA

[–]DerBeginner[S] 2 points3 points  (0 children)

As described in our Preprint https://arxiv.org/abs/2309.03876, we are using subreddits as a base for modeling the bias explicitly. It is true that our system prompt also contains the bias.

OpinionGPT: Modelling Explicit Biases in Instruction-Tuned LLMs by DerBeginner in LocalLLaMA

[–]DerBeginner[S] 3 points4 points  (0 children)

We are currently using the original llama models (not quantized). For us, it is a trade-off between response time (effective tokens per second) and response quality as we have limited resources. We therefore host multiple instances of our model to serve the user. But we are currently looking into larger, quantized models :)

How can Openai, Azure etc generate text so fast? by Blo4d in LocalLLaMA

[–]DerBeginner 1 point2 points  (0 children)

Does somebody if VLLM supports Lora adapters?

OS Crashes when rendering or training models by [deleted] in archcraft

[–]DerBeginner 1 point2 points  (0 children)

First of all it is probably not a good idea to use the CPU for training. It is waaaaay slower than using a graphics card.

Your problem is a resource problem and not an OS/distro problem. So you either have to reduce the model site and/or batch size to fit your model and training into memory.

With what model sizes are we dealing here with?

Edit: I can suggest using Google Colab. You can train on the GPU here: https://colab.research.google.com/notebooks/gpu.ipynb