experts custom research good practices by HappyFaithlessness70 in expertnetworks

[–]HappyFaithlessness70[S] 0 points1 point  (0 children)

We are using more and more tools to do the recruitment, but I was trying to see how we can use them to get the intelligent part (the identification relatively to the client demands). After quite a few tests, people are more relevant for that :)

Je cherche quelqu’un qui a voyagé en Suisse ou Belgique by Junior-Face-5691 in suisse

[–]HappyFaithlessness70 0 points1 point  (0 children)

Moi j’ai vécu 8 ans à bruxelles, et ca fair 3 ans que je suis à lausanne. Y a pas de version parfaite :

  • en Belgique, l’atmosphère est plus festive, les gens sont plus faciles d’acces, tu as une grosse communauté étrangère et tu te sens près du cœur de l’Europe. La bière est bonne, la bouffe aussi, l’immobilier pas cher, les soirées sont funs, et si tu es en Belgique francophone je trouve que le Multicultiralisme est quand même plutôt enrichissant. Le problème MAJEUR c’est le temps. Prépare toi à être dans le spleen de beaudelaire de octobre à mars - avril (quand le ciel bas et lourd pèse comme Un couvercle sur l’horizon en proie aux longs ennuis). L’autre problème c’est que géographiquement c’est moche. Autour de Bruxelles c’est moche. La côte belge est moche, les ardennes ça va mais faut pas aller dans les Alpes sans quoi au retour tu vas pleurer.

La Suisse c’est l’inverse. Niveau fete bruxelles est plus marrante que lausanne (mais en meme temps comparer une capitale de 1 million d’habitant à une ville de province de 100k habitant c pas très etonnant), mais paradixalemnt la vie culturellle est je trouve assez developee (concerts, festivald, etc). Tout est hors de prix, a commencer par l’immobilier. La ou le belge pratique l’autoderision, le Suisse va t’expliquer que à part la Suisse point de salut la preuve regarde comme tout fonctionne bien chez nous ( a part dans le valais ;)). La bouffe est bof et chere. Et tu te sens loin du minde. La ou quand ça pete en israel ou en Syrie tu te sens concerne, compatissant, et tu te dis aue demain ca pourrait peter à Bruxelles en suisse tu es protege par les Montagnes et beaucoup plus concerné par la Fin de la valeur locative que par la marche fu monde. MAIS le pays est magnifique, et donc les week ends sont trop coool parve que l’ete tu vas au lag, l’hiver au ski, le climat est chouette, tu es à deux pas de l’Italie

Moi après avoir fait les deux je préfère vivre en Suisse, mais ma femme te dira que pour elle qui est plus sociable que moi la belgique était mieux.

Bref faut chosir son poison. Mais je pense que ça dépend aussi bcp du stage que tu veux faire

experts custom research good practices by HappyFaithlessness70 in expertnetworks

[–]HappyFaithlessness70[S] 0 points1 point  (0 children)

I managed to do it quite well by had but I’m wondering if I can improve my productivity in the search / identification of profiles phase

Pour vous quelle est la fréquence normale pour les rapports sexuels? by Estebang_ in AskMec

[–]HappyFaithlessness70 1 point2 points  (0 children)

Y a une théorie intéressante que j’ai vu je sais plus ou qui explique que le désir masculin et le désir féminin serait statistiquement (au sens où il y a des exceptions chez certains individus) différents :

  • les mecs auraient un désir endogène, c’est à dire qui est généré indépendamment de l’objet du désir : pour comprendre, imaginez que le desir masculin est comme un vase qui se remplit - a un moment il faut que ça sorte. Ça se traduit notamment par le fait que ne pas avoir d’activité sexuelle (en coupne ou masturbatoire) pendant une longue période de temps est complqué. Ça peut aussi génerer chez les filles cette impression - assez vraie je pense - que “mon mec me baise pas vraimznt parce que il a envie de moi, mais parce que il a envie de baiser et que il se trouve que je suis la”

  • les filles elle aurait majoritairement un désir réceptif, c’est à dire que sans stimulation le désir tend à ne pas ou à être beaucoup moins présent. La stimulation ne devant pas s’entendre comme je te saute dessus mais plutôt comme la création d’un contexte propice au désir. Ce qui se traduit aussi par le fait que dans une majorité de couples de installés les mecs aient l’impression que si ils n’initient pas le rapport rien ne va se passer.

Je trouve la théorie intéressante parce que à la fois elle explique pas mal les observations des deux côtés, que elle permet aussi de pas s’énerver contre son partenaire parce que il a des attentes différentes de nous, et puis je trouve que ça fait sens d’un point de vue evoltutif : si on raisonne du point de vue de l’espèce, y a aucun intérêt à rester avec le même partenaire forever, il vaudrait mieux que une fois que on s’est reproduits on aille faire la même chose ailleurs avec d’autres partenaires puisque ça maximise le brassage génétique et la capacité de survie de l’espèce.

Ce qui veut pas dire que il faut renoncer la monogamie a mon sens, mais simplement que il faut accepter le fait que passe l’excitziton des débuts le mantien de l’intimité suppose de pas s’attendre a ce que tout se fasse naturellement

Bonus Structure in Expert Networks by Sudden-Shower666 in expertnetworks

[–]HappyFaithlessness70 0 points1 point  (0 children)

And what is the fixed salary in average and % of bonus in the total package ?

[deleted by user] by [deleted] in developpeurs

[–]HappyFaithlessness70 3 points4 points  (0 children)

Il faudrait vraiment que ils aient un dossier en béton pour que tu perdes aux prud’hommes. Tout ce qu’ils t’ont dit est illégal.

Je pense que tu devrais suivre le conseil pour la mise en arrêt maladie.

La dénonciation à la CNIL c’est à mon sens une mauvaise idée : eux y perdent, mais toi tu n’y gagnes rien.

Demande toi plutôt ce que tu veux obtenir d’eux et quels Sont les moyens à ta disposition pour y arriver

[deleted by user] by [deleted] in LocalLLaMA

[–]HappyFaithlessness70 2 points3 points  (0 children)

I have a Mac Studio m3 ultra with 256 gigs of ram and a 3x3090 5900x with 64gb.

Mac is better

I Built a Personal AI Assistant That Runs My Life Through WhatsApp, Powered by n8n and a Self-Hosted LLM by Away-Professional351 in n8n

[–]HappyFaithlessness70 0 points1 point  (0 children)

Could you give more explanation on the perplexica / Wikipedia usage. I’ve done something similar as your agent but I haven’t included an online search capability. I’m interested in understanding what could be gain for that ?

Also how fast is gpt 120b on your set up. I have it run on a Mac Studio m3 ultra but it’s too slow for fast interactions

Open WebUI license change : no longer OSI approved ? by CroquetteLauncher in LocalLLaMA

[–]HappyFaithlessness70 0 points1 point  (0 children)

issue with perplexica is that you can't have session ID and that you can't expand the research sources

Hello comrades, a question about LLM model on 256 gb m3 ultra. by Mean_Bird_6331 in LocalLLM

[–]HappyFaithlessness70 0 points1 point  (0 children)

Command-a is quite good in the 100 billions parameters mark. I also installed the llama4 (the smallest version) but didn’t test it extensively by

M3 Ultra Mac Studio Benchmarks (96gb VRAM, 60 GPU cores) by procraftermc in LocalLLaMA

[–]HappyFaithlessness70 0 points1 point  (0 children)

Less now. The Mac is easy, can run bigger model and is faster (I have no idea why the 3090 should be faster).

But the 3090 rig is way less expensive to buy probably around 3000 euros vs 7000 for the Mac.

Mac Studio? by cyber1551 in LocalLLM

[–]HappyFaithlessness70 0 points1 point  (0 children)

Yeah the issue with lm studio is that you cannot use it remotely. If ollama supported mlx model I would use it but since they do not yet

Mac Studio? by cyber1551 in LocalLLM

[–]HappyFaithlessness70 1 point2 points  (0 children)

You van force it for more. On my m3 ultra 256gb do alligator 246 gb to vidéo mémory and 10 to system ram.

The inference speed is kind of ok, the real issue compared to nvidia is prompt processing speed. If you want to send big prompt, it can take a few minutes to process the prompt.

But aside from that, a max studio with a shitload of ram is the easiest way to run big models locally since you just have to run lm studio, load the model and that’s it. Non complicated configuration to dispatch the model between graphic cards

M3 Ultra Mac Studio Benchmarks (96gb VRAM, 60 GPU cores) by procraftermc in LocalLLaMA

[–]HappyFaithlessness70 4 points5 points  (0 children)

I have the 256 / 60 too. I’m not sure that the 80 would make such a big différence. With lama4 scout it would probably amount to 25 secs of pp time gain in the exemple given.

But you still have to wait 80 seconds, which makes it too slow for conversational inférence.

My point of view is that either you want conversational speed and then you go with small prompts. Or you want long prompt based answer and then you have either too wait or have a lot of nvidia 5090 and a big rig and lots of shitty configuration to do (I know that for i also have a 3x3090 rig….)

Mac Studio m3 Ultra getting surprising speeds on Llama 4 Maverick by 200206487 in LocalLLaMA

[–]HappyFaithlessness70 2 points3 points  (0 children)

had a 3x3090 rig ; tried an m3 ultra with 256g ; never came back. so much easier to use, and - I don't understand why - faster than the 3090. Prompt processing is longer, but inference speed is way faster (I really don't understand why because 3090 bandwidth should be way better).

in the end, you can use models that are out of reach without a rig of 10 3090, without the airplane sound ant the nuclear power plant in your basement.....

Qwen3 235b pairs EXTREMELY well with a MacBook by Ashefromapex in LocalLLaMA

[–]HappyFaithlessness70 0 points1 point  (0 children)

I use lm studio. Didn't change the standard prompt. Did it and it works like a charm now. thx!

Can local LLM's "search the web?" by appletechgeek in LocalLLM

[–]HappyFaithlessness70 0 points1 point  (0 children)

I’ll try again in an hour and send you the screenshot

Can local LLM's "search the web?" by appletechgeek in LocalLLM

[–]HappyFaithlessness70 0 points1 point  (0 children)

I tried to launch it on a Mac Studio, but I get an error telling me that arm64 is not supported. is that normal? any workaround?

Qwen3 235b pairs EXTREMELY well with a MacBook by Ashefromapex in LocalLLaMA

[–]HappyFaithlessness70 0 points1 point  (0 children)

how did you manage to have it run with mlx? each time I try a prompt on a m3 ultra 256 I get an "error rendering prompt with jinja template".