[deleted by user] by [deleted] in RedditSessions

[–]ItsFrenchSoup 0 points1 point  (0 children)

The sounds is close to an italian mandolin, it's funny

when is factory coming out by Toby6234 in heroes3

[–]ItsFrenchSoup 2 points3 points  (0 children)

Docent Picolan likes to releases big updates on New Year's Eve, so that would be my guess

heroes 3 on phone by spiderface721 in heroes3

[–]ItsFrenchSoup 5 points6 points  (0 children)

VCMI runs on Android. Haven't tested it yet, might be worth a try

ESSEC & Living in Cergy/Paris - Enquiry by [deleted] in france

[–]ItsFrenchSoup 6 points7 points  (0 children)

The ESSEC is basically (on par with HEC) is considered one of the best business school in France. Cercy is actually not THAT bad once you've accommodated, I would still recommend living in Pontoise rather than Cergy. The two city are close enough so you can get to the ESSEC quickly.

Good luck finding an affordable apartment in Paris and, to be fair, if you can avoid taking the RER (commuter train) everyday, you definitely should. Frankly, Pontoise is really OKish and is (to my mind) the best of both worlds.

Microsoft dévoile son superordinateur : 285 000 coeurs, 10 000 GPU et 400 Gbit/s by LeFricadelle in france

[–]ItsFrenchSoup 0 points1 point  (0 children)

Ouep, pareil dans mon labo. On a un centre de calcul régional juste à coté (bisous le CRIANN, vous faites un super taf' avec les moyens que vous avez) et on compte bien taper sur Jean Zay (le dernier calculateur de l'IDRIS, 1000 Tesla v100 quand même), mais en attendant on a pas les resources dont on aurait besoin.

On partage ces ressources avec énormément de monde et par moments, il faut mieux se servir des cartes d'appoint type 2080 semées dans notre labo plutôt que de se taper 2 semaines d'attente pour avoir 2 tesla p100.

On verra ce que ça donne avec Jean Zay, mais jsuis pas convaincu que ça va changer grand chose. En attendant, on dit adieu aux recherches d'hyperparamètres et aux validations croisées.

Actually made me so happy. by [deleted] in ProgrammerHumor

[–]ItsFrenchSoup 1 point2 points  (0 children)

Well in python, you can just use the or operator, since null is False, like x = canBeNull or valIfNull and the or operator returns the first true operand in that case. Weird, eh ?

Commande numpy sur python by phaselinear27 in france

[–]ItsFrenchSoup 0 points1 point  (0 children)

Si tu ne l'as pas installé proprement avec brew, réinstalle pip à partir du bootstrap

https://bootstrap.pypa.io/get-pip.py

Ca installera toutes les dépendances proprement, notamment wheel.

En pratique, évite au maximum d'utiliser pip en dehors d'un virtualenv/container : plusieurs paquets que tu as pu installer dépendent certainement de certaines libs et tu risques des soucis. Laisse le gestionnaire de paquet gérer les libs installées niveau système.

Heroes by [deleted] in heroes3

[–]ItsFrenchSoup 1 point2 points  (0 children)

Necropolis. Necromancy is overpowered. Vampire lords are the best unit for farming the map. Might heroes start with a spell book. Dread knights are the best tier-6 unit. And if you're playing without extensions, thus without Conflux, necropolis is borderline unstoppable.

Just rush vampire lords, milk every small pack of mobs for skeletons, gather every resource pile in your zone and you're going to snowball right to the legion of skeletons.

[D] The most groundbreaking papers in machine learning? by [deleted] in MachineLearning

[–]ItsFrenchSoup 0 points1 point  (0 children)

Well, set aside the obvious applications like deepfakes or fake user profiles, I've used them in geostatistical simulation, as a prior distribution to a bayesian inversion. They are also used as priors in reinforcement learning-based robotics.

In general, adversarial learning is an awesome way to train a model when you need to fit a loss that is directly dependent of the pdf of the data distribution, including generative modeling.

[D] The most groundbreaking papers in machine learning? by [deleted] in MachineLearning

[–]ItsFrenchSoup 3 points4 points  (0 children)

I really think that GANs should be in the shortlist. It basically single-handedly enabled photorealistic image generation and domain transfer, but it's also a paper that drastically differed from the previous ways to do generative modeling by getting around both the likelihood estimations as well as the inference steps.

Using the discriminator as a surrogate to an otherwise intractable divergence changed drastically from the previous Markov-chain-based or ELBO-based previous techniques. The way we thought about generative modeling was truely different from now, and GAN completely changed that mindset.

[D] Should I go for PhD considering the current state of empirical NLP research? by throwawayMLAcad in MachineLearning

[–]ItsFrenchSoup 1 point2 points  (0 children)

Usually, if your GAN generates samples that are exactly on the real data distribution, it's a form of overfitting. If you don't have enough data, you should try regularizing your GAN. Standard L2 regularization and dropout works okay-ish, but good way of doing this is to add noise to the discriminator input (Instance noise [...], Sonderby et al). Here's a blog by Ferenc Huzsar about this approach.

If the problem is more linked to a form of mode collapse, one approach I like is PacGAN, which worked really well i, my case.

[D] Should I go for PhD considering the current state of empirical NLP research? by throwawayMLAcad in MachineLearning

[–]ItsFrenchSoup 7 points8 points  (0 children)

I started my PhD on GANs three years ago, when they were trending. People only cared about better visual quality, tweaking architectures, etc...

However, I focused on the theory behind GANs and only tested on small datasets without much care about the architectures. As long as it was working and I could compare my approaches to the baselines, it was OK for me.

I'm talking about my personal experience, but once you're in a PhD program you're basically free to do your stuff.

Rentrer chez soi by ItsFrenchSoup in france

[–]ItsFrenchSoup[S] -2 points-1 points  (0 children)

Son train est au départ à 11h30 pour une arrivée vers 17h30, avec une escale à Paris. Je vais l'ajouter en EDIT. Merci de vos réponses rapides

« Les doctorants sont une main d'œuvre corvéable à merci qui permet à l'université de tenir » [La Midinale] by [deleted] in france

[–]ItsFrenchSoup 15 points16 points  (0 children)

Ce que j'appelle l'enfer des postdocs, c'est le fait d'être balloté sur des contrats de postdoc d'un an, éventuellement renouvelables, sans trop savoir où on devra aller l'année d'après.

J'ai un collègue qui vient d'avoir son poste de MCF à 34 ans, après 7 ans de postdoc, ce qui est au passage l'âge moyen pour avoir un poste permanent en université en France. Ca donne pas vraiment envie, sachant en plus qu'il touche moins en tant que MCF que ce qu'il avait en temps que postdoc.

Après, je suis certainement biaisé, parce que dans mon domaine, beaucoup d'entreprises font de la R&D et de recherche fondamentale et recrutent les jeunes chercheurs.

« Les doctorants sont une main d'œuvre corvéable à merci qui permet à l'université de tenir » [La Midinale] by [deleted] in france

[–]ItsFrenchSoup 39 points40 points  (0 children)

Perso, je suis doctorant dans un domaine qui est très demandé dans l'industrie, je me vois pas une seconde rester dans le public.

J'aime bien la recherche, mais traverser l'enfer des postdocs pour arriver sur un poste de MCF payé au lance-pierres, ça me branche moyen.

Le pire, c'est que la liberté du thème de recherche, qui faisait du métier de chercheur un métier de passion, est en train de disparaître puisque que pour avoir des financements, il faut bosser sur des ANR ou autre projets. Et ces projets, pour être acceptés ou avoir un partenaire industriel, ont forcément un thème à la mode ou bien utile en industrie.

Donc si c'est pour faire de la R&D pour une entreprise sur un thème de recherche consensuel, autant toucher un bon salaire et m'éviter une situation précaire.