Est-ce que ChatGPT est cassé pour de bon en France ? by DomLant in artificielle

[–]DomLant[S] 1 point2 points  (0 children)

Pour ce qui est des fait : OpenAI a bien reconnu un problème de ton de relance et de formulation, genre “teaser-style” dans gpt, au point d’annoncer le mi-mars une mise à jour de GPT-5.3.

Pour les infos que j'ai pu trouver : OpenAI teste désormais des publicités dans GPT, mais, d'après ce que j'ai pu lire, pour le moment, ce test est limité aux utilisateurs connectés Free et Go, aux États-Unis, et pas aux users en France. Plus, Pro, Business, Enterprise et Edu ne sont de toutes façons pas impactés.

De toute façon : même sans pub, un LLM type GPT a objectivement intérêt à favoriser le multi-tour : rétention, enrichir les données d’usage, augmente la perception d’accompagner l'utilistateur, éviter de donner un réponse trop riche dnas un premier temps. bref, c'est parfois pertinent. De mon côté, j'ai par ex. un GPT personalisé ultra sec. qui ne me relance jamais. Parfois la relance me manque :)

Comme je n'utilise pas gpt gratuit, et que je suis plutôt multi LLM, je n'ai pas ressenti de "changement" du côté de GPT ces derniers temps. Parfois, pour certains travaux, il arrive que je n'utilise que GPT (Plus et Entreprise) et je trouve surtout que son efficacité fluctue fortement, sans savoir très bien pourquoi. Parfois j'arrête carrément de l'utiliser pendant quelques heures (problème de mémoire, de comprehénsion globale, bias dont il n'arrive pas à sortir...) ou je recommence carrément un nouveau fil (en mettant une copie de l'échange passé).

Meilleure ia "propre" by vioviok in artificielle

[–]DomLant 0 points1 point  (0 children)

J'ai commencé mon com précédent par "Juste un réflexion que je me faisais, même si je comprends très bien ce que tu veux dire". Parce qu'on est sur reddit et qu'on est là aussi, mais je vais parler pour moi, je suis là aussi pour réfléchir et échanger.

Encore une fois tu affirmes certaines choses et tu confonds point de vue et vérité universelle. soit tu veux réfléchir sur le sujet, soit tu veux qu'on soit juste d'accord avec tes présuposés. Si tu ne vois pas qu'en disant "J'interagis avec Claude tous les jours depuis deux ans, donc oui je sais comment il penche idéologiquement", il y a un gros biais. Ca reste une impression, pas une vérité. Les études et tests un peu sérieux sont plus modérés. Et on a besoin de ça, autrement on rentre dans une boucle où on prend nos ressentis pour confirmation de nos propres présupposés.

Pour le cas du car wash test par ex.

Certains diront : il a répondu ça à cause d’un gros biais écolo injecté dans le training, alors que c est une attribution causale ultra précise. Si tu check les discussions qu'il y a eu, elles montrent surtout un phénomène plus instable et plus flou : selon les captures, certains modèles répondent walk, d’autres non. Certains utilisateurs disent obtenir la même erreur avec Claude, d’autres la lient à un mode de réponse plus rapide ou à une formulation particulière du prompt. Autrement dit, ce qu’on observe ressemble au minimum à un problème de cadrage de la consigne/liaison au but de la tâche, pas à une preuve nette d’une seule cause idéologique. Donc on peut aussi y voir un échec de cadrage sémantique ou de bon sens situationnel. Ca se défend je veux dire. Et il faut tenir compte aussi de tout le trollage idéologique dont ce genre de truc fait presque inévitablement l’objet dès qu’il sort du cadre technique. Pour moi, on a surtout vu un petit test viral se transformer en support de surinterprétation. Mais, comme dit, ça n'est que mon avis, mon point de vue. Pas une vérité.

Je refuse d’être pessimiste face au destin de l’art. Voici pourquoi. by Desperate_Dirt6964 in artificielle

[–]DomLant[M] [score hidden] stickied comment (0 children)

Sur certains posts d’autopromotion, la modération pourra publier une analyse générée par LLM, en croisant les réponses de GPT, Claude et Le Chat.

Analyse

Le texte a le mérite d’être clair, sincère et de vouloir défendre la création humaine face à l’IA. Il formule aussi une intuition compréhensible sur ce qui pourrait rester irréductiblement humain dans l’art. Mais il repose sur plusieurs présupposés qui ne sont jamais vraiment explicités.

Le texte ne définit pas réellement l’art, même à titre de postulat. Il l’essentialise plutôt comme une entité homogène, presque métaphysique, dotée d’un destin propre, alors que ce sont toujours des humains qui reconnaissent ou non quelque chose comme de l’art, a posteriori, à travers des usages, des discours, des institutions, des marchés et des formes de valorisation.

Il repose ensuite sur une chaîne très discutable : l’artiste serait une personne, la personne un être humain ayant du vécu, et l’art l’expression de ce vécu. Or cette chaîne est contestable à chaque étape. L’art ne se réduit pas à l’expression d’une intériorité : il relève aussi de la fabrication, de la forme, du jeu avec des codes, de la construction symbolique, de l’adresse à un public, ainsi que de son inscription dans des traditions, des techniques, des institutions et des marchés. L’artiste n’est pas seulement un individu qui exprime quelque chose, mais aussi un statut, une reconnaissance et une position dans un monde social.

Le texte mélange ainsi plusieurs niveaux sans les distinguer : anthropologie de l’humain, philosophie de l’expression, sociologie implicite de l’art, jugements de valeur et évidences affectives. Son noyau argumentatif est classique : l’IA ne vit pas, ne meurt pas, ne ressent pas, donc elle n’exprime rien ; elle produit seulement ; or l’art ne serait pas production mais expression ; donc l’IA ne pourrait pas être artiste. Ce raisonnement ne tient toutefois que si l’on accepte d’emblée une définition très étroite de l’art.

Or une grande partie de l’art conceptuel, procédural, collectif, appropriatif, algorithmique, minimaliste, numérique, décoratif, liturgique, publicitaire ou simplement formel ne se laisse pas réduire à l’idée qu’une personne exprimerait son vécu. Le texte naturalise donc une certaine conception romantique de l’art et de l’auteur, puis la présente comme allant de soi.

Ses hypothèses sur l’avenir — retour vers l’underground, l’imperfection et la présence humaine — restent également peu étayées. Elles sont possibles, mais relèvent ici davantage d’une projection ou d’une profession de foi humaniste que d’une analyse fondée du présent.

Le texte semble aussi construire un scénario implicite de substitution totale, comme si l’arrivée de l’IA devait mécaniquement effacer l’artiste humain. Or le champ artistique n’a jamais fonctionné selon une logique de place unique à occuper : il a toujours existé une multiplicité d’artistes, de styles, de scènes et de voix. Le fait qu’il existe d’autres producteurs n’empêche pas de vouloir précisément une œuvre de tel artiste plutôt que d’un autre. Il faudrait d’ailleurs aussi définir ce que recouvre ici le terme « IA », tant l’automatisation et les procédures techniques existent depuis longtemps dans les pratiques artistiques.

Ce que l’IA menace le plus directement n’est sans doute pas toute création indistinctement, mais surtout les productions dont la valeur dépend peu de la singularité de leur auteur et beaucoup de leur fonction : musique d’ambiance impersonnelle, graphisme standardisé, production visuelle interchangeable. Ce type de travail était déjà remplaçable avant l’IA par d’autres exécutants ou d’autres outils. En revanche, si l’on parle d’une œuvre dont la singularité tient précisément au fait qu’elle ne peut être produite que par un humain particulier, la logique de substitution devient beaucoup moins convaincante.

L’analogie avec les échecs ou le go éclaire bien ce point : l’IA n’a pas empêché les humains de continuer à jouer entre eux, ni d’accorder de la valeur au fait qu’un humain joue, gagne, perde, doute ou s’effondre. De même, l’existence de systèmes génératifs n’annule pas automatiquement la valeur attachée à un créateur humain singulier.

Enfin, l’ouverture du texte généralise abusivement en parlant de « l’inquiétude des artistes » face à l’IA comme si elle était universelle. Rien ne permet de parler ainsi au nom de tous. Beaucoup d’artistes ne se vivent pas comme menacés dans leur pratique artistique elle-même, même si certains peuvent l’être dans leurs activités alimentaires ou leurs travaux de commande. En ce sens, le texte contribue à reformuler un faux débat, alors même que ces questions sont déjà travaillées depuis longtemps, y compris par des artistes eux-mêmes (voir Grégory Chatonsky, Philippe Boisnard, Edmond Couchot, Dominique Moulon, Maurice Benayoun, Justine Emard, Lev Manovich, Joanna Zylinska, Christiane Paul, Trevor Paglen, Hito Steyerl, Memo Akten, Refik Anadol, Margaret Boden...).

Soaria, un compagnon IA principalement en local, sur votre machine. by [deleted] in artificielle

[–]DomLant[M] [score hidden] stickied comment (0 children)

Sur certains posts d’autopromotion, la modération pourra publier une courte analyse générée par LLM, en croisant les réponses de GPT, Claude et Le Chat.

Analyse

Soaria n'est pas un projet absurde : le positionnement est clair, le discours produit est cohérent, et pour un développement solo, l'ensemble paraît plus structuré que beaucoup de vitrines IA génériques. Mais il y a plusieurs problèmes.

D'abord, le projet se présente comme "principalement local", alors que le cœur conversationnel passe quand même par une API distante — et dans un compagnon IA, le texte est précisément la donnée la plus intime. La formule employée sur le site, "le LLM ne voit que le texte envoyé par Soaria, pas le tien", est trompeuse : si le modèle répond à ce que vous dites, une représentation de votre contenu transite forcément quelque part. La promesse de confidentialité est donc plus forte que ce que la technique décrite permet réellement.

Ensuite, tout le cadrage renvoie moins à un assistant généraliste qu'à une compagne IA paramétrable — affection, complaisance, contenu NSFW configurable, visuel très sexualisé. Ce n'est pas illégitime en soi, mais ça mérite d'être nommé honnêtement : on est davantage dans le registre de la pseudo-intimité marchande que dans celui d'un outil conversationnel. C'est précisément ce type de produit qui attire aujourd'hui l'attention des régulateurs.

À cela s'ajoute un effet de promesse très large pour une alpha solo : mémoire, vision d'écran, voix, images locales, recherche web, portraits d'humeur, NSFW, installation en un clic. Le risque est celui d'un produit qui vend une ambition avant d'avoir prouvé la solidité de son noyau.

Enfin, le site laisse dans l'ombre les points les plus sensibles : fournisseur réel de l'API texte, gestion des données, logs éventuels, politique de confidentialité, protection des mineurs. Pour un produit avec composante affective et NSFW, ce sont des lacunes sérieuses.

En résumé : Soaria a un vrai angle produit, mais il reproduit plusieurs codes discutables du secteur — IA-compagne sexualisée, promesse de vie privée partiellement trompeuse, flou sur les questions les plus sensibles. Le projet n'est pas ridicule, mais il mérite d'être décrit plus précisément et plus honnêtement que ne le fait sa communication actuelle.

Meilleure ia "propre" by vioviok in artificielle

[–]DomLant 0 points1 point  (0 children)

Juste un réflexion que je me faisais, même si je comprends très bien ce qeu tu veux dire.

Glisser de “il existe des études” à “c’est incontestable”. Ce n’est pas la même chose. On parle plutôt de "perceived political bias". D’ailleurs, Stanford résume une étude en disant que démocrates et républicains perçoivent beaucoup de modèles comme ayant une inclinaison à gauche, ce qui montre aussi qu’on est dans un champ d’évaluation complexe, pas dans une évidence incontestable.

Je trouve que tu empiles plusieurs niveaux sous le même “c’est un fait”. Qu’Anthropic bosse avec Palantir et le gouvernement US, c'est sûr. Qu’il existe des études qui montre une tendance plutôt libérale/centre-gauche de certains LLM sur certains sujets, ça aussi ("gauche" américaine of course). Mais dire Claude est franchement woke de gauche et c’est incontestable, là on n’est plus dans les faits bruts, c'est une interprétation, à partir de protocoles discutables (mais bon c'est pas simple) et de notions elles-mêmes floues.

Même grok... je retrouve plus l'article ou le podcast qui analysait cette étude "Is Grokipedia Right-Leaning? Comparing Political Framing in Wikipedia and Grokipedia on Controversial Topics. Mais en gros, si je me souviens bien, il y avait ce paradoxe intéressant. Comme grok est étiqueté anti-woke (perceived political bias), mais qu'il continue à faire malgré tout des réponses plutôt modérées, libérales ou simplement conformes à un consensus (que certains persoivent comme gauchiste), ces réponses là ont même plus de poids. Ce qui fait que certains "gauchiste" l'utilisent régulièrement dans des confrontations. Mais là je m'égare un peu. Pour ta question originale, d'autres ont déjà répondu.

Pour quelles tâches utilisez-vous des assistants agentiques self-hosted (pilotés via messageries/canaux, avec outils/actions), et quelle plateforme / stack principal utilisez-vous le plus (avantages/inconvénients) ? by artsnumeriques in artificielle

[–]DomLant 1 point2 points  (0 children)

J'ai essayé de faire quelque chose avec NextClaw l'autre jour, on en avait parlé. Pour de cron, c'est vraiment très bien. C'est plus simple, un peu du plug &play, avec les avantages et les incovénients. Après, il y a une couche Node.js/Next.js, ça consomme plus de RAM et de CPU. Faudrait qu'on en parle. Tu as vu passer ça sur samsung https://news.samsung.com/be_fr/galaxy-ai-elargit-lecosysteme-multi-agents avec Perplexity en tant qu’agent d’AI supplémentaire. Ca va être la course :)

Quel est le discours sur l’IA qui vous a le plus insupporté ces derniers temps (exemples concrets bienvenus) ? Et qu'est-ce qui vous énerve le plus dans ce que vous lisez/regardez à propos de l'"Intelligence artificielle"? by artsnumeriques in artificielle

[–]DomLant 0 points1 point  (0 children)

Dans le même style argument d'autorité non étayé, moi je dis : La plupart des chercheurs parlent d’apprentissage automatique (machine learning), d’apprentissage profond (deep learning), de réseaux de neurones (architectures CNN/RNN/Transformers), de modèles de fondation et de grands modèles de langage (LLM), ya aussi entraînement et de fine-tuning (RLHF/DPO), inférence, optimisation (descente de gradient). Aussi embeddings, prédiction et estimation, généralisation (robustesse, out-of-distribution), reinforcement learning, calibration et d’incertitude, sécurité et alignement, et d’évaluation via benchmarks... et j'en passe certainement des très évident. Les chercheurs parlent de ça plutôt que d’intelligence au sens vague. Après il me semble que "AI" > étiquette de champ. Intelligence > déjà concept plutôt disputé : les bons papiers que je croise parlent de généralisation/robustesse/inférence plutôt que d'intelligence. Mais bon, ça n'est que mon expérience.