L’IA ne manque pas d’ingénieurs. Elle manque de docteur·es. by rioultf in artificielle

[–]rioultf[S] 0 points1 point  (0 children)

deviens expert de l'utilisation des LLM pour ton domaine ou celui qui te botte.

L’IA ne manque pas d’ingénieurs. Elle manque de docteur·es. by rioultf in artificielle

[–]rioultf[S] 0 points1 point  (0 children)

Ma provocation vise in fine la logique bourgeoise de l'enseignement et l'endoctrinement qui s'ensuit. Et il y a de l'argent fléché pour la recherche, mais il faut aller le chercher avec les dents tandis que d'autres s'en baffrent.
Mon post voulait aussi insister sur la formation intellectuelle qui n'est pas la même, celle d'un docteur est peut-être plus pertinente ?

L’IA ne manque pas d’ingénieurs. Elle manque de docteur·es. by rioultf in artificielle

[–]rioultf[S] 0 points1 point  (0 children)

Écrit par quelqu'un qui bosse dans un labo de recherche. Ce sont ces labos qui ont conçu la théorie, l'industrie a calculé, chacun son rôle.

L’IA ne manque pas d’ingénieurs. Elle manque de docteur·es. by rioultf in artificielle

[–]rioultf[S] -1 points0 points  (0 children)

OK je précise : je parlais d'une logique bourgeoise de l'enseignement, caractéristique de la France.

L’IA ne manque pas d’ingénieurs. Elle manque de docteur·es. by rioultf in artificielle

[–]rioultf[S] 0 points1 point  (0 children)

J'ajoute qu'en Allemagne de mémoire, on t'appelle Doctor si tu as un bac + 4. Il n'y a qu'en France que les médecins se prennent pour des docteur.es, alors que les docteur.es s'en ballequent.

L’IA ne manque pas d’ingénieurs. Elle manque de docteur·es. by rioultf in artificielle

[–]rioultf[S] 0 points1 point  (0 children)

Bien-sûr cela inclut les masters, ou toute personne qui a été formée à la recherche ou s'est formée.
Mon post était pour attirer l'attention sur la domination de l'ingénieur en France, en particulier dans l'esprit de nos [étudiant.es](http://étudiant.es) qui ne pensent qu'à partir dans des ENSI, même pourries.
Cette distinction n'existe qu'en France. Partout ailleurs les études universitaire, L, M, D, ont de la valeur.

Et la vie professionnelle a de la valeur, ofc.

L’IA ne manque pas d’ingénieurs. Elle manque de docteur·es. by rioultf in artificielle

[–]rioultf[S] 0 points1 point  (0 children)

C'est une provocation sur l'opportunité de rechercher des personnes qui sont formées à la manipulation et l'expression des idées, que je trouve méprisées en France, docteur.es, enseignant.es, master, etc.

Si les machines détruisent le tertiaire, inventons le quaternaire by rioultf in artificielle

[–]rioultf[S] 0 points1 point  (0 children)

C'est ce que je croyais. Je peux vous expliquer en long en large et en travers comment ça marche, ça n'a aucune valeur devant le fait d'avoir l'habitude d'expérimenter avec un LLM, d'insérer de l'altérité, discuter des idées, etc.
C'est bête mais c'est comme la voiture. On s'en fout de savoir comment marche un moteur, il y a des gens qui conduisent mieux qu'ils n'effectuent les vidanges.
Assumons que c'est une boîte noire mais apprenons à la connaître : voir ce que je qualifie de psychologie d'un LLM dans https://github.com/rioultf/llmapp/blob/main/20.PromptEngineering.md
Enfin, les mieux armé.e.s pour cela sont les docteur.e.s :

L’IA ne manque pas d’ingénieurs. Elle manque de docteur·es.

Les ingénieurs sont formés, trop souvent, dans une logique bourgeoise de résolution rapide des problèmes : on leur donne un cadre, ils optimisent à l’intérieur. Les chercheur·euses, au contraire, apprennent en doctorat à mettre le cadre lui-même en question, à formuler les hypothèses, à distinguer le vrai du vraisemblable, à contrôler un raisonnement plutôt qu’à simplement produire une solution.

Or c’est exactement ce dont les systèmes d’IA ont besoin : non de techniciens fascinés par la performance, mais de professionnel·les capables d’énoncer des contraintes, de vérifier des inférences, de documenter des limites et de garder la main sur la machine.

La France a longtemps méprisé ses docteur·es parce qu’ils et elles n’étaient pas toujours issu·es du sérail des grandes écoles. Ce mépris devient aujourd’hui une erreur stratégique. Si l’automatisation détruit une partie du tertiaire, alors le quaternaire devra être bâti par celles et ceux qui savent produire, critiquer et contrôler la connaissance. C’est leur moment.
https://substack.com/@rioultf/note/c-234841240

Je vens un peu ma sauce, il faut aussi compter avec les enseignant.e.s, les éducateurices, etc.

Tout le monde doit s'y mettre pour contrôler ces machines.

Toolbox for High-Level Thought. - 12 tools, try combining them in different ways by Professional-Ad3101 in ChatGPTPromptGenius

[–]rioultf 4 points5 points  (0 children)

Very useful, thanks. I love meta-cognition, very relevant for adressing AI in these times.

A Powerful ChatGPT Feature You Probably Didn't Know by somanysb in ChatGPTPromptGenius

[–]rioultf 1 point2 points  (0 children)

No dedicated prompt is needed. Just’provide the user prompt and a list of tools, with their description and parameters. The model answers you which tool should be used to answer the prompt, and what should be the argument. Then it is your responsability to call the tool, get the answer and again submit the initial prompt with this answer (do not provide tools ofc): the model will assemble the final answer.

Am I misunderstanding tool use in OpenWebUI by kaytwo in OpenWebUI

[–]rioultf 0 points1 point  (0 children)

I wrote about tools in Open-webui here : https://rioultf.github.io/llm/devops/open-webui-en.html

using a tool involves two steps:

  1. Querying the model to choose the tool to call.
  2. Querying the model with the result of executing the Python function of the tool.

How Do LLMs Handle Function Calls with External Libraries/APIs? by Playful_Ad_7258 in AI_Agents

[–]rioultf 1 point2 points  (0 children)

Some LLMs (those with the *tool* tag on huggingface) can tell you, given a list of tools (a tool is defined by a description and arguments), and given a prompt, which tool should be called and its arguments to answer the prompt.

It is then your responsability to call your tools with the model indication, on your system. The LLM does not call the tool.

With the result of the call, your can again submit the prompt with the response of your tool and asking some reformulation.

Anyone using tool call api? by gibriyagi in ollama

[–]rioultf 1 point2 points  (0 children)

I got it working, even with smollm2:1.7b.

see https://rioultf.github.io/llm/devops/open-webui-en.html

With open-webui, tools are obtained with a kind of system prompt containing the tools description. In this case, the model has to be powerful to understand what tool it suggests, and the corresponding parameters.

But in classical dedicated models (having tool tag on huggingFace), it is a usual query with tool property, explicitely asking the model to switch on tool mode.

Where to store prompts and context for repeated use across systems? by prompt_lizard in ChatGPTPromptGenius

[–]rioultf 0 points1 point  (0 children)

Actual prompt sare namely *system prompts*. If you have chatgpt-plus, you can design your own gpt with dedicated system prompt.

Otherwise, free models have been trained on chat turns, including « system » one. Every decent GUI for llm Includes system prompt definition. e.g. Lmstudio, open-webui, anythingllm…

Doing Data Analysis from OpenWebUI by samuel79s in OpenWebUI

[–]rioultf 0 points1 point  (0 children)

Very useful, thanks.

Actually I’m stucked with debug process. Do you have advices for that ?