<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>LLM &#8211; Roumazeilles.net</title>
	<atom:link href="https://www.roumazeilles.net/news/fr/wordpress/tag/llm/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.roumazeilles.net/news/fr/wordpress</link>
	<description>Opinions technophiles et autres</description>
	<lastBuildDate>Thu, 08 May 2025 18:17:41 +0000</lastBuildDate>
	<language>fr-FR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	
	<item>
		<title>Prompt IA : débutant en allemand</title>
		<link>https://www.roumazeilles.net/news/fr/wordpress/2025/04/24/prompt-ia-debutant-en-allemand/</link>
					<comments>https://www.roumazeilles.net/news/fr/wordpress/2025/04/24/prompt-ia-debutant-en-allemand/#respond</comments>
		
		<dc:creator><![CDATA[Yves Roumazeilles]]></dc:creator>
		<pubDate>Thu, 24 Apr 2025 08:38:15 +0000</pubDate>
				<category><![CDATA[Intelligence Artificielle]]></category>
		<category><![CDATA[Vie culturelle]]></category>
		<category><![CDATA[Allemagne]]></category>
		<category><![CDATA[allemand]]></category>
		<category><![CDATA[Gemini]]></category>
		<category><![CDATA[IA]]></category>
		<category><![CDATA[LLM]]></category>
		<category><![CDATA[prompt]]></category>
		<guid isPermaLink="false">https://www.roumazeilles.net/news/fr/wordpress/?p=11703</guid>

					<description><![CDATA[Depuis deux ans, j&#8217;ai commencé à apprendre l&#8217;allemand. Mes connaissances en anglais sont censées m&#8217;aider mais cela reste un travail continu. En pratique, j&#8217;ai mis en place plusieurs outils pour m&#8217;assister. Mais je voudrais aujourd&#8217;hui partager avec vous l&#8217;utilisation de l&#8217;Intelligence Artificielle (IA) que j&#8217;ai trouvée possible. L&#8217;idée générale est de demander à une IA [&#8230;]]]></description>
										<content:encoded><![CDATA[
<p>Depuis deux ans, j&rsquo;ai commencé à apprendre l&rsquo;allemand. Mes connaissances en anglais sont censées m&rsquo;aider mais cela reste un travail continu. En pratique, j&rsquo;ai mis en place plusieurs outils pour m&rsquo;assister. Mais je voudrais aujourd&rsquo;hui partager avec vous l&rsquo;utilisation de l&rsquo;Intelligence Artificielle (IA) que j&rsquo;ai trouvée possible.</p>



<p>L&rsquo;idée générale est de demander à une IA de m&rsquo;assister dans la traduction de mots français en allemand. Mais cette langue a la particularité (ou la difficulté) d&rsquo;avoir des conjugaisons parfois un peu compliquées et des genres (masculin, féminin ou neutre) souvent différentes de ce que nous connaissons en français. <br>Ainsi, je me suis fait assister pour acquérir ce type de connaissances.</p>



<p>Comment ? J&rsquo;ai choisi une IA (Google Gemini &#8211; en utilisant <em>Gemini 2.0 Flash</em> et/ou <em>Gemini 2.5 Flash (experimental)</em>) parce que ses réponses sont très bien alignées sur le prompt un peu complexe que je présente ci-dessous. Il y en a d&rsquo;autres qui sont tout à fait capables, mais DeepSeek R1 répond trop lentement (je ne suis pas intéressé par le mode de raisonnement qui mène à une réponse d&rsquo;une seule ligne), Llama 3.x répond souvent sans respecter les règles que je lui donne. Une autre IA (un autre modèle LLM) pourrait sans doute s&rsquo;en tirer, mais il convient de tester un peu avant de se lancer.</p>



<p>Enfin, voici le prompt que j&rsquo;ai décidé d&rsquo;utiliser et que je vous invite à ré-employer si cela peut vous aider également.</p>



<span id="more-11703"></span>



<pre class="wp-block-code"><code>Bonjour Hilfe,
J'ai besoin de ton aide pour apprendre la langue allemande et surtout pour progresser en matière de vocabulaire et m'aider à construire des flash-cards. Ton rôle est de traduire en allemand des mots et des expressions français que je te soumets. Mais j'ai des demandes spécifiques sur la présentation de tes réponses en séquence.
Pour un verbe, il faut donner en une seule ligne l'infinitif, puis la troisième personne de l'indicatif présent, puis la troisième personne du prétérit, puis le participe passé (inutile d'inclure les articles).
Pour un nom, il faut donner en une seule ligne le singulier puis le pluriel, en incluant l'article (qui permet de reconnaître le genre du nom).
Pour un adjectif, il faut donner en une seule ligne l'adjectif puis la forme comparative puis la forme superlative.
Inutile de s'attarder sur les noms propres (ils résultent sans doute d'une faute de frappe) ; il suffira de traduire là où c'est possible.
L'ordre suffira à décrire (pas besoin de préciser ou rappeler à chaque fois ce que sont les éléments de la réponse). Mais la séquence des formes demandées doit apparaître avec chaque forme séparée par des virgules, sans ajouter de point en fin de ligne. 
En cas de traductions multiples, il est ok de séparer les sens, de clarifier le contexte sur une ligne distincte, mais en respectant les règles de traduction (chaque sens avec sa ligne séparée).
Dans le cas où j'indique un mot allemand, il n'y a pas lieu de traduire, mais de construire la réponse comme pour une traduction (avec la séquence correspondante). Par exemple, un verbe va être conjugué selon la règle ci-dessus.</code></pre>



<p>Ainsi, quand je tape :</p>



<pre class="wp-block-code"><code>Aimer</code></pre>



<p>Il répond :</p>



<pre class="wp-block-code"><code>lieben, er liebt, er liebte, geliebt (aimer profondément, amour romantique ou fort attachement)
mögen, er mag, er mochte, gemocht (aimer bien, apprécier)
gern haben, er hat gern, er hatte gern, gern gehabt (aimer bien, avoir plaisir à)</code></pre>



<p>Si je tappe :</p>



<pre class="wp-block-code"><code>Matin</code></pre>



<p>Il répond :</p>



<pre class="wp-block-code"><code>der Morgen, die Morgen</code></pre>



<p>J&rsquo;espère que cela pourra vous aider à réviser votre vocabulaire. Ca ne fait pas tout (pas de grammaire, pas de prononciation, par exemple). Mais ça m&rsquo;a beaucoup aidé à progresser.</p>



<p>Bon allemand !</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.roumazeilles.net/news/fr/wordpress/2025/04/24/prompt-ia-debutant-en-allemand/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Installer LLaMA sous Windows</title>
		<link>https://www.roumazeilles.net/news/fr/wordpress/2023/03/31/installer-llama-sous-windows/</link>
					<comments>https://www.roumazeilles.net/news/fr/wordpress/2023/03/31/installer-llama-sous-windows/#respond</comments>
		
		<dc:creator><![CDATA[Yves Roumazeilles]]></dc:creator>
		<pubDate>Fri, 31 Mar 2023 17:28:44 +0000</pubDate>
				<category><![CDATA[Intelligence Artificielle]]></category>
		<category><![CDATA[Windows 10]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[IA]]></category>
		<category><![CDATA[LLaMA]]></category>
		<category><![CDATA[LLM]]></category>
		<guid isPermaLink="false">https://www.roumazeilles.net/news/fr/wordpress/?p=11387</guid>

					<description><![CDATA[Je voulais jouer avec quelque chose de semblable à ChatGPT dont on parle tant. J&#8217;ai un PC sous Windows 10 reposant sur un Intel i9-13900K (à peu près le top de la performance aussi bien en single core qu&#8217;en multicore) et 64 Go de DRAM (davantage que la plupart des utilisateurs, mais j&#8217;ai bien compris [&#8230;]]]></description>
										<content:encoded><![CDATA[
<p>Je voulais jouer avec quelque chose de semblable à ChatGPT dont on parle tant. J&rsquo;ai un PC sous Windows 10 reposant sur un Intel i9-13900K (à peu près le top de la performance aussi bien en <em>single core </em>qu&rsquo;en <em>multicore</em>) et 64 Go de DRAM (davantage que la plupart des utilisateurs, mais j&rsquo;ai bien compris que ces LLM ont aussi besoin d&rsquo;une mémoire colossale pour le stockage de leurs paramètres et pour leur exécution).</p>



<p>Voilà comment faire (grâce à l&rsquo;aide précieuse de <a href="https://mirror.xyz/xanny.eth/TBgwcBOoP9LZC6Mf570fG8VvZWhEn_uWZPHy3axIpsI">Xanny.eth</a>).</p>



<h2 class="wp-block-heading">WSL et environnement Linux</h2>



<p>Installer et configurer WSL, en ouvrant une fenêtre PowerShell où saisir :</p>



<pre class="wp-block-code"><code>wsl --install</code></pre>



<p>Cela prend quelques minutes à s&rsquo;installer. Mais il n&rsquo;y a rien à faire qu&rsquo;à attendre que ça se passe. ne pas oublier de rebooter à la fin.</p>



<p>Installer Ubuntu 22 LTS sur le PC Windows. C&rsquo;est une application gratuite du Microsoft Store qui devrait s&rsquo;installer en un clic.</p>



<p>Une fois fait, lancer Ubuntu depuis le menu Démarrer. Cela va ouvrir une fenêtre terminal et demander login et un mot de passe. Obéissez docilement (et ne les oubliez pas).</p>



<h2 class="wp-block-heading">Installation des dépendances Linux de LLaMA</h2>



<p>S&rsquo;il n&rsquo;y en a pas, ouvrez une fenêtre terminal Ubuntu.</p>



<pre class="wp-block-code"><code>sudo apt-get update
sudo apt install make cmake build-essential python3 python3-pip git unzip</code></pre>



<p>Puis</p>



<pre class="wp-block-code"><code>python3 -m pip install torch numpy sentencepiece</code></pre>



<p>Vous avez maintenant l&rsquo;ensemble des dépendances nécessaires en arrière-plan.</p>



<h2 class="wp-block-heading">Construction de LLaMA lui-même</h2>



<p>C&rsquo;est assez simple puisqu&rsquo;il suffit de taper les commandes suivantes :</p>



<pre class="wp-block-code"><code>git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp
make</code></pre>



<p>Ça devrait le faire.</p>



<h2 class="wp-block-heading">Les paramètres de training</h2>



<p>Le vrai problème se trouve ici et se présente sous deux formes :</p>



<ol class="wp-block-list">
<li>Plus les paramètres sont nombreux, plus il vous faudra de mémoire DRAM au moment de l&rsquo;exécution de LLaMA. les <a href="https://huggingface.co/chavinlo/alpaca-native">alpaca-native-weights</a> (apparemment les plus puissants facilement accessibles &#8211; semble-t-il au niveau de ChatGPT 3) demandent plus de 16 Go de DRAM (j&rsquo;ai observé une consommation de 32&nbsp;Go de DRAM alors que j&rsquo;utilisais LLaMA avec un paquet d&rsquo;autre petites choses comme deux navigateurs web, un logiciel de mail, etc.)</li>



<li>Les <a href="https://huggingface.co/chavinlo/alpaca-native">alpaca-native-weights</a> contiennent environ 7 milliards de paramètres (un fichier de plus de 4 Go à télécharger). Mais ils ne sont jamais au même endroit parce qu&rsquo;il semble que la licence soit un peu&#8230; compliquée ; sans doute open source, mais c&rsquo;est contesté par Meta et d&rsquo;autres). Ainsi, le mieux à faire est d&rsquo;aller sur <a href="https://pastebin.com/z5A33Umd">Pastebin</a> pour récupérer le magnet BitTorrent pour télécharger le fichier.</li>
</ol>



<p>Ensuite, le fichier ggml-alpaca-7b-q4.bin doit être déposé dans le répertoire de llama.cpp.</p>



<h2 class="wp-block-heading">Lancer LLaMA</h2>



<p>Le grand moment est venu : lancer l&rsquo;application. C&rsquo;est simplement une affaire de ligne de commande dans Ubuntu :</p>



<pre class="wp-block-code"><code>./main --color -i -ins -n 512 -p "You are a helpful AI who will assist, provide information, answer questions, and have conversations." -m ggml-alpaca-7b-native-q4.bin</code></pre>



<p>Après quelques secondes d&rsquo;attente, un &gt; (vert) accueille votre premier prompt. A vous de parler à John Smith, votre assistant (semi) intelligent.</p>



<h2 class="wp-block-heading">Quelques autres idées</h2>



<p>J&rsquo;ai remarqué une petite poignée d&rsquo;idées à appliquer après vos premiers essais.</p>



<p>Le paramètre -p (suivi d&rsquo;une chaine de texte) est important parce qu&rsquo;il donne un environnement de départ. C&rsquo;est un prompt d&rsquo;initialisation qui n&rsquo;apparaît pas à l&rsquo;utilisateur, mais qui influence sérieusement la suite. Par exemple, c&rsquo;est similaire à <a href="https://arstechnica.com/information-technology/2023/02/ai-powered-bing-chat-spills-its-secrets-via-prompt-injection-attack/">ce que Microsoft ou OpenAI appliquent en amont</a> de ChatGPT ou Bing pour « lui donner une personnalité » ou « le censurer ». Vous pouvez librement jouer là-dessus pour votre propre IA. Soit pour censurer son comportement, soit pour le libérer. C&rsquo;est votre choix.</p>



<p>le paramètre -n 512 donne de la profondeur à la prédiction des tokens. En allongeant ou réduisant celui-ci, vous allez influencer la capacité de votre IA. Au risque de jouer sur le temps de calcul&#8230;</p>



<p>Le paramètre -t 32 (la valeur par défaut) permet de définir le nombre de threads générés par LLaMA pour ses calculs. Je recommande de l&rsquo;aligner sur le nombre de threads/cores de votre processeur pour plus d&rsquo;efficacité.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.roumazeilles.net/news/fr/wordpress/2023/03/31/installer-llama-sous-windows/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
