<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>LLaMA &#8211; Roumazeilles.net</title>
	<atom:link href="https://www.roumazeilles.net/news/fr/wordpress/tag/llama/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.roumazeilles.net/news/fr/wordpress</link>
	<description>Opinions technophiles et autres</description>
	<lastBuildDate>Fri, 31 Mar 2023 17:41:04 +0000</lastBuildDate>
	<language>fr-FR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	
	<item>
		<title>Installer LLaMA sous Windows</title>
		<link>https://www.roumazeilles.net/news/fr/wordpress/2023/03/31/installer-llama-sous-windows/</link>
					<comments>https://www.roumazeilles.net/news/fr/wordpress/2023/03/31/installer-llama-sous-windows/#respond</comments>
		
		<dc:creator><![CDATA[Yves Roumazeilles]]></dc:creator>
		<pubDate>Fri, 31 Mar 2023 17:28:44 +0000</pubDate>
				<category><![CDATA[Intelligence Artificielle]]></category>
		<category><![CDATA[Windows 10]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[IA]]></category>
		<category><![CDATA[LLaMA]]></category>
		<category><![CDATA[LLM]]></category>
		<guid isPermaLink="false">https://www.roumazeilles.net/news/fr/wordpress/?p=11387</guid>

					<description><![CDATA[Je voulais jouer avec quelque chose de semblable à ChatGPT dont on parle tant. J&#8217;ai un PC sous Windows 10 reposant sur un Intel i9-13900K (à peu près le top de la performance aussi bien en single core qu&#8217;en multicore) et 64 Go de DRAM (davantage que la plupart des utilisateurs, mais j&#8217;ai bien compris [&#8230;]]]></description>
										<content:encoded><![CDATA[
<p>Je voulais jouer avec quelque chose de semblable à ChatGPT dont on parle tant. J&rsquo;ai un PC sous Windows 10 reposant sur un Intel i9-13900K (à peu près le top de la performance aussi bien en <em>single core </em>qu&rsquo;en <em>multicore</em>) et 64 Go de DRAM (davantage que la plupart des utilisateurs, mais j&rsquo;ai bien compris que ces LLM ont aussi besoin d&rsquo;une mémoire colossale pour le stockage de leurs paramètres et pour leur exécution).</p>



<p>Voilà comment faire (grâce à l&rsquo;aide précieuse de <a href="https://mirror.xyz/xanny.eth/TBgwcBOoP9LZC6Mf570fG8VvZWhEn_uWZPHy3axIpsI">Xanny.eth</a>).</p>



<h2 class="wp-block-heading">WSL et environnement Linux</h2>



<p>Installer et configurer WSL, en ouvrant une fenêtre PowerShell où saisir :</p>



<pre class="wp-block-code"><code>wsl --install</code></pre>



<p>Cela prend quelques minutes à s&rsquo;installer. Mais il n&rsquo;y a rien à faire qu&rsquo;à attendre que ça se passe. ne pas oublier de rebooter à la fin.</p>



<p>Installer Ubuntu 22 LTS sur le PC Windows. C&rsquo;est une application gratuite du Microsoft Store qui devrait s&rsquo;installer en un clic.</p>



<p>Une fois fait, lancer Ubuntu depuis le menu Démarrer. Cela va ouvrir une fenêtre terminal et demander login et un mot de passe. Obéissez docilement (et ne les oubliez pas).</p>



<h2 class="wp-block-heading">Installation des dépendances Linux de LLaMA</h2>



<p>S&rsquo;il n&rsquo;y en a pas, ouvrez une fenêtre terminal Ubuntu.</p>



<pre class="wp-block-code"><code>sudo apt-get update
sudo apt install make cmake build-essential python3 python3-pip git unzip</code></pre>



<p>Puis</p>



<pre class="wp-block-code"><code>python3 -m pip install torch numpy sentencepiece</code></pre>



<p>Vous avez maintenant l&rsquo;ensemble des dépendances nécessaires en arrière-plan.</p>



<h2 class="wp-block-heading">Construction de LLaMA lui-même</h2>



<p>C&rsquo;est assez simple puisqu&rsquo;il suffit de taper les commandes suivantes :</p>



<pre class="wp-block-code"><code>git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp
make</code></pre>



<p>Ça devrait le faire.</p>



<h2 class="wp-block-heading">Les paramètres de training</h2>



<p>Le vrai problème se trouve ici et se présente sous deux formes :</p>



<ol class="wp-block-list">
<li>Plus les paramètres sont nombreux, plus il vous faudra de mémoire DRAM au moment de l&rsquo;exécution de LLaMA. les <a href="https://huggingface.co/chavinlo/alpaca-native">alpaca-native-weights</a> (apparemment les plus puissants facilement accessibles &#8211; semble-t-il au niveau de ChatGPT 3) demandent plus de 16 Go de DRAM (j&rsquo;ai observé une consommation de 32&nbsp;Go de DRAM alors que j&rsquo;utilisais LLaMA avec un paquet d&rsquo;autre petites choses comme deux navigateurs web, un logiciel de mail, etc.)</li>



<li>Les <a href="https://huggingface.co/chavinlo/alpaca-native">alpaca-native-weights</a> contiennent environ 7 milliards de paramètres (un fichier de plus de 4 Go à télécharger). Mais ils ne sont jamais au même endroit parce qu&rsquo;il semble que la licence soit un peu&#8230; compliquée ; sans doute open source, mais c&rsquo;est contesté par Meta et d&rsquo;autres). Ainsi, le mieux à faire est d&rsquo;aller sur <a href="https://pastebin.com/z5A33Umd">Pastebin</a> pour récupérer le magnet BitTorrent pour télécharger le fichier.</li>
</ol>



<p>Ensuite, le fichier ggml-alpaca-7b-q4.bin doit être déposé dans le répertoire de llama.cpp.</p>



<h2 class="wp-block-heading">Lancer LLaMA</h2>



<p>Le grand moment est venu : lancer l&rsquo;application. C&rsquo;est simplement une affaire de ligne de commande dans Ubuntu :</p>



<pre class="wp-block-code"><code>./main --color -i -ins -n 512 -p "You are a helpful AI who will assist, provide information, answer questions, and have conversations." -m ggml-alpaca-7b-native-q4.bin</code></pre>



<p>Après quelques secondes d&rsquo;attente, un &gt; (vert) accueille votre premier prompt. A vous de parler à John Smith, votre assistant (semi) intelligent.</p>



<h2 class="wp-block-heading">Quelques autres idées</h2>



<p>J&rsquo;ai remarqué une petite poignée d&rsquo;idées à appliquer après vos premiers essais.</p>



<p>Le paramètre -p (suivi d&rsquo;une chaine de texte) est important parce qu&rsquo;il donne un environnement de départ. C&rsquo;est un prompt d&rsquo;initialisation qui n&rsquo;apparaît pas à l&rsquo;utilisateur, mais qui influence sérieusement la suite. Par exemple, c&rsquo;est similaire à <a href="https://arstechnica.com/information-technology/2023/02/ai-powered-bing-chat-spills-its-secrets-via-prompt-injection-attack/">ce que Microsoft ou OpenAI appliquent en amont</a> de ChatGPT ou Bing pour « lui donner une personnalité » ou « le censurer ». Vous pouvez librement jouer là-dessus pour votre propre IA. Soit pour censurer son comportement, soit pour le libérer. C&rsquo;est votre choix.</p>



<p>le paramètre -n 512 donne de la profondeur à la prédiction des tokens. En allongeant ou réduisant celui-ci, vous allez influencer la capacité de votre IA. Au risque de jouer sur le temps de calcul&#8230;</p>



<p>Le paramètre -t 32 (la valeur par défaut) permet de définir le nombre de threads générés par LLaMA pour ses calculs. Je recommande de l&rsquo;aligner sur le nombre de threads/cores de votre processeur pour plus d&rsquo;efficacité.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.roumazeilles.net/news/fr/wordpress/2023/03/31/installer-llama-sous-windows/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
