<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>ChatGPT &#8211; Roumazeilles.net</title>
	<atom:link href="https://www.roumazeilles.net/news/fr/wordpress/tag/chatgpt/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.roumazeilles.net/news/fr/wordpress</link>
	<description>Opinions technophiles et autres</description>
	<lastBuildDate>Fri, 31 Mar 2023 17:41:04 +0000</lastBuildDate>
	<language>fr-FR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	
	<item>
		<title>Installer LLaMA sous Windows</title>
		<link>https://www.roumazeilles.net/news/fr/wordpress/2023/03/31/installer-llama-sous-windows/</link>
					<comments>https://www.roumazeilles.net/news/fr/wordpress/2023/03/31/installer-llama-sous-windows/#respond</comments>
		
		<dc:creator><![CDATA[Yves Roumazeilles]]></dc:creator>
		<pubDate>Fri, 31 Mar 2023 17:28:44 +0000</pubDate>
				<category><![CDATA[Intelligence Artificielle]]></category>
		<category><![CDATA[Windows 10]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[IA]]></category>
		<category><![CDATA[LLaMA]]></category>
		<category><![CDATA[LLM]]></category>
		<guid isPermaLink="false">https://www.roumazeilles.net/news/fr/wordpress/?p=11387</guid>

					<description><![CDATA[Je voulais jouer avec quelque chose de semblable à ChatGPT dont on parle tant. J&#8217;ai un PC sous Windows 10 reposant sur un Intel i9-13900K (à peu près le top de la performance aussi bien en single core qu&#8217;en multicore) et 64 Go de DRAM (davantage que la plupart des utilisateurs, mais j&#8217;ai bien compris [&#8230;]]]></description>
										<content:encoded><![CDATA[
<p>Je voulais jouer avec quelque chose de semblable à ChatGPT dont on parle tant. J&rsquo;ai un PC sous Windows 10 reposant sur un Intel i9-13900K (à peu près le top de la performance aussi bien en <em>single core </em>qu&rsquo;en <em>multicore</em>) et 64 Go de DRAM (davantage que la plupart des utilisateurs, mais j&rsquo;ai bien compris que ces LLM ont aussi besoin d&rsquo;une mémoire colossale pour le stockage de leurs paramètres et pour leur exécution).</p>



<p>Voilà comment faire (grâce à l&rsquo;aide précieuse de <a href="https://mirror.xyz/xanny.eth/TBgwcBOoP9LZC6Mf570fG8VvZWhEn_uWZPHy3axIpsI">Xanny.eth</a>).</p>



<h2 class="wp-block-heading">WSL et environnement Linux</h2>



<p>Installer et configurer WSL, en ouvrant une fenêtre PowerShell où saisir :</p>



<pre class="wp-block-code"><code>wsl --install</code></pre>



<p>Cela prend quelques minutes à s&rsquo;installer. Mais il n&rsquo;y a rien à faire qu&rsquo;à attendre que ça se passe. ne pas oublier de rebooter à la fin.</p>



<p>Installer Ubuntu 22 LTS sur le PC Windows. C&rsquo;est une application gratuite du Microsoft Store qui devrait s&rsquo;installer en un clic.</p>



<p>Une fois fait, lancer Ubuntu depuis le menu Démarrer. Cela va ouvrir une fenêtre terminal et demander login et un mot de passe. Obéissez docilement (et ne les oubliez pas).</p>



<h2 class="wp-block-heading">Installation des dépendances Linux de LLaMA</h2>



<p>S&rsquo;il n&rsquo;y en a pas, ouvrez une fenêtre terminal Ubuntu.</p>



<pre class="wp-block-code"><code>sudo apt-get update
sudo apt install make cmake build-essential python3 python3-pip git unzip</code></pre>



<p>Puis</p>



<pre class="wp-block-code"><code>python3 -m pip install torch numpy sentencepiece</code></pre>



<p>Vous avez maintenant l&rsquo;ensemble des dépendances nécessaires en arrière-plan.</p>



<h2 class="wp-block-heading">Construction de LLaMA lui-même</h2>



<p>C&rsquo;est assez simple puisqu&rsquo;il suffit de taper les commandes suivantes :</p>



<pre class="wp-block-code"><code>git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp
make</code></pre>



<p>Ça devrait le faire.</p>



<h2 class="wp-block-heading">Les paramètres de training</h2>



<p>Le vrai problème se trouve ici et se présente sous deux formes :</p>



<ol class="wp-block-list">
<li>Plus les paramètres sont nombreux, plus il vous faudra de mémoire DRAM au moment de l&rsquo;exécution de LLaMA. les <a href="https://huggingface.co/chavinlo/alpaca-native">alpaca-native-weights</a> (apparemment les plus puissants facilement accessibles &#8211; semble-t-il au niveau de ChatGPT 3) demandent plus de 16 Go de DRAM (j&rsquo;ai observé une consommation de 32&nbsp;Go de DRAM alors que j&rsquo;utilisais LLaMA avec un paquet d&rsquo;autre petites choses comme deux navigateurs web, un logiciel de mail, etc.)</li>



<li>Les <a href="https://huggingface.co/chavinlo/alpaca-native">alpaca-native-weights</a> contiennent environ 7 milliards de paramètres (un fichier de plus de 4 Go à télécharger). Mais ils ne sont jamais au même endroit parce qu&rsquo;il semble que la licence soit un peu&#8230; compliquée ; sans doute open source, mais c&rsquo;est contesté par Meta et d&rsquo;autres). Ainsi, le mieux à faire est d&rsquo;aller sur <a href="https://pastebin.com/z5A33Umd">Pastebin</a> pour récupérer le magnet BitTorrent pour télécharger le fichier.</li>
</ol>



<p>Ensuite, le fichier ggml-alpaca-7b-q4.bin doit être déposé dans le répertoire de llama.cpp.</p>



<h2 class="wp-block-heading">Lancer LLaMA</h2>



<p>Le grand moment est venu : lancer l&rsquo;application. C&rsquo;est simplement une affaire de ligne de commande dans Ubuntu :</p>



<pre class="wp-block-code"><code>./main --color -i -ins -n 512 -p "You are a helpful AI who will assist, provide information, answer questions, and have conversations." -m ggml-alpaca-7b-native-q4.bin</code></pre>



<p>Après quelques secondes d&rsquo;attente, un &gt; (vert) accueille votre premier prompt. A vous de parler à John Smith, votre assistant (semi) intelligent.</p>



<h2 class="wp-block-heading">Quelques autres idées</h2>



<p>J&rsquo;ai remarqué une petite poignée d&rsquo;idées à appliquer après vos premiers essais.</p>



<p>Le paramètre -p (suivi d&rsquo;une chaine de texte) est important parce qu&rsquo;il donne un environnement de départ. C&rsquo;est un prompt d&rsquo;initialisation qui n&rsquo;apparaît pas à l&rsquo;utilisateur, mais qui influence sérieusement la suite. Par exemple, c&rsquo;est similaire à <a href="https://arstechnica.com/information-technology/2023/02/ai-powered-bing-chat-spills-its-secrets-via-prompt-injection-attack/">ce que Microsoft ou OpenAI appliquent en amont</a> de ChatGPT ou Bing pour « lui donner une personnalité » ou « le censurer ». Vous pouvez librement jouer là-dessus pour votre propre IA. Soit pour censurer son comportement, soit pour le libérer. C&rsquo;est votre choix.</p>



<p>le paramètre -n 512 donne de la profondeur à la prédiction des tokens. En allongeant ou réduisant celui-ci, vous allez influencer la capacité de votre IA. Au risque de jouer sur le temps de calcul&#8230;</p>



<p>Le paramètre -t 32 (la valeur par défaut) permet de définir le nombre de threads générés par LLaMA pour ses calculs. Je recommande de l&rsquo;aligner sur le nombre de threads/cores de votre processeur pour plus d&rsquo;efficacité.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.roumazeilles.net/news/fr/wordpress/2023/03/31/installer-llama-sous-windows/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Progrès en Intelligence Artificielle</title>
		<link>https://www.roumazeilles.net/news/fr/wordpress/2022/12/12/progres-en-intelligence-artificielle/</link>
					<comments>https://www.roumazeilles.net/news/fr/wordpress/2022/12/12/progres-en-intelligence-artificielle/#comments</comments>
		
		<dc:creator><![CDATA[Yves Roumazeilles]]></dc:creator>
		<pubDate>Mon, 12 Dec 2022 14:09:51 +0000</pubDate>
				<category><![CDATA[Sciences & technique]]></category>
		<category><![CDATA[Blanche Neige]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[CoPilot]]></category>
		<category><![CDATA[Dall-E]]></category>
		<category><![CDATA[humour]]></category>
		<category><![CDATA[IA]]></category>
		<category><![CDATA[Intelligence Artificielle]]></category>
		<category><![CDATA[Lisp]]></category>
		<category><![CDATA[MidJourney]]></category>
		<category><![CDATA[Prolog]]></category>
		<category><![CDATA[Turing]]></category>
		<guid isPermaLink="false">https://www.roumazeilles.net/news/fr/wordpress/?p=11341</guid>

					<description><![CDATA[Quand j&#8217;ai commencé ma carrière, l&#8217;Intelligence Artificielle (IA) prenait deux directions simultanées : Aujourd&#8217;hui, il faut bien admettre que, malgré un départ énergique dans les années 80, la première approche a quasiment disparu. Qui parle encore du langage Lisp ? Qui se souvient de Prolog ? Les machines spécialisées conçues à l&#8217;époque ont été supplantées [&#8230;]]]></description>
										<content:encoded><![CDATA[
<p>Quand j&rsquo;ai commencé ma carrière, l&rsquo;Intelligence Artificielle (IA) prenait deux directions simultanées :</p>



<ul class="wp-block-list">
<li>Une approche quasi-industrielle qui reposait sur la programmation utilisant des langages (aujourd&rsquo;hui considéré comme ésotériques) comme Lisp ou Prolog. Ils favorisaient une approche plus performante que la programmation de toutes les étapes d&rsquo;une réflexion étape par étape ; ils laissaient entrevoir une orientation vers approche plus efficace.</li>



<li>Des travaux universitaires qui avaient pris le chemin de « simuler » le fonctionnement des neurones comme base de leur démarche.</li>
</ul>



<p>Aujourd&rsquo;hui, il faut bien admettre que, malgré un départ énergique dans les années 80, la première approche a quasiment disparu. Qui parle encore du langage Lisp ? Qui se souvient de Prolog ? Les machines spécialisées conçues à l&rsquo;époque ont été supplantées par les progrès rapides des ordinateurs standard (les « stations de travail » de Sun, puis les micro-ordinateurs, etc.)</p>



<p>A l&rsquo;opposé, les thèses de doctorat que je surveillais seulement d&rsquo;un œil curieux mais distrait sont devenues les bases du « Machine Learning ». En partant de quelques « neurones », nous sommes arrivés à des solutions (qui utilisent une considérable puissance de calcul) et l&rsquo;on ne parle plus que de ML.</p>



<span id="more-11341"></span>



<p>C&rsquo;est alors que ces derniers mois arrivent dans le grand public ces solutions ML avec lesquelles chacun peut jouer. Dall-E et MidJourney ont par exemple apporté une extraordinaire capacité à produire des images à partir d&rsquo;une description textuelle. <a href="https://danielmiessler.com/blog/battle-of-the-ai-art-engines-midjourney-vs-dall-e/">Si vous êtes artiste ou créateur graphique</a>, vous ne pouvez plus les ignorer dans votre vie professionnelle. C&rsquo;est fascinant.</p>



<p>La prochaine étape : une IA qui soit capable de discuter utilement avec un être humain (le fameux <a href="https://fr.wikipedia.org/wiki/Test_de_Turing">test de Turing</a>). La technologie n&rsquo;en est plus très éloignée depuis que nous pouvons jouer avec ChatGPT.</p>



<p>Un ami amateur de jeux de mots avait rédigé cette petite plaisanterie <a href="https://topsucre.blogspot.com/2022/09/blanche-neige-inconsolable.html?m=1">sur son blog</a>:</p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>Blanche-Neige inconsolable ; le Prince charmant qui lui dédiait des messages sur Facebook n&rsquo;était qu&rsquo;un nain posteur.</p>
<cite><a href="https://topsucre.blogspot.com/2022/09/blanche-neige-inconsolable.html?m=1">https://topsucre.blogspot.com/2022/09/blanche-neige-inconsolable.html?m=1</a></cite></blockquote>



<p>N&rsquo;importe quel francophone reconnaîtra un trait d&rsquo;humour qui semblait hors de portée des programmes d&rsquo;Intelligence Artificielle. Jusqu&rsquo;ici&#8230; Mais que se passe-t-il quand on soumet ce sujet à ChatGPT ? Je vous laisse découvrir ce qui m&rsquo;a assurément surpris :</p>



<figure class="wp-block-image size-large"><img fetchpriority="high" decoding="async" width="600" height="452" src="https://www.roumazeilles.net/news/fr/wordpress/wp-content/uploads/2022/12/ChatGPT-600x452.webp" alt="" class="wp-image-11344" srcset="https://www.roumazeilles.net/news/fr/wordpress/wp-content/uploads/2022/12/ChatGPT-600x452.webp 600w, https://www.roumazeilles.net/news/fr/wordpress/wp-content/uploads/2022/12/ChatGPT-300x226.webp 300w, https://www.roumazeilles.net/news/fr/wordpress/wp-content/uploads/2022/12/ChatGPT-150x113.webp 150w, https://www.roumazeilles.net/news/fr/wordpress/wp-content/uploads/2022/12/ChatGPT-400x301.webp 400w, https://www.roumazeilles.net/news/fr/wordpress/wp-content/uploads/2022/12/ChatGPT.webp 736w" sizes="(max-width: 600px) 100vw, 600px" /></figure>



<p>La première réponse ne laisse pas de surprendre par la profondeur des données utilisées (et bien utilisées) pour réagir et répondre à la question. Bien entendu, l&rsquo;IA construit une réponse sur la base de « statistiques » sur ce qui doit être la réponse et la construction la plus probable d&rsquo;une telle réponse dans le contexte. Mais la deuxième question apporte aussi son lot de surprises, n&rsquo;est-ce pas ?</p>



<p>Quelques unes des nombreuses conséquences de ce nouvel état des choses :</p>



<ul class="wp-block-list">
<li>Il devient enfantin de créer une multitude de sites web qui auraient parfaitement l&rsquo;air d&rsquo;être originaux en n&rsquo;étant que des copies (certainement pas des pales copies) de ce qui se trouve sur le web à propos d&rsquo;un sujet donné. <a href="https://nypost.com/2022/12/06/scary-chatgpt-could-render-google-obsolete-in-two-years/">[New York Post]</a></li>



<li>Certains sont tentés de croire que cela dénote l&rsquo;émergence d&rsquo;une véritable conscience, d&rsquo;une intelligence au sens le plus large du terme. <a href="https://www.courrierinternational.com/article/intelligence-artificielle-google-renvoie-l-ingenieur-qui-disait-que-son-ia-etait-douee-de-conscience">[Courrier International]</a></li>



<li>Certains profs vont avoir du mal à détecter <a href="https://fr.u-paris.fr/charte-anti-plagiat">le plagiat dans certaines copies de fac</a>. Il ne suffira plus de mettre des morceaux de la copie douteuse dans Google Search. Les étudiants pourront peut-être bientôt produire des papiers complets sur un sujet donné.</li>



<li>Des outils comme CoPilot permettent déjà à des programmeurs de « générer du code » à partir de presque rien (le nom d&rsquo;une fonction, le commentaire qui décrit la fonction). On connaissait les programmes qui complétaient le code déjà écrit. Mais on arrive à des choses étonnantes, plus étendues que chercher des exemples de code sur StackOverflow pour les copier dans VisualStudio <a href="https://medium.com/@sushrit.pk21/chatgpt-copilot-and-the-future-of-coding-interviews-a-technical-founders-perspective-8628c7102a9b">[Medium]</a></li>



<li>Certains auteurs peuvent se faire du mouron. Je pense dès maintenant à :
<ul class="wp-block-list">
<li>Les auteurs de <em>romans à l&rsquo;eau de rose</em> déjà produits au kilomètre, sur un cahier des charges très détaillé.</li>



<li>Les clercs de notaire ou les assistants d&rsquo;avocat qui vont voir la production de documents déjà stéréotypés passer entre d&rsquo;autres mains.</li>



<li>Et pourquoi pas les rédacteurs de blagues et de sketches humoristiques dans quelques années (ou quelques mois).</li>
</ul>
</li>
</ul>



<p>Je ne m&rsquo;étends pas sur les erreurs, les ratés, les biais et les horreurs qui sortent parfois de la bouche (ou du terminal) de ChatGPT (et d&rsquo;autres). Il y a encore bien du chemin à faire. Mais la technologie avance à grand pas.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.roumazeilles.net/news/fr/wordpress/2022/12/12/progres-en-intelligence-artificielle/feed/</wfw:commentRss>
			<slash:comments>3</slash:comments>
		
		
			</item>
	</channel>
</rss>
