<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	
	>
<channel>
	<title>
	Commentaires sur : Swisscom lance une plate-forme pour le développement d’IA	</title>
	<atom:link href="https://www.xavierstuder.com/2024/06/swisscom-lance-une-plate-forme-pour-le-developpement-dia/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.xavierstuder.com/2024/06/swisscom-lance-une-plate-forme-pour-le-developpement-dia/</link>
	<description>Télécoms, smartphones, IA et multimédia en Suisse et dans le monde...</description>
	<lastBuildDate>Sun, 09 Jun 2024 17:23:04 +0000</lastBuildDate>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	
	<item>
		<title>
		Par : Sen		</title>
		<link>https://www.xavierstuder.com/2024/06/swisscom-lance-une-plate-forme-pour-le-developpement-dia/#comment-121629</link>

		<dc:creator><![CDATA[Sen]]></dc:creator>
		<pubDate>Sun, 09 Jun 2024 17:23:04 +0000</pubDate>
		<guid isPermaLink="false">https://www.xavierstuder.com/?p=60259#comment-121629</guid>

					<description><![CDATA[En réponse à &lt;a href=&quot;https://www.xavierstuder.com/2024/06/swisscom-lance-une-plate-forme-pour-le-developpement-dia/#comment-121612&quot;&gt;Cédric&lt;/a&gt;.

J&#039;adore]]></description>
			<content:encoded><![CDATA[<p>En réponse à <a href="https://www.xavierstuder.com/2024/06/swisscom-lance-une-plate-forme-pour-le-developpement-dia/#comment-121612">Cédric</a>.</p>
<p>J&rsquo;adore</p>
]]></content:encoded>
		
			</item>
		<item>
		<title>
		Par : Sen		</title>
		<link>https://www.xavierstuder.com/2024/06/swisscom-lance-une-plate-forme-pour-le-developpement-dia/#comment-121613</link>

		<dc:creator><![CDATA[Sen]]></dc:creator>
		<pubDate>Sat, 08 Jun 2024 14:09:14 +0000</pubDate>
		<guid isPermaLink="false">https://www.xavierstuder.com/?p=60259#comment-121613</guid>

					<description><![CDATA[En réponse à &lt;a href=&quot;https://www.xavierstuder.com/2024/06/swisscom-lance-une-plate-forme-pour-le-developpement-dia/#comment-121605&quot;&gt;Cricri&lt;/a&gt;.

L’algo de chatGPT est basé sur un réseau de neurones…. tu voudrais savoir quoi de plus ? Le nombre de paramètres utilisés ? le degré d’entropie ? le fonctionnement de la rétro-propagation du gradient ? Les sources de données utilisées pour générer les réponses ?
La théorie des réseaux de neurones est disponible gratuitement sur internet si tu souhaites comprendre comment ca fonctionne. Après il faut bien comprendre que business is business, et que un algo IA (bugé jusqu’au trognon) peut tomber dans les trades secrets de la stratégie IP de l’entreprise. Microsoft a investi 10 milliards sur le développement de chatGPT, tu te doutes bien qu’ils ne vont pas en faire un livre blanc qui expliquent précisément comment fonctionne leur algo ?
D’ailleurs, à ce jour, tu noteras que l’algo du moteur de recherche de Google, ou l’algo de choix des vidéos sur TikTok ou instagram est à ce jour en partie confidentiel. Tu noteras aussi que le communiqué de Swisscom ne donne pas beaucoup de précision sur le fonctionnement de leur IA générative promise pour l’automne 2024. Ce qui au passage pourrait en faire un chatgpt 100% suisse. Et avec des cartes Nvidia à 30’000$ l’unité, je n’imagine pas Swisscom faire preuve de plus de transparence que OpenAI.]]></description>
			<content:encoded><![CDATA[<p>En réponse à <a href="https://www.xavierstuder.com/2024/06/swisscom-lance-une-plate-forme-pour-le-developpement-dia/#comment-121605">Cricri</a>.</p>
<p>L’algo de chatGPT est basé sur un réseau de neurones…. tu voudrais savoir quoi de plus ? Le nombre de paramètres utilisés ? le degré d’entropie ? le fonctionnement de la rétro-propagation du gradient ? Les sources de données utilisées pour générer les réponses ?<br />
La théorie des réseaux de neurones est disponible gratuitement sur internet si tu souhaites comprendre comment ca fonctionne. Après il faut bien comprendre que business is business, et que un algo IA (bugé jusqu’au trognon) peut tomber dans les trades secrets de la stratégie IP de l’entreprise. Microsoft a investi 10 milliards sur le développement de chatGPT, tu te doutes bien qu’ils ne vont pas en faire un livre blanc qui expliquent précisément comment fonctionne leur algo ?<br />
D’ailleurs, à ce jour, tu noteras que l’algo du moteur de recherche de Google, ou l’algo de choix des vidéos sur TikTok ou instagram est à ce jour en partie confidentiel. Tu noteras aussi que le communiqué de Swisscom ne donne pas beaucoup de précision sur le fonctionnement de leur IA générative promise pour l’automne 2024. Ce qui au passage pourrait en faire un chatgpt 100% suisse. Et avec des cartes Nvidia à 30’000$ l’unité, je n’imagine pas Swisscom faire preuve de plus de transparence que OpenAI.</p>
]]></content:encoded>
		
			</item>
		<item>
		<title>
		Par : Cédric		</title>
		<link>https://www.xavierstuder.com/2024/06/swisscom-lance-une-plate-forme-pour-le-developpement-dia/#comment-121612</link>

		<dc:creator><![CDATA[Cédric]]></dc:creator>
		<pubDate>Sat, 08 Jun 2024 13:35:49 +0000</pubDate>
		<guid isPermaLink="false">https://www.xavierstuder.com/?p=60259#comment-121612</guid>

					<description><![CDATA[Voici une version corrigée et révisée de votre texte :

C’est possible de faire fonctionner ces outils (LM Studio, Chat4All, Jan…) sur votre machine, à condition qu’elle dispose d’une carte graphique Nvidia avec une quantité suffisante de mémoire ou d’un Mac équipé d’une puce Apple Silicon.

Personnellement, j’ai une machine Dell dans mon sous-sol, dotée de 32 Go de RAM et de deux cartes graphiques Nvidia Quadro P5000. J’ai acheté l’ensemble d’occasion sur Riccardo et eBay pour environ 800 CHF.

Sur cette machine, je fais tourner Ollama en utilisant le modèle Mixtral 8x7b quantifié en 4 bits (j’ai 16 Go de RAM par carte). Avec ce modèle, j’obtiens une inférence à 24 tokens par seconde. Si vous ne disposez pas de suffisamment de mémoire, vous pouvez utiliser Mixtral 8x7b quantifié en 2 bits pour le faire fonctionner sur une seule carte, auquel cas la vitesse d’inférence est de 12 tokens par seconde.

Après avoir testé plusieurs modèles, je trouve que le modèle Mixtral 8x7b offre le meilleur compromis entre les ressources nécessaires et la qualité des inférences, et il est comparable à un ChatPGPT 3.5 de l’automne dernier.

Je parviens également à faire fonctionner LLAMA3 70b quantifié sur 2 bits, mais cela est beaucoup plus lent (3,75 tokens par seconde). Bien entendu, LLAMA 3:8b fonctionne également (25 tokens par seconde), mais il est beaucoup plus limité que son grand frère.

Il convient de noter que la consommation d’électricité est un facteur à prendre en compte : une inférence consomme environ 200 watts (après quoi la consommation redescend).

Pour ce qui est des options entièrement européennes, il y a https://chat.mistral.ai/chat de l’entreprise française Mistral AI.]]></description>
			<content:encoded><![CDATA[<p>Voici une version corrigée et révisée de votre texte :</p>
<p>C’est possible de faire fonctionner ces outils (LM Studio, Chat4All, Jan…) sur votre machine, à condition qu’elle dispose d’une carte graphique Nvidia avec une quantité suffisante de mémoire ou d’un Mac équipé d’une puce Apple Silicon.</p>
<p>Personnellement, j’ai une machine Dell dans mon sous-sol, dotée de 32 Go de RAM et de deux cartes graphiques Nvidia Quadro P5000. J’ai acheté l’ensemble d’occasion sur Riccardo et eBay pour environ 800 CHF.</p>
<p>Sur cette machine, je fais tourner Ollama en utilisant le modèle Mixtral 8x7b quantifié en 4 bits (j’ai 16 Go de RAM par carte). Avec ce modèle, j’obtiens une inférence à 24 tokens par seconde. Si vous ne disposez pas de suffisamment de mémoire, vous pouvez utiliser Mixtral 8x7b quantifié en 2 bits pour le faire fonctionner sur une seule carte, auquel cas la vitesse d’inférence est de 12 tokens par seconde.</p>
<p>Après avoir testé plusieurs modèles, je trouve que le modèle Mixtral 8x7b offre le meilleur compromis entre les ressources nécessaires et la qualité des inférences, et il est comparable à un ChatPGPT 3.5 de l’automne dernier.</p>
<p>Je parviens également à faire fonctionner LLAMA3 70b quantifié sur 2 bits, mais cela est beaucoup plus lent (3,75 tokens par seconde). Bien entendu, LLAMA 3:8b fonctionne également (25 tokens par seconde), mais il est beaucoup plus limité que son grand frère.</p>
<p>Il convient de noter que la consommation d’électricité est un facteur à prendre en compte : une inférence consomme environ 200 watts (après quoi la consommation redescend).</p>
<p>Pour ce qui est des options entièrement européennes, il y a <a href="https://chat.mistral.ai/chat" rel="nofollow ugc">https://chat.mistral.ai/chat</a> de l’entreprise française Mistral AI.</p>
]]></content:encoded>
		
			</item>
		<item>
		<title>
		Par : Cricri		</title>
		<link>https://www.xavierstuder.com/2024/06/swisscom-lance-une-plate-forme-pour-le-developpement-dia/#comment-121605</link>

		<dc:creator><![CDATA[Cricri]]></dc:creator>
		<pubDate>Sat, 08 Jun 2024 08:45:27 +0000</pubDate>
		<guid isPermaLink="false">https://www.xavierstuder.com/?p=60259#comment-121605</guid>

					<description><![CDATA[Ce qu&#039;il faudrait c&#039;est un chatgpt 100% suisse ou européen dont on sait comment fonctionne les algos!]]></description>
			<content:encoded><![CDATA[<p>Ce qu&rsquo;il faudrait c&rsquo;est un chatgpt 100% suisse ou européen dont on sait comment fonctionne les algos!</p>
]]></content:encoded>
		
			</item>
	</channel>
</rss>
