<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	
	>
<channel>
	<title>
	Commentaires sur : Infomaniak lance une IA «as a service» pour les entreprises	</title>
	<atom:link href="https://www.xavierstuder.com/2024/02/infomaniak-lance-une-ia-as-a-service-pour-les-entreprises/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.xavierstuder.com/2024/02/infomaniak-lance-une-ia-as-a-service-pour-les-entreprises/</link>
	<description>Télécoms, smartphones, IA et multimédia en Suisse et dans le monde...</description>
	<lastBuildDate>Tue, 13 Feb 2024 14:47:23 +0000</lastBuildDate>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	
	<item>
		<title>
		Par : Olivier		</title>
		<link>https://www.xavierstuder.com/2024/02/infomaniak-lance-une-ia-as-a-service-pour-les-entreprises/#comment-120152</link>

		<dc:creator><![CDATA[Olivier]]></dc:creator>
		<pubDate>Tue, 13 Feb 2024 14:47:23 +0000</pubDate>
		<guid isPermaLink="false">https://www.xavierstuder.com/?p=58877#comment-120152</guid>

					<description><![CDATA[Je viens de tester la solution de LLM d&#039;Infomaniak et je suis impressionné par ses potentialités https://olivierleclere.ch/blog/2024/02/ia-generative-souveraine-%E2%80%93-mon-test-de-la-solution-d-infomaniak . Cependant, il me reste à dénicher le prompt adéquat pour obtenir des textes de qualité via leur service basé sur Mixtral.]]></description>
			<content:encoded><![CDATA[<p>Je viens de tester la solution de LLM d&rsquo;Infomaniak et je suis impressionné par ses potentialités <a href="https://olivierleclere.ch/blog/2024/02/ia-generative-souveraine-%E2%80%93-mon-test-de-la-solution-d-infomaniak" rel="nofollow ugc">https://olivierleclere.ch/blog/2024/02/ia-generative-souveraine-%E2%80%93-mon-test-de-la-solution-d-infomaniak</a> . Cependant, il me reste à dénicher le prompt adéquat pour obtenir des textes de qualité via leur service basé sur Mixtral.</p>
]]></content:encoded>
		
			</item>
		<item>
		<title>
		Par : Cédric		</title>
		<link>https://www.xavierstuder.com/2024/02/infomaniak-lance-une-ia-as-a-service-pour-les-entreprises/#comment-120075</link>

		<dc:creator><![CDATA[Cédric]]></dc:creator>
		<pubDate>Wed, 07 Feb 2024 16:07:52 +0000</pubDate>
		<guid isPermaLink="false">https://www.xavierstuder.com/?p=58877#comment-120075</guid>

					<description><![CDATA[c&#039;est Mixtral 8x7b le grand frère de Mistral 7b q4, le modèle en quantification sur 4 bits pèse 26Go (3.6Go pour 7b q4)
Pour le faire tourner et que ça soit potable il faut soit:
un mac avec un cpu silicon et plus de 32Go
un gros processeur  avec beaucoup de ram (j&#039;ai testé sur un bi AMD EPYC 7302 avec tous les coeurs et 64Go de ram (il était dans une vm)) et c&#039;était acceptable (quand même plus rapide que chatgpt 4
j&#039;ai aussi fait le texte sur une carte nvidia quado P5000 avec 16Go de ram (ça allait a la même vitesse que chatgpt4).
La j&#039;attend une carte nvidia tesla m40 avec 24Go de ram acheté d&#039;occasion sur internet pour 117.- dollars, je pense que ça devrait bien aller.
Autrement sur la quadro je fait tourner un ollama avec ollama-ui et des modèles en 7b ou 13b, ça fonctionne bien c&#039;est rapide.

La en ce moment je teste bionic gpt je suis entrain de mettre tous notre catalogue de produit dans une base vectorisé c&#039;est leeennnnt, dans le but de pouvoir parler avec notre catalogue (modèle zéphir)]]></description>
			<content:encoded><![CDATA[<p>c&rsquo;est Mixtral 8x7b le grand frère de Mistral 7b q4, le modèle en quantification sur 4 bits pèse 26Go (3.6Go pour 7b q4)<br />
Pour le faire tourner et que ça soit potable il faut soit:<br />
un mac avec un cpu silicon et plus de 32Go<br />
un gros processeur  avec beaucoup de ram (j&rsquo;ai testé sur un bi AMD EPYC 7302 avec tous les coeurs et 64Go de ram (il était dans une vm)) et c&rsquo;était acceptable (quand même plus rapide que chatgpt 4<br />
j&rsquo;ai aussi fait le texte sur une carte nvidia quado P5000 avec 16Go de ram (ça allait a la même vitesse que chatgpt4).<br />
La j&rsquo;attend une carte nvidia tesla m40 avec 24Go de ram acheté d&rsquo;occasion sur internet pour 117.- dollars, je pense que ça devrait bien aller.<br />
Autrement sur la quadro je fait tourner un ollama avec ollama-ui et des modèles en 7b ou 13b, ça fonctionne bien c&rsquo;est rapide.</p>
<p>La en ce moment je teste bionic gpt je suis entrain de mettre tous notre catalogue de produit dans une base vectorisé c&rsquo;est leeennnnt, dans le but de pouvoir parler avec notre catalogue (modèle zéphir)</p>
]]></content:encoded>
		
			</item>
		<item>
		<title>
		Par : Shinix		</title>
		<link>https://www.xavierstuder.com/2024/02/infomaniak-lance-une-ia-as-a-service-pour-les-entreprises/#comment-120074</link>

		<dc:creator><![CDATA[Shinix]]></dc:creator>
		<pubDate>Wed, 07 Feb 2024 11:53:58 +0000</pubDate>
		<guid isPermaLink="false">https://www.xavierstuder.com/?p=58877#comment-120074</guid>

					<description><![CDATA[Sympa mais il faut voir quelle est le modèle Mistral utilisé. Personnellement j’utilise https://jan.ai/ avec Mistral 7b q4 installé sur mon macbook. ça marche très bien.]]></description>
			<content:encoded><![CDATA[<p>Sympa mais il faut voir quelle est le modèle Mistral utilisé. Personnellement j’utilise <a href="https://jan.ai/" rel="nofollow ugc">https://jan.ai/</a> avec Mistral 7b q4 installé sur mon macbook. ça marche très bien.</p>
]]></content:encoded>
		
			</item>
		<item>
		<title>
		Par : Cédric		</title>
		<link>https://www.xavierstuder.com/2024/02/infomaniak-lance-une-ia-as-a-service-pour-les-entreprises/#comment-120070</link>

		<dc:creator><![CDATA[Cédric]]></dc:creator>
		<pubDate>Wed, 07 Feb 2024 08:46:38 +0000</pubDate>
		<guid isPermaLink="false">https://www.xavierstuder.com/?p=58877#comment-120070</guid>

					<description><![CDATA[En réponse à &lt;a href=&quot;https://www.xavierstuder.com/2024/02/infomaniak-lance-une-ia-as-a-service-pour-les-entreprises/#comment-120069&quot;&gt;Philipp&lt;/a&gt;.

C&#8217;est moins cher (2 centimes par million de tokens en moins) que le prix de Mistral que j&#8217;utilise intensivement, et je suis actuellement à 0,13 € depuis le 1er février. Apparemment, c&#8217;est beaucoup moins cher qu&#8217;OpenAI. Et surtout, toutes les applications qui utilisent l&#8217;API d&#8217;OpenAI peuvent également utiliser la nôtre. Actuellement, je l&#8217;utilise avec ollama-web, car je n&#8217;ai pas encore la puissance de calcul nécessaire pour faire fonctionner Mixtral 8&#215;7 (j&#8217;attends une Nvidia Tesla M40 24 Go d&#8217;occasion). 
bon si c&#8217;est pour utiliser comme on utilise chatgpt il y a &lt;a href=&quot;https://huggingface.co/chat&quot; rel=&quot;nofollow ugc&quot;&gt;https://huggingface.co/chat&lt;/a&gt; qui permet d&#8217;utiliser gratuitement mixtral 8&#215;7 ou llama2 70b par exemple et depuis deux jours on peux utiliser ou créer des &#8220;assistants&#8221; le pendant des gpt de chatgpt4
]]></description>
			<content:encoded><![CDATA[<p>En réponse à <a href="https://www.xavierstuder.com/2024/02/infomaniak-lance-une-ia-as-a-service-pour-les-entreprises/#comment-120069">Philipp</a>.</p>
<p>C&#8217;est moins cher (2 centimes par million de tokens en moins) que le prix de Mistral que j&#8217;utilise intensivement, et je suis actuellement à 0,13 € depuis le 1er février. Apparemment, c&#8217;est beaucoup moins cher qu&#8217;OpenAI. Et surtout, toutes les applications qui utilisent l&#8217;API d&#8217;OpenAI peuvent également utiliser la nôtre. Actuellement, je l&#8217;utilise avec ollama-web, car je n&#8217;ai pas encore la puissance de calcul nécessaire pour faire fonctionner Mixtral 8&#215;7 (j&#8217;attends une Nvidia Tesla M40 24 Go d&#8217;occasion).<br />
bon si c&#8217;est pour utiliser comme on utilise chatgpt il y a <a href="https://huggingface.co/chat" rel="nofollow ugc">https://huggingface.co/chat</a> qui permet d&#8217;utiliser gratuitement mixtral 8&#215;7 ou llama2 70b par exemple et depuis deux jours on peux utiliser ou créer des &#8220;assistants&#8221; le pendant des gpt de chatgpt4</p>
]]></content:encoded>
		
			</item>
		<item>
		<title>
		Par : Philipp		</title>
		<link>https://www.xavierstuder.com/2024/02/infomaniak-lance-une-ia-as-a-service-pour-les-entreprises/#comment-120069</link>

		<dc:creator><![CDATA[Philipp]]></dc:creator>
		<pubDate>Wed, 07 Feb 2024 08:19:11 +0000</pubDate>
		<guid isPermaLink="false">https://www.xavierstuder.com/?p=58877#comment-120069</guid>

					<description><![CDATA[Dommage que le prix ne soit pas forfaitaire.
]]></description>
			<content:encoded><![CDATA[<p>Dommage que le prix ne soit pas forfaitaire.</p>
]]></content:encoded>
		
			</item>
		<item>
		<title>
		Par : koro		</title>
		<link>https://www.xavierstuder.com/2024/02/infomaniak-lance-une-ia-as-a-service-pour-les-entreprises/#comment-120068</link>

		<dc:creator><![CDATA[koro]]></dc:creator>
		<pubDate>Wed, 07 Feb 2024 08:03:26 +0000</pubDate>
		<guid isPermaLink="false">https://www.xavierstuder.com/?p=58877#comment-120068</guid>

					<description><![CDATA[Le terme IA utilisé à toutes les sauces me chiffonne vraiment … ce n’est pas de l’IA. Il est plus juste de parler de LLM (large language model) … car dans le fond ce sont uniquement des modèles entraînés via Machine Learning …]]></description>
			<content:encoded><![CDATA[<p>Le terme IA utilisé à toutes les sauces me chiffonne vraiment … ce n’est pas de l’IA. Il est plus juste de parler de LLM (large language model) … car dans le fond ce sont uniquement des modèles entraînés via Machine Learning …</p>
]]></content:encoded>
		
			</item>
	</channel>
</rss>
