<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	
	>
<channel>
	<title>
	Commentaires sur : ChatGPT lance un abonnement Pro à 200 dollars par mois!	</title>
	<atom:link href="https://www.xavierstuder.com/2024/12/chatgpt-lance-un-abonnement-pro-a-200-dollars-par-mois/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.xavierstuder.com/2024/12/chatgpt-lance-un-abonnement-pro-a-200-dollars-par-mois/</link>
	<description>Télécoms, smartphones, IA et multimédia en Suisse et dans le monde...</description>
	<lastBuildDate>Sun, 08 Dec 2024 14:52:48 +0000</lastBuildDate>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	
	<item>
		<title>
		Par : Cédric		</title>
		<link>https://www.xavierstuder.com/2024/12/chatgpt-lance-un-abonnement-pro-a-200-dollars-par-mois/#comment-124541</link>

		<dc:creator><![CDATA[Cédric]]></dc:creator>
		<pubDate>Sun, 08 Dec 2024 14:52:48 +0000</pubDate>
		<guid isPermaLink="false">https://www.xavierstuder.com/?p=62507#comment-124541</guid>

					<description><![CDATA[Oui je suis informaticien, pour ma machine à inférence (elle est modeste) j&#8217;ai acheté d&#8217;occasion un dell i7 32Gb de ram avec disque nve et une carte nvidia quadro p5000 de 16Go que j&#8217;avais payé 750.- (la machine à 6 ans). J&#8217;ai acheté une autre carte nvidia quadro p5000 (attention si on ajoute une carte gpu il faut prendre la même).
Donc la je tourne sur 32Go de nvram.
Mes gpu sont limite pour certain modèle, je fait dans les 26 token/s avec llama 3.2 11b et du 12 token/s avec codestral 22b.
Le vieux modèle mixtral 8x7b tournait avec du 24token/s.
Par contre llama 3.1 70b lui il tourne à 4 token/s.
avec flux 1 dev il faut compter 5min pour générer une image en 1024&#215;1024 contre 1min30 sur sdxl.
Après open webui est façile à installer c&#8217;est le configurer qui prend plus de temps mais c&#8217;est de la folie, on se fait ses assistants (ses gpt) et on peux changer le modèle qui est derrière si on est pas contant (on peux passer par exemple de gpt04 à claude 3.5 sonnet en un clic)
On peux installer des tools qui sont appeler par le modèle (lire une page web, faire une recherche web ou un appel sur une api) on peux avoir des collections de fichiers qu&#8217;on peux appeler pour faire du rag. On peux ajouter des fonctions  diverses qui vont modifier les appels. Et nous avons les pipes qui permettent d&#8217;avoir tout un processus de différente requête (on peux chainer des llm).
La limite c&#8217;est l&#8217;imagination et la connaissance de python.
voici la doc &lt;a href=&quot;https://docs.openwebui.com/&quot; rel=&quot;nofollow ugc&quot;&gt;https://docs.openwebui.com/&lt;/a&gt;
]]></description>
			<content:encoded><![CDATA[<p>Oui je suis informaticien, pour ma machine à inférence (elle est modeste) j&rsquo;ai acheté d&rsquo;occasion un dell i7 32Gb de ram avec disque nve et une carte nvidia quadro p5000 de 16Go que j&rsquo;avais payé 750.- (la machine à 6 ans). J&rsquo;ai acheté une autre carte nvidia quadro p5000 (attention si on ajoute une carte gpu il faut prendre la même).<br />
Donc la je tourne sur 32Go de nvram.<br />
Mes gpu sont limite pour certain modèle, je fait dans les 26 token/s avec llama 3.2 11b et du 12 token/s avec codestral 22b.<br />
Le vieux modèle mixtral 8x7b tournait avec du 24token/s.<br />
Par contre llama 3.1 70b lui il tourne à 4 token/s.<br />
avec flux 1 dev il faut compter 5min pour générer une image en 1024&#215;1024 contre 1min30 sur sdxl.<br />
Après open webui est façile à installer c&rsquo;est le configurer qui prend plus de temps mais c&rsquo;est de la folie, on se fait ses assistants (ses gpt) et on peux changer le modèle qui est derrière si on est pas contant (on peux passer par exemple de gpt04 à claude 3.5 sonnet en un clic)<br />
On peux installer des tools qui sont appeler par le modèle (lire une page web, faire une recherche web ou un appel sur une api) on peux avoir des collections de fichiers qu&rsquo;on peux appeler pour faire du rag. On peux ajouter des fonctions  diverses qui vont modifier les appels. Et nous avons les pipes qui permettent d&rsquo;avoir tout un processus de différente requête (on peux chainer des llm).<br />
La limite c&rsquo;est l&rsquo;imagination et la connaissance de python.<br />
voici la doc <a href="https://docs.openwebui.com/" rel="nofollow ugc">https://docs.openwebui.com/</a></p>
]]></content:encoded>
		
			</item>
		<item>
		<title>
		Par : Mario		</title>
		<link>https://www.xavierstuder.com/2024/12/chatgpt-lance-un-abonnement-pro-a-200-dollars-par-mois/#comment-124517</link>

		<dc:creator><![CDATA[Mario]]></dc:creator>
		<pubDate>Sat, 07 Dec 2024 13:45:31 +0000</pubDate>
		<guid isPermaLink="false">https://www.xavierstuder.com/?p=62507#comment-124517</guid>

					<description><![CDATA[Respect! Tu es un virtuose! Es-tu informaticien? Combien te coute ton matériel?]]></description>
			<content:encoded><![CDATA[<p>Respect! Tu es un virtuose! Es-tu informaticien? Combien te coute ton matériel?</p>
]]></content:encoded>
		
			</item>
		<item>
		<title>
		Par : redge		</title>
		<link>https://www.xavierstuder.com/2024/12/chatgpt-lance-un-abonnement-pro-a-200-dollars-par-mois/#comment-124513</link>

		<dc:creator><![CDATA[redge]]></dc:creator>
		<pubDate>Sat, 07 Dec 2024 08:07:29 +0000</pubDate>
		<guid isPermaLink="false">https://www.xavierstuder.com/?p=62507#comment-124513</guid>

					<description><![CDATA[Je ne sais pas quel est la speudo IA LLM chez Swisscom community, mais le résultat est déplorable pour des choses on ne peux plus élémentaire.
Dans ce cadre là, impossible de faire confiance à l&#039;IA qui est, pour la traduction ultra simple, incapable de traduire correctement de l&#039;allemand en français.
Langue reconnue comme source néerlandais (alors que la langue source est l&#039;allemand. M&#039;enfin comme dirait Gaston.

Néamoins, l&#039;idée est très bonne que je salue, hormis la qualité de traduction qui peux faire dire le contraire ou complètement déformer la source et prêter à confusion.
Une seule langue parmi les 4 et traduit automatiquement tout le contenu du texte dans votre langue sélectionnée à choix à la volée. Bluffant.
https://community.swisscom.ch/]]></description>
			<content:encoded><![CDATA[<p>Je ne sais pas quel est la speudo IA LLM chez Swisscom community, mais le résultat est déplorable pour des choses on ne peux plus élémentaire.<br />
Dans ce cadre là, impossible de faire confiance à l&rsquo;IA qui est, pour la traduction ultra simple, incapable de traduire correctement de l&rsquo;allemand en français.<br />
Langue reconnue comme source néerlandais (alors que la langue source est l&rsquo;allemand. M&rsquo;enfin comme dirait Gaston.</p>
<p>Néamoins, l&rsquo;idée est très bonne que je salue, hormis la qualité de traduction qui peux faire dire le contraire ou complètement déformer la source et prêter à confusion.<br />
Une seule langue parmi les 4 et traduit automatiquement tout le contenu du texte dans votre langue sélectionnée à choix à la volée. Bluffant.<br />
<a href="https://community.swisscom.ch/" rel="nofollow ugc">https://community.swisscom.ch/</a></p>
]]></content:encoded>
		
			</item>
		<item>
		<title>
		Par : Cédric		</title>
		<link>https://www.xavierstuder.com/2024/12/chatgpt-lance-un-abonnement-pro-a-200-dollars-par-mois/#comment-124512</link>

		<dc:creator><![CDATA[Cédric]]></dc:creator>
		<pubDate>Sat, 07 Dec 2024 06:36:34 +0000</pubDate>
		<guid isPermaLink="false">https://www.xavierstuder.com/?p=62507#comment-124512</guid>

					<description><![CDATA[profile
mistral-large-2411 7:34 am
Voici le texte corrigé : 
C&#8217;est très cher comme abonnement, mais peut-être qu&#8217;ils sont rentables sous cette forme, ce qui permet d&#8217;éviter la pub sur les comptes gratuits. 
Moi, je fais tourner une instance d&#8217;Open WebUI (une interface unifiée qui permet de se connecter aux API de plein de modèles, y compris OpenAI et Anthropic). J&#8217;utilise essentiellement les API de Together AI, Mistral, OpenAI et Anthropic, et je le connecte aussi à mon serveur d&#8217;inférence qui fait tourner Ollama. 
L&#8217;avantage, c&#8217;est que je ne paye que ce que je consomme, et je suis un grand utilisateur (débogage, synthèse de doc, traduction, correction de texte). Cela me coûte au maximum 2$ par mois. 
Et l&#8217;avantage, c&#8217;est que j&#8217;ai accès à Claude 3.5, la famille des OpenAI (o1 et o1 pro ne sont pas encore disponibles, mais j&#8217;ai o1 preview et o1 mini), Mistral Large, Pixtral Large, Codeastral, QWP (le concurrent de o1 d&#8217;Alibaba), les Llama 3.1 et 3.2 (via Together, ils sont bon marché). 
En local, quand je lance mon serveur (il me coûte cher en électricité), j&#8217;ai dessus Llama 3.2 11b, Llama 3.1 70b q3, Mixtral 8x7b, Codeastral et QWP. 
Certes, il faut connaître Docker et le monde de Linux pour faire tourner Open WebUI (quoi qu&#8217;il soit aussi sur le projet Pinokio). Mais c&#8217;est mon métier, Linux. 
Ah, et pour ceux qui veulent tester, avec Groq, vous pouvez utiliser leur API gratuitement, ainsi que demander un essai gratuit chez Mistral. 
P.S. : Ce message a été corrigé par Mistral-Large.
]]></description>
			<content:encoded><![CDATA[<p>profile<br />
mistral-large-2411 7:34 am<br />
Voici le texte corrigé :<br />
C&rsquo;est très cher comme abonnement, mais peut-être qu&rsquo;ils sont rentables sous cette forme, ce qui permet d&rsquo;éviter la pub sur les comptes gratuits.<br />
Moi, je fais tourner une instance d&rsquo;Open WebUI (une interface unifiée qui permet de se connecter aux API de plein de modèles, y compris OpenAI et Anthropic). J&rsquo;utilise essentiellement les API de Together AI, Mistral, OpenAI et Anthropic, et je le connecte aussi à mon serveur d&rsquo;inférence qui fait tourner Ollama.<br />
L&rsquo;avantage, c&rsquo;est que je ne paye que ce que je consomme, et je suis un grand utilisateur (débogage, synthèse de doc, traduction, correction de texte). Cela me coûte au maximum 2$ par mois.<br />
Et l&rsquo;avantage, c&rsquo;est que j&rsquo;ai accès à Claude 3.5, la famille des OpenAI (o1 et o1 pro ne sont pas encore disponibles, mais j&rsquo;ai o1 preview et o1 mini), Mistral Large, Pixtral Large, Codeastral, QWP (le concurrent de o1 d&rsquo;Alibaba), les Llama 3.1 et 3.2 (via Together, ils sont bon marché).<br />
En local, quand je lance mon serveur (il me coûte cher en électricité), j&rsquo;ai dessus Llama 3.2 11b, Llama 3.1 70b q3, Mixtral 8x7b, Codeastral et QWP.<br />
Certes, il faut connaître Docker et le monde de Linux pour faire tourner Open WebUI (quoi qu&rsquo;il soit aussi sur le projet Pinokio). Mais c&rsquo;est mon métier, Linux.<br />
Ah, et pour ceux qui veulent tester, avec Groq, vous pouvez utiliser leur API gratuitement, ainsi que demander un essai gratuit chez Mistral.<br />
P.S. : Ce message a été corrigé par Mistral-Large.</p>
]]></content:encoded>
		
			</item>
	</channel>
</rss>
