Infomaniak innove encore en intégrant une intelligence artificielle (IA) générative souveraine à son offre de services pour les entreprises. Basée sur le modèle open source Mixtral, cette IA est entièrement hébergée en Suisse, garantissant une gestion des données en conformité avec les législations les plus strictes en matière de confidentialité.
L’engagement du Genevois pour un cloud éthique se traduit par le développement de cette IA souveraine, qui respecte non seulement la vie privée, mais aussi l’économie locale et se veut écologique. Cependant, il est important de noter que, comme tous les modèles d’IA, Mixtral peut fournir des informations inexactes.
Des informations traitées en Suisse
Les services cloud d’Infomaniak, y compris cette IA, sont hébergés dans des sites suisses primés pour leur efficacité énergétique. Ces centres de données fonctionnent sans climatisation depuis 2013 et, dans quelques mois, les nouvelles infrastructures revalorisent intégralement l’énergie consommée pour le chauffage.
En maîtrisant de bout en bout ses infrastructures et en développant ses propres solutions, Infomaniak fait un pas important vers une forme d’«autonomie» technologique. Cela permet à l’entreprise de proposer une IA qui n’est pas seulement souveraine, mais aussi adaptée aux besoins spécifiques des entreprises helvétiques.
Pas de conservation de données
Une caractéristique importante de l’IA d’Infomaniak est qu’il ne stocke pas les données sur ses serveurs. Les demandes sont exclusivement traitées en Suisse par l’hébergeur, et aucune donnée n’est traitée ou partagée avec un tiers. Cette approche garantit une excellente protection des données, conformément au cadre légal très protecteur pour les données personnelles en vigueur en Suisse.
Il est également important de noter que l’IA d’Infomaniak n’est pas auto-apprenante. Elle génère du texte en fonction des informations qu’elle a apprises lors de sa formation, mais elle n’a pas la capacité d’apprendre de manière autonome ou de s’adapter à de nouvelles informations au-delà de ce qu’elle a été formée à faire.
Multiples usages en Suisse
Concrètement, l’IA d’Infomaniak peut être utilisée dans diverses applications, comme un assistant de rédaction, à l’image de celui déjà disponible sur KMail d’Infomaniak et l’agent conversationnel kChat. Elle peut aussi être utilisée par des codeurs soucieux de préserver la confidentialité de leurs développements.
L’intégration d’une IA générative souveraine par Infomaniak peut représenter une innovation majeure pour le secteur high-tech et télécom en Suisse. Elle illustre l’engagement de l’entreprise envers un cloud éthique et responsable, tout en offrant aux entreprises une solution puissante et respectueuse de leur souveraineté numérique.
Disponible à la demande sous forme d’API pour les développeurs, le service interprète à son lancement déjà jusqu’à 24’000 mots par prompt, selon Infomaniak qui souligne que le tarif est aussi largement plus compétitif qu’OpenAI si on compare à ChatGPT 3,5 Turbo. La tarification se fait à la demande. Infomaniak offre 1 M de jetons (tokens) au lancement du service. La documentation.
XS avec Perplexity.ai
Le terme IA utilisé à toutes les sauces me chiffonne vraiment … ce n’est pas de l’IA. Il est plus juste de parler de LLM (large language model) … car dans le fond ce sont uniquement des modèles entraînés via Machine Learning …
Dommage que le prix ne soit pas forfaitaire.
C’est moins cher (2 centimes par million de tokens en moins) que le prix de Mistral que j’utilise intensivement, et je suis actuellement à 0,13 € depuis le 1er février. Apparemment, c’est beaucoup moins cher qu’OpenAI. Et surtout, toutes les applications qui utilisent l’API d’OpenAI peuvent également utiliser la nôtre. Actuellement, je l’utilise avec ollama-web, car je n’ai pas encore la puissance de calcul nécessaire pour faire fonctionner Mixtral 8×7 (j’attends une Nvidia Tesla M40 24 Go d’occasion).
bon si c’est pour utiliser comme on utilise chatgpt il y a https://huggingface.co/chat qui permet d’utiliser gratuitement mixtral 8×7 ou llama2 70b par exemple et depuis deux jours on peux utiliser ou créer des “assistants” le pendant des gpt de chatgpt4
Sympa mais il faut voir quelle est le modèle Mistral utilisé. Personnellement j’utilise https://jan.ai/ avec Mistral 7b q4 installé sur mon macbook. ça marche très bien.
c’est Mixtral 8x7b le grand frère de Mistral 7b q4, le modèle en quantification sur 4 bits pèse 26Go (3.6Go pour 7b q4)
Pour le faire tourner et que ça soit potable il faut soit:
un mac avec un cpu silicon et plus de 32Go
un gros processeur avec beaucoup de ram (j’ai testé sur un bi AMD EPYC 7302 avec tous les coeurs et 64Go de ram (il était dans une vm)) et c’était acceptable (quand même plus rapide que chatgpt 4
j’ai aussi fait le texte sur une carte nvidia quado P5000 avec 16Go de ram (ça allait a la même vitesse que chatgpt4).
La j’attend une carte nvidia tesla m40 avec 24Go de ram acheté d’occasion sur internet pour 117.- dollars, je pense que ça devrait bien aller.
Autrement sur la quadro je fait tourner un ollama avec ollama-ui et des modèles en 7b ou 13b, ça fonctionne bien c’est rapide.
La en ce moment je teste bionic gpt je suis entrain de mettre tous notre catalogue de produit dans une base vectorisé c’est leeennnnt, dans le but de pouvoir parler avec notre catalogue (modèle zéphir)
Je viens de tester la solution de LLM d’Infomaniak et je suis impressionné par ses potentialités https://olivierleclere.ch/blog/2024/02/ia-generative-souveraine-%E2%80%93-mon-test-de-la-solution-d-infomaniak . Cependant, il me reste à dénicher le prompt adéquat pour obtenir des textes de qualité via leur service basé sur Mixtral.