Snowflake lance Arctic : le modèle de langage large le plus ouvert pour les entreprises

Snowflake (NYSE: SNOW), l’entreprise du Data Cloud, a présenté Snowflake Arctic, un modèle de langage large (LLM) de dernière génération conçu exclusivement pour être le LLM d’entreprise le plus ouvert du marché. Avec son architecture unique de Mélange d’Experts (MoE), Arctic offre une intelligence de pointe avec une efficacité sans précédent à l’échelle. Il est optimisé pour les charges de travail d’entreprise complexes, surpassant plusieurs benchmarks du secteur dans la génération de code SQL, le suivi des instructions, entre autres. De plus, Snowflake publie les poids d’Arctic sous une licence Apache 2.0 et les détails de la recherche qui a conduit à son entraînement, établissant une nouvelle norme d’ouverture pour la technologie IA d’entreprise. Le LLM Snowflake Arctic fait partie de la famille de modèles Snowflake Arctic, une famille de modèles créée par Snowflake qui inclut également les meilleurs modèles pratiques de texte intégré pour les cas d’utilisation de récupération.

« C’est un moment décisif pour Snowflake, avec notre équipe de recherche en IA qui innove à l’avant-garde de l’IA », dit Sridhar Ramaswamy, PDG de Snowflake. « En offrant une intelligence et une efficacité leaders dans l’industrie de manière vraiment ouverte à la communauté IA, nous étendons les frontières de ce que peut faire l’IA open source. Notre recherche avec Arctic améliorera significativement notre capacité à fournir une IA fiable et efficace à nos clients ».

Arctic marque un jalon avec une collaboration vraiment ouverte et largement disponible

Selon un rapport récent de Forrester, environ 46 % des décideurs en matière d’IA dans des entreprises du monde entier utilisent déjà les LLM open source existants pour adopter l’IA générative comme partie de la stratégie IA de leur organisation1. Avec les données fondamentales de Snowflake pour plus de 9 400 entreprises et organisations à travers le monde2, on habilite tous les utilisateurs à tirer parti de leurs données avec les LLM leaders dans le secteur, tout en leur offrant flexibilité et choix en ce qui concerne les modèles avec lesquels ils travaillent.

Maintenant, avec le lancement d’Arctic, Snowflake offre un modèle puissant et vraiment ouvert avec une licence Apache 2.0 qui permet l’utilisation personnelle, commerciale et de recherche sans restrictions. De plus, Snowflake propose des templates de code et des options flexibles d’inférence et d’entraînement pour que les utilisateurs puissent rapidement commencer à déployer et personnaliser Arctic en utilisant leurs environnements de travail préférés. Parmi eux figurent NVIDIA NIM avec NVIDIA TensorRT-LLM, vLLM et Hugging Face. Pour une utilisation immédiate, Arctic est disponible pour l’inférence sans serveur sur Snowflake Cortex, le service entièrement géré de Snowflake qui offre des solutions de machine learning et d’IA dans le Data Cloud. Il sera également disponible sur Amazon Web Services (AWS), avec d’autres fichiers et catalogues de modèles, qui incluront Hugging Face, Lamini, Microsoft Azure, le catalogue d’API de NVIDIA, Perplexity, Together AI, parmi d’autres.

Arctic fournit une intelligence de pointe avec une haute efficacité des ressources

L’équipe de recherche en IA de Snowflake, composée d’une sélection unique de chercheurs et d’ingénieurs systèmes leaders dans le secteur, a pris moins de trois mois et dépensé environ un huitième du coût de formation des modèles similaires pour construire Arctic. Entraîné en utilisant les instances P5 d’Amazon Elastic Compute Cloud (Amazon EC2), Snowflake établit un nouveau point de référence pour la vitesse à laquelle les modèles d’entreprise ouverts les plus avancés peuvent être formés, ce qui permettra aux utilisateurs de créer des modèles personnalisés rentables à grande échelle.

Dans le cadre de cet effort stratégique, la conception différentiée du MoE d’Arctic améliore à la fois les systèmes de formation et la performance des modèles, avec une composition de données méticuleusement conçue et centrée sur les besoins de l’entreprise. Arctic offre également des résultats de haute qualité, activant 17 des 480 milliards de paramètres à la fois pour atteindre une qualité leader dans le secteur avec une efficacité symbolique sans précédent. Dans une avancée en termes d’efficacité, Arctic active environ 50 pour cent de paramètres en moins que DBRX, et 75 pour cent en moins que Llama 3 70B durant l’inférence ou la formation. De plus, il surpasse les principaux modèles ouverts tels que DBRX, Mixtral-8x7B et d’autres dans le codage (HumanEval+, MBPP+) et la génération de SQL (Spider), tout en offrant des performances leaders en compréhension générale de la langue (MMLU).

Snowflake continue d’accélérer l’innovation en IA pour tous les utilisateurs

Snowflake continue de fournir aux entreprises les données fondamentales et les composants d’IA de pointe dont elles ont besoin pour créer des applications puissantes d’IA et de machine learning avec leurs données d’entreprise. Lorsqu’ils accèdent à Snowflake Cortex, Arctic accélérera la capacité des clients à créer des applications d’IA de niveau production à l’échelle, dans le périmètre de sécurité et de gouvernance du Data Cloud.

En plus du LLM Arctic, la famille de modèles Snowflake Arctic comprend également l’Arctic Intégré récemment annoncé, une famille de modèles de texte intégré de dernière génération disponible pour la communauté open source sous une licence Apache 2.0. La famille de cinq modèles est disponible sur Hugging Face pour une utilisation immédiate et sera bientôt disponible dans le cadre de la fonction intégrée de Snowflake Cortex (en aperçu privé). Ces modèles d’intégration sont optimisés pour offrir des performances de récupération leaders avec environ un tiers de la taille de modèles comparables, fournissant aux organisations une solution puissante et rentable lorsqu’il s’agit de combiner des ensembles de données propres avec des LLM dans le cadre d’une génération augmentée par récupération ou d’un service de recherche sémantique.

Snowflake donne également la priorité à l’accès des clients aux LLM les plus récents et puissants du Data Cloud, y compris les ajout récents des modèles de Reka et Mistral AI. De plus, Snowflake a récemment annoncé l’élargissement de son partenariat avec NVIDIA pour continuer son innovation en IA, en combinant la plateforme accélérée full-stack de NVIDIA avec le Data Cloud de Snowflake pour offrir une combinaison sécurisée et exceptionnelle d’infrastructure et de capacités de calcul pour débloquer la productivité de l’IA. Snowflake Ventures a également investi récemment dans Landing AI, Mistral AI, Reka et d’autres entreprises pour soutenir l’engagement de Snowflake d’aider les clients à créer de la valeur à partir de leurs données d’entreprise avec des LLM et de l’IA.

Commentaires d’experts en IA sur l’annonce

« Snowflake Arctic est prêt à stimuler des résultats significatifs qui élargiront notre partenariat stratégique, en promouvant l’accès à l’IA, la démocratisation et l’innovation pour tous », déclare Yoav Shoham, cofondateur et codirecteur général de AI21 Labs. Nous sommes ravis de voir Snowflake aider les entreprises à tirer parti de la puissance des modèles open source, comme nous l’avons fait avec notre récent lancement de Jamba, le premier modèle de production Transformateur-SSM basé sur Mamba. L’investissement continu de Snowflake en IA est un facteur important dans notre décision de construire dans le Data Cloud, et nous attendons avec impatience de continuer à créer une valeur accrue pour nos clients conjoints. »

« Snowflake et AWS sont convaincus que l’IA générative transformera pratiquement toutes les expériences client que nous connaissons », déclare David Brown, vice-président de Compute and Networking chez AWS. « Avec AWS, Snowflake a pu personnaliser son infrastructure pour accélérer le temps de commercialisation pour la formation de Snowflake Arctic. En utilisant des instances Amazon EC2 P5 avec le système d’entraînement efficace de Snowflake et le codésign de l’architecture du modèle, Snowflake a pu développer et fournir rapidement un nouveau modèle d’entreprise aux clients. Et avec les plans pour que Snowflake Arctic soit disponible sur AWS, les clients auront plus d’options pour tirer parti de la puissante technologie IA pour accélérer leur transformation. »

« Alors que le rythme de l’IA continue de s’accélérer, Snowflake s’est consolidé en tant qu’innovateur en IA avec le lancement de Snowflake Arctic », déclare Shishir Mehrotra, cofondateur et CEO de Coda. « Nos principes d’innovation et de conception sont alignés avec l’approche de vision à long terme de Snowflake en matière d’IA et au-delà, et nous sommes enthousiastes à l’idée d’être un partenaire dans ce parcours de transformation des applications et des flux de travail quotidiens grâce à l’IA ».

« Au cours des derniers mois, il y a eu une vague massive d’IA open source », déclare Clément Delangue, CEO et cofondateur de Hugging Face. « Nous sommes excités de voir que Snowflake contribue significativement avec ce lancement non seulement du modèle avec une licence Apache 2.0, mais aussi avec des détails sur comment il a été formé. Il fournit la transparence et le contrôle nécessaires pour que les entreprises construisent de l’IA et pour que le domaine dans son ensemble ouvre de nouvelles voies. »

« La vision de Lamini est de démocratiser l’IA, en donnant à tout le monde les moyens de construire leur propre super intelligence. Nous croyons que l’avenir de l’IA d’entreprise est de construire sur les fondations de puissants modèles open source et de collaboration ouverte », indique Sharon Zhou, cofondatrice et CEO de Lamini. « Snowflake Arctic est important pour soutenir cet avenir de l’IA. Nous sommes enthousiastes à l’idée de peaufiner et de personnaliser Arctic pour des LLM très précis, en optimisant le contrôle, la sécurité et la résilience à un écosystème dynamique d’IA. »

« Les contributions de la communauté sont essentielles pour débloquer l’innovation en IA et créer de la valeur pour tous », déclare Andrew Ng, CEO de Landing AI. « Le lancement en open source d’Arctic par Snowflake est une étape excitante pour rendre les modèles à la pointe de la technologie disponibles pour que chacun puisse les affiner, les évaluer et innover dessus. »

« Nous sommes ravis d’augmenter les options des clients d’entreprise dans le paysage en évolution rapide de l’IA, en apportant les solides capacités du nouveau modèle LLM Arctic de Snowflake au catalogue de modèles IA de Microsoft Azure », déclare Eric Boyd, vice-président corporatif de l’Azure AI Platform de Microsoft. « Notre collaboration avec Snowflake est un exemple de notre engagement à favoriser l’innovation ouverte et à repousser les limites de ce que l’IA peut réaliser. »

« L’avancement continu – et la compétition saine entre – les modèles d’IA open source est fondamental non seulement pour le succès de Perplexity, mais pour l’avenir de la démocratisation de l’IA générative pour tous », dit Aravind Srinivas, cofondateur et CEO de Perplexity. « Nous attendons avec impatience d’expérimenter avec Snowflake Arctic pour le personnaliser pour notre produit, générant ainsi encore plus de valeur pour nos utilisateurs finaux. »

« Snowflake et Reka se sont engagés à mettre l’IA entre les mains de tous les utilisateurs, indépendamment de leur expérience technique, pour stimuler les résultats commerciaux plus rapidement », indique Dani Yogatama, cofondateur et CEO de Reka. « Avec le lancement de Snowflake Arctic, Snowflake est en train de pousser cette vision en mettant à la portée des utilisateurs des large language models globaux vraiment ouverts. »

« En tant qu’organisation à l’avant-garde de la recherche, des modèles et des ensembles de données d’IA open source, nous sommes ravis d’assister au lancement de Snowflake Arctic », indique Vipul Ved Prakash, cofondateur et CEO de Together AI. « Les avancées dans le paysage de l’IA open source profitent à tout l’écosystème et permettent aux développeurs et chercheurs du monde entier de déployer des modèles d’IA générative impactants ».

Scroll al inicio