La startup britannique de puces Fractile a levé 220 millions de dollars lors d'un tour de table de série B pour développer des processeurs spécialisés pour l'inférence de l'IA, signalant un nouveau front dans la bataille pour construire le matériel qui alimente l'intelligence artificielle. Le tour de financement, mené par Factorial Funds, Accel et Founders Fund de Peter Thiel, cible ce que l'entreprise considère comme un goulot d'étranglement clé de l'IA : la vitesse et le coût de génération de réponses à partir de modèles volumineux.
« Ce que nous visons, c'est la rapidité et le faible coût », a déclaré Walter Goodwin, PDG de Fractile, dans une interview. Goodwin, un ingénieur formé à Oxford qui a fondé l'entreprise en 2022, a expliqué qu'à mesure que les modèles d'IA croissent, le temps nécessaire pour déplacer les données entre les processeurs et la mémoire est devenu une contrainte majeure pour la performance.
Ce tour de table donne à Fractile un capital important pour défier un marché dominé par Nvidia Corp. (NVDA). L'argument central de Fractile est d'avoir conçu une puce logique et une architecture mémoire capables de maximiser la bande passante et de réduire les temps de réponse sans s'appuyer sur les deux formes de mémoire les plus courantes dans le matériel d'IA : la mémoire à large bande passante (HBM) ou la mémoire vive statique sur puce (SRAM). L'entreprise a toutefois refusé de fournir des détails techniques spécifiques ou des tests de performance pour son produit.
Cette approche, si elle réussit, pourrait offrir une alternative convaincante sur le marché en plein essor de l'inférence de l'IA — le processus d'exécution de modèles entraînés pour générer des réponses, du texte ou des images. Le besoin d'une inférence plus rapide et plus efficace a créé un cycle d'approvisionnement massif pour le matériel spécialisé, les laboratoires d'IA et les fournisseurs de cloud cherchant à réduire le coût par requête.
Une voie technique divergente
Le fait que Fractile évite la SRAM et la HBM la distingue d'autres challengers bien financés. Cerebras, un concepteur de puces d'IA qui devrait lever jusqu'à 4,8 milliards de dollars lors d'une introduction en bourse très attendue cette semaine, utilise de grandes quantités de SRAM sur puce pour offrir des temps de réponse plus rapides, selon l'analyse de Morningstar. En poursuivant une architecture mémoire différente, Fractile parie qu'elle peut trouver une solution plus évolutive ou plus rentable au problème du goulot d'étranglement des données.
Le paysage concurrentiel est féroce et en pleine expansion. Au-delà des GPU dominants de Nvidia, les grands fournisseurs de cloud comme Google (GOOGL) et Amazon (AMZN) ont développé leurs propres processeurs spécifiques à l'inférence. Dans le même temps, les tensions géopolitiques et les restrictions d'exportation américaines sur les puces haut de gamme vers la Chine ont créé une incitation mondiale pour les clients à diversifier leurs chaînes d'approvisionnement et à explorer des alternatives à un fournisseur unique dominant. Cet environnement offre un vent favorable potentiel pour les nouveaux entrants comme Fractile qui peuvent démontrer un avantage significatif en termes de prix ou de performance.
L'investissement de 220 millions de dollars dans Fractile, couplé à la valorisation de près de 50 milliards de dollars que Cerebras recherche lors de son introduction en bourse, montre l'appétit robuste et continu des investisseurs pour les entreprises de matériel s'attaquant au défi de l'inférence de l'IA. Bien que Fractile reste une entreprise privée en phase de démarrage, ses progrès seront surveillés de près. Une alternative rentable et éprouvée aux solutions de mémoire actuelles pourrait avoir un impact significatif sur les positions concurrentielles et les marges des géants établis des semi-conducteurs comme Nvidia et AMD, tout en influençant les décisions d'achat de matériel de plusieurs milliards de dollars des principaux développeurs d'IA.
Cet article est à titre informatif uniquement et ne constitue pas un conseil en investissement.