ZTE Corp. accélère sa poussée dans l'intelligence artificielle, dévoilant un nouveau portefeuille d'appareils alimentés par l'IA alors même que l'industrie des télécommunications au sens large s'interroge sur le coût massif de la construction de l'infrastructure nécessaire pour les soutenir. Lors de sa conférence China Eco-partner 2026 à Pékin, la société a lancé une série « grand-moyen-petit » d'ordinateurs en nuage IA et de produits Internet mobiles, visant à construire un écosystème intelligent complet avec l'IA en son cœur. Cette initiative positionne ZTE pour capitaliser sur la demande future en IA, mais elle intervient au milieu d'un débat féroce sur la viabilité à court terme de tels déploiements matériels.
L'argument commercial pour le déploiement de matériel d'IA spécialisé sur les réseaux mobiles est un mélange de gains d'efficacité du réseau et de potentiel de revenus futurs, selon le porte-parole d'Ericsson Peter Linder, responsable du Thought Leadership Americas. Il a noté que la justification repose sur « les coûts, les performances et l'efficacité énergétique prouvés des fonctions réseau, ainsi que sur l'augmentation des revenus provenant de l'inférence distribuée », suggérant que la voie à suivre nécessite plus qu'un simple pari sur un seul cas d'utilisation. La stratégie de ZTE semble s'aligner sur cela, visant une expérience multi-appareils fluide comme base de la croissance future.
Le nouveau portefeuille de ZTE entre sur un marché défini par un dilemme central : les opérateurs télécoms doivent-ils investir des milliards dans l'infrastructure GPU de pointe dès maintenant, ou attendre que les cas d'utilisation de l'IA physique mûrissent ? Un récent rapport d'ABI Research, analysant le concept de grille IA de Nvidia, a modélisé un déploiement national de GPU en toiture pour T-Mobile US pour un coût stupéfiant de 3,7 milliards de dollars. Bien que ZTE n'ait pas divulgué les prix de son nouveau matériel, son approche d'écrans « grand-moyen-petit » suggère une stratégie pour pénétrer plusieurs segments d'un marché dont la viabilité financière fait toujours l'objet d'un examen intense.
Le pari stratégique pour des entreprises comme ZTE est de savoir si les services d'IA actuels peuvent générer suffisamment de revenus pour justifier la construction de l'infrastructure avant que les applications critiques pour la sécurité, comme les véhicules autonomes et les drones de livraison, ne se généralisent. « L'IA vocale, l'intelligence vidéo et les services d'IA d'entreprise sont des cas d'utilisation qui sont déjà là », a déclaré Suman Kanuganti, PDG de Personal AI, dans une récente interview. « Si les véhicules autonomes, les drones, les robots humanoïdes sont proches, le déploiement doit se faire maintenant. » ZTE parie qu'avoir un portefeuille prêt pour ce déploiement lui donnera une longueur d'avance cruciale.
Le débat sur la latence et la question à un milliard de dollars
L'un des principaux arguments en faveur du déploiement de matériel d'IA à la périphérie du réseau est la réduction de la latence, mais une analyse récente suggère que l'argument n'est pas tranché pour les applications d'IA les plus courantes aujourd'hui. Pour les chatbots d'IA générative, la métrique critique du temps jusqu'au premier jeton (TTFT) est dominée par des tâches lourdes en calcul comme le décodage de jetons, et non par le temps de trajet sur le réseau, selon ABI Research. Cela signifie que pour de nombreuses interactions d'IA destinées aux consommateurs, le rapprochement des serveurs de l'utilisateur n'apporte que des avantages négligeables, car la latence de calcul l'emporte sur les économies de réseau.
Cette réalité technique présente un obstacle financier important. ABI Research a conclu qu'un déploiement national large de serveurs de périphérie n'est pas viable financièrement au cours des deux à trois prochaines années en raison de l'économie unitaire difficile, en particulier sur les sites cellulaires. Leur modèle, qui prévoyait un coût cumulé de 3,7 milliards de dollars pour que T-Mobile modernise ses sites en toiture avec des serveurs Nvidia d'ici 2035, souligne l'ampleur de l'investissement requis. Cela explique pourquoi les premiers acteurs se concentrent sur des emplacements centraux plus concentrés et des installations proches de la périphérie qui disposent déjà d'une alimentation et d'un refroidissement redondants, une approche plus prudente qu'un déploiement à grande échelle jusqu'à la périphérie lointaine.
L'IA physique comme pari à long terme
Si l'argument commercial de l'IA de périphérie pour les applications de chatbot est discutable, elle devient une nécessité architecturale pour l'IA physique. Les systèmes autonomes, des voitures sans conducteur aux robots industriels, nécessitent un traitement quasi instantané que les centres de données en nuage distants ne peuvent pas fournir. ABI Research a offert un exemple frappant : avec une latence de 100 millisecondes, une voiture roulant à 100 km/h est effectivement aveugle pendant 2,8 mètres. Pour les systèmes critiques pour la sécurité, de tels délais sont inacceptables.
C'est le prix à long terme que ZTE et ses concurrents visent. Le problème est le timing. La plupart des applications d'IA physique sont encore à des années d'une adoption massive, ce qui place les opérateurs télécoms dans une position difficile. Investir des milliards dans une grille d'IA distribuée aujourd'hui est un pari sur un futur qui n'est pas encore arrivé. Le lancement par ZTE d'un portefeuille matériel multi-formats peut être considéré comme une démarche stratégique pour ensemencer le marché et se préparer à la convergence éventuelle du matériel d'IA et des applications physiques en temps réel qui définiront l'ère de la 6G.
Cet article est à titre informatif uniquement et ne constitue pas un conseil en investissement.