Job Description
The MTIA (Meta Training & Inference Accelerator) Software team is part of the AI & Compute Foundation org. The team’s mission is to explore, develop and help productize high-performance software and hardware technologies for AI at datacenter scale. The team co-optimizes both SW (e.g., algorithms and numerics) and HW (e.g., platform and network) to come up with balanced system design. To develop new systems, requires understanding performance bottlenecks on existing systems. As a result, the team invests significantly into optimizing AI production models on existing systems. This has resulted in TCO wins for all key AI services.
The team has been developing AI frameworks to accelerate Meta’s DL/ML workloads on the specialized MTIA AI accelerator hardware in a highly performant and flexible way. As part of the AI acceleration software stack, we develop kernel libraries exploiting various hardware architectural features, achieving high performance for our inference and training workloads.
Our team at Meta offers twelve (12) to sixteen (16) weeks long internships and we have various start dates throughout the year.
-------
L’équipe logicielle MTIA (Meta Training & Inference Accelerator) fait partie de l’organisation AI & Compute Foundation. Sa mission est d’explorer, de développer et de contribuer à la mise en production de technologies logicielles et matérielles hautes performances pour l’IA à l’échelle des centres de données. L’équipe co-optimise à la fois le logiciel (p. ex. algorithmes et calcul numérique) et le matériel (p. ex. plateforme et réseau) afin de proposer une conception de système équilibrée. Développer de nouveaux systèmes nécessite de comprendre les goulots d’étranglement des performances des systèmes existants. En conséquence, l’équipe investit considérablement dans l’optimisation des modèles de production d’IA sur les systèmes existants. Cela a permis de réaliser des gains en coût total de possession (CTP) pour tous les services d’IA clés.
L’équipe développe des cadres d’IA pour accélérer les charges de travail DL/ML de Meta sur le matériel spécialisé d’accélération MTIA, de façon hautement performante et flexible. Dans le cadre de la pile logicielle d’accélération en IA, nous développons des bibliothèques de noyaux exploitant diverses caractéristiques architecturales du matériel, atteignant un haut niveau de performance pour nos charges d’inférence et d’entraînement.
Notre équipe chez Meta propose des stages de douze (12) à seize (16) semaines et nous avons différentes dates de début tout au long de l’année.
Interested in this role?
Apply now or save it for later. Get alerts for similar jobs at Meta (Facebook).