Amazon запустила опенсорсный инструмент для оптимизации ML-моделей

28 января 2019, 09:17
Amazon запустила опенсорсный инструмент для оптимизации ML-моделей

AWS — подразделение облачных вычислений Amazon — анонсировало новый опенсорный проект Neo-AI для работы с моделями машинного обучения, сообщает TechCrunch.

Инструмент упрощает настройку ML-моделей для развёртывания на различных платформах на границе сети. Кроме того, инструмент конвертирует модели в общий формат, чтобы избежать проблем с совместимостью с устройствами, на которых они будут выполняться.

Обычно разработчикам приходится вручную адаптировать модели под конфигурации аппаратного и программного обеспечения разнообразных платформ. Особенно трудно кастомизировать модели для граничных устройств, которые имеют ограниченную вычислительную мощность и память.

Neo-AI поддерживает модели TensorFlow, MXNet, PyTorch, ONNX и XGBoost. По словам AWS, инструмент даже способен вдвое ускорять эти модели без потерь в точности. Что касается «железа», Neo-AI совместим с чипами Intel, Nvidia и ARM, а в ближайшее время список расширят Xilinx, Cadence и Qualcomm. Все эти компании, за исключением Nvidia, также принимают участие в проекте.

Как отмечает руководитель подразделения по исследованиям искусственного интеллекта Intel Навин Рао, чтобы получить максимальную отдачу от ИИ, развёртывание моделей на границе должно происходить так же легко, как и в дата-центре или облаке. С помощью Neo-AI производители устройств и поставщики систем могут добиться лучшей производительности моделей, созданных практически в любом фреймворке, на платформах на базе любых вычислительных платформ Intel.

Обсуждение