ИИ в слуховом аппарате. ИИ в дроне. ИИ в камере на столбе. Новый чип только что сделал это реальным

Весь мир гонится за мощностью. Они пошли в другую сторону — и, кажется, победили.


0vssqia076r3xn8dzu2d87mo2m7fstoe.jpg

Исследователи из Мичиганского университета предложили архитектуру, которая может заметно упростить жизнь периферийному ИИ, то есть моделям, работающим прямо на устройстве, а не в облаке. Речь о системах, которые должны без пауз обрабатывать поток данных с камеры, микрофона, датчиков или медицинских сенсоров. Для такой техники важны сразу три вещи: низкое энергопотребление, минимальная задержка и способность работать с длинной последовательностью сигналов без провалов по памяти. Авторы новой работы утверждают, что нашли сочетание железа и модели, которое помогает закрыть все три проблемы сразу.

Команда пишет, что новый подход позволяет запускать достаточно мощный ИИ непосредственно на телефонах, слуховых аппаратах, носимой электронике и камерах автономного транспорта. Для таких устройств задача давно упирается в фундаментальное ограничение современной вычислительной техники: данные приходится постоянно гонять между блоком памяти и вычислительным блоком. На каждой такой пересылке теряются энергия и время. Когда поток идет непрерывно, например в видеоанализе или в обработке сигналов с сенсоров, потери быстро становятся критичными.

Именно поэтому исследователи сделали ставку на вычисления прямо в памяти . В такой схеме хранение данных и обработка происходят в одном месте. Подход давно привлекает разработчиков высокой энергоэффективностью и пропускной способностью, но у него есть и слабое место. Большинство популярных нейросетевых архитектур плохо ложатся на такую аппаратную базу. Сверточные сети и трансформеры требуют математики и структуры вычислений, которые неудобно переносить на подобное железо без заметных компромиссов.

Команда из Мичигана пошла с другой стороны и подобрала не железо под готовую модель, а модель под физику железа. В центре работы оказались state space models, или модели пространства состояний . Сейчас их часто обсуждают как одну из самых интересных альтернатив трансформерам. Главное преимущество здесь связано с длинными последовательностями. Трансформер по мере роста входа требует все больше памяти. Для длинного разговора, многочасового видео или непрерывного сенсорного потока нагрузка растет слишком быстро. У state space models другая логика работы, поэтому они лучше подходят для задач, где данные поступают без остановки.