ИИ в слуховом аппарате. ИИ в дроне. ИИ в камере на столбе. Новый чип только что сделал это реальным
NewsMakerВесь мир гонится за мощностью. Они пошли в другую сторону — и, кажется, победили.
Исследователи из Мичиганского университета предложили архитектуру, которая может заметно упростить жизнь периферийному ИИ, то есть моделям, работающим прямо на устройстве, а не в облаке. Речь о системах, которые должны без пауз обрабатывать поток данных с камеры, микрофона, датчиков или медицинских сенсоров. Для такой техники важны сразу три вещи: низкое энергопотребление, минимальная задержка и способность работать с длинной последовательностью сигналов без провалов по памяти. Авторы новой работы утверждают, что нашли сочетание железа и модели, которое помогает закрыть все три проблемы сразу.
Команда пишет, что новый подход позволяет запускать достаточно мощный ИИ непосредственно на телефонах, слуховых аппаратах, носимой электронике и камерах автономного транспорта. Для таких устройств задача давно упирается в фундаментальное ограничение современной вычислительной техники: данные приходится постоянно гонять между блоком памяти и вычислительным блоком. На каждой такой пересылке теряются энергия и время. Когда поток идет непрерывно, например в видеоанализе или в обработке сигналов с сенсоров, потери быстро становятся критичными.
Именно поэтому исследователи сделали ставку на вычисления прямо в памяти . В такой схеме хранение данных и обработка происходят в одном месте. Подход давно привлекает разработчиков высокой энергоэффективностью и пропускной способностью, но у него есть и слабое место. Большинство популярных нейросетевых архитектур плохо ложатся на такую аппаратную базу. Сверточные сети и трансформеры требуют математики и структуры вычислений, которые неудобно переносить на подобное железо без заметных компромиссов.
Команда из Мичигана пошла с другой стороны и подобрала не железо под готовую модель, а модель под физику железа. В центре работы оказались state space models, или модели пространства состояний . Сейчас их часто обсуждают как одну из самых интересных альтернатив трансформерам. Главное преимущество здесь связано с длинными последовательностями. Трансформер по мере роста входа требует все больше памяти. Для длинного разговора, многочасового видео или непрерывного сенсорного потока нагрузка растет слишком быстро. У state space models другая логика работы, поэтому они лучше подходят для задач, где данные поступают без остановки.
Исследователи из Мичиганского университета предложили архитектуру, которая может заметно упростить жизнь периферийному ИИ, то есть моделям, работающим прямо на устройстве, а не в облаке. Речь о системах, которые должны без пауз обрабатывать поток данных с камеры, микрофона, датчиков или медицинских сенсоров. Для такой техники важны сразу три вещи: низкое энергопотребление, минимальная задержка и способность работать с длинной последовательностью сигналов без провалов по памяти. Авторы новой работы утверждают, что нашли сочетание железа и модели, которое помогает закрыть все три проблемы сразу.
Команда пишет, что новый подход позволяет запускать достаточно мощный ИИ непосредственно на телефонах, слуховых аппаратах, носимой электронике и камерах автономного транспорта. Для таких устройств задача давно упирается в фундаментальное ограничение современной вычислительной техники: данные приходится постоянно гонять между блоком памяти и вычислительным блоком. На каждой такой пересылке теряются энергия и время. Когда поток идет непрерывно, например в видеоанализе или в обработке сигналов с сенсоров, потери быстро становятся критичными.
Именно поэтому исследователи сделали ставку на вычисления прямо в памяти . В такой схеме хранение данных и обработка происходят в одном месте. Подход давно привлекает разработчиков высокой энергоэффективностью и пропускной способностью, но у него есть и слабое место. Большинство популярных нейросетевых архитектур плохо ложатся на такую аппаратную базу. Сверточные сети и трансформеры требуют математики и структуры вычислений, которые неудобно переносить на подобное железо без заметных компромиссов.
Команда из Мичигана пошла с другой стороны и подобрала не железо под готовую модель, а модель под физику железа. В центре работы оказались state space models, или модели пространства состояний . Сейчас их часто обсуждают как одну из самых интересных альтернатив трансформерам. Главное преимущество здесь связано с длинными последовательностями. Трансформер по мере роста входа требует все больше памяти. Для длинного разговора, многочасового видео или непрерывного сенсорного потока нагрузка растет слишком быстро. У state space models другая логика работы, поэтому они лучше подходят для задач, где данные поступают без остановки.