Ученые проекта EPFL Blue Brain расширили методы моделирования производительности до области вычислительной науки о мозге. В статье, опубликованной в Neuroinformatics, они дают количественную оценку ландшафта производительности моделирования мозговой ткани и детально анализируют взаимосвязь между экспериментом in silico, базовой моделью нейрона и связности, алгоритмом моделирования и используемой аппаратной платформой. Тем самым получаются первые аналитические модели производительности детальных симуляций мозговой ткани, что является конкретным шагом для включения следующего поколения симуляций мозговой ткани.
Понимание мозга – это одна из самых больших проблем «больших данных», с которой мы сталкиваемся сегодня и во все большей степени, компьютерное моделирование и симуляция стали важными инструментами в стремлении лучше понять структуру мозга и расшифровать причинные взаимосвязи его компонентов. Компьютеры общего назначения до сих пор в значительной степени могли обеспечивать высокую производительность при моделировании мозговой ткани, но в то же время становится все труднее полагаться на компьютеры будущих поколений из-за физических ограничений. Если в будущем поколении компьютеров будут достигнуты модели всего мозга, понимание вычислительных характеристик моделей и механизмов моделирования будет необходимо.
На сегодняшний день, для моделирования мозговой ткани, широкий спектр биохимических и биофизических процессов и структур в мозге привел к разработке большого разнообразия модельных абстракций и специализированных инструментов, некоторые из которых работают на крупнейших компьютерах в мире. , Тем не менее, их прогресс в основном опирался на сравнительный анализ производительности , то есть искусство измерения и оптимизации программного и алгоритмического подхода к конкретному оборудованию, и только в некоторых случаях использовалась первоначальная экстраполяция на основе модели.
Исследования с использованием аналитического моделирования производительности
Чтобы выйти за рамки подхода сравнительного анализа и ранее опубликованных первоначальных экстраполяций, ученые Blue Brain использовали дополнительный подход: детальное моделирование производительности – наука о фактическом моделировании производительности модели ткани мозга, используемого алгоритма и схемы моделирования, пересекаемой с конкретным компьютерная архитектура на том, где он запускается. Используя гибридную модель «серого ящика», которая сочетает в себе биологические и алгоритмические свойства со спецификациями аппаратного обеспечения, ученые выявили узкие места производительности при различных режимах моделирования, что соответствует множеству прототипных научных вопросов, на которые можно ответить путем моделирования биологических нейронных сетей.
Франческо Кремонези, первый автор исследования, объясняет: «Впервые мы применили передовые аналитические и количественные методы моделирования производительности в области моделирования ткани мозга на клеточном уровне. Это позволило нам глубже понять, какие типы моделям требуется, какой тип оборудования и что мы должны сделать для повышения их эффективности (и, таким образом, быстрее моделировать большие модели на одном и том же оборудовании). Мы считаем, что это важный вклад в сообщество, которое иногда сравнивает модели мозговой ткани исключительно по количеству нейронов. и синапсы, но игнорирует большие различия в вычислительных затратах в зависимости от уровня детализации моделей “, заключает он.
Важный прорыв для навигации в неопределенном будущем в вычислительной технике
Поскольку закон Мура замедляется и, возможно, даже заканчивается в не слишком отдаленном будущем, становится чрезвычайно важным понять, какие аппаратные свойства ограничивают скорость вычислений сейчас и в будущих системах, и какие проблемы могут быть не решаемы, если новые методы, аппаратные средства и т. д. не определены. Таким образом, это детальное понимание того, какая часть компьютерной системы (например, пропускная способность памяти, задержка в сети, скорость обработки и т. Д.) Наиболее важны для решения научной проблемы, необходимо в будущем, поскольку оно обеспечивает количественную и систематическую основу, в которой эти будущие события могут быть приоритетными.
Профессор Феликс Шюрманн, старший автор исследования, объясняет: «Эта работа обеспечивает длинную необходимую формальную структуру, которая позволяет провести количественную дискуссию между специалистами по моделированию in silico, исследователями высокопроизводительного программного обеспечения и архитекторами оборудования». Он продолжает: «Методология, разработанная в этой работе, представляет собой количественное средство, с помощью которого эти научные сообщества могут сотрудничать в деле разработки и оптимизации будущего программного и аппаратного обеспечения для следующего поколения симуляций мозговой ткани».