Диагноз: кремний упёрся в ватты
За последние 20 лет вычислительная мощность росла быстрее, чем здравый смысл в дата-центрах.
CPU стали многоядерными, GPU — монструозными, нейросети — прожорливыми.
Но есть одна проблема, которую уже невозможно игнорировать: энергопотребление.
Современный сервер с GPU легко потребляет сотни ватт, а стойка — киловатты.
В масштабах облаков это превращается в электростанцию с логотипом hyperscaler’а.
Именно на этом фоне в научных публикациях и инженерных отчётах всё чаще появляется термин:
biological computing — биологические вычисления.
Важно: речь не о «живом искусственном интеллекте» и не о мозгах в банке.
Речь о попытке использовать биологические принципы там, где кремний объективно проигрывает.
Что такое биокомпьютер на самом деле
Биокомпьютер — это вычислительная система, в которой:
- основные элементы — живые клетки (чаще нейроны)
- передача информации происходит через электрохимические сигналы
- вычисления асинхронны и событийны
В отличие от классического компьютера, здесь нет:
- тактовой частоты в гигагерцах
- строгой логики IF-ELSE
- детерминированного выполнения
Зато есть:
- самообучение
- адаптация
- энергоэффективность на уровне живых организмов
Типы биологических вычислений
1. Нейронные биокомпьютеры
Самый перспективный и изучаемый вариант.
Используются живые нейроны, выращенные in vitro.
Пример — платформа FinalSpark Neuroplatform:
Швейцарский стартап FinalSpark создал первую коммерческую платформу для удалённого доступа к живым нейронным культурам. Миниатюрные нейронные сети из тысяч живых клеток подключены к микроскопическим электродам и доступны исследователям через API.
Факты:
- количество нейронов: от 5 000 до 50 000
- энергопотребление: микроватты (в миллион раз меньше GPU)
- обучение: без backpropagation
- время жизни культуры: до 100 дней
- доступ: удалённый через веб-интерфейс
Это не CPU и не GPU. Это скорее живой сопроцессор.
Другие проекты:
- Cortical Labs (Австралия) — проект DishBrain, где нейроны из стволовых клеток научились играть в Pong. Результаты опубликованы в журнале Neuron.
- Brainoware — исследование Indiana University, показавшее возможность использования органоидов мозга для распознавания речи.
2. ДНК-вычисления
Здесь вычисления выполняются за счёт химических реакций между цепочками ДНК.
Плюс — феноменальная плотность хранения:
1 грамм ДНК способен хранить до 215 петабайт информации.
Минус — скорость.
Операции занимают часы и дни.
ДНК-вычисления — это не про real-time, а про массовый параллелизм и архивы будущего.
Реальные успехи:
- В 1994 году Леонард Адлеман решил задачу коммивояжёра с помощью ДНК
- Microsoft в 2016 году сохранила 200 МБ данных в синтетической ДНК
- Каталог (Catalog Technologies) предлагает коммерческое хранение данных в ДНК
Подробнее: DNA-based data storage (Nature)
3. Клеточные логические схемы
Синтетическая биология позволяет «программировать» клетки:
- реагировать на сигналы
- выполнять логические операции (AND, OR, NOT)
- вырабатывать выходной ответ
Применение — биосенсоры, медицина, фармацевтика.
Пример: генетически модифицированные бактерии, которые светятся при обнаружении токсинов в воде.
Больше информации: Synthetic Biology Portal
Почему биокомпьютеры не заменят серверы
Несмотря на хайп, есть объективные ограничения:
- Низкая скорость: нейроны работают на частоте 10-100 Гц против гигагерц у CPU
- Нестабильность биоматериала: клетки живут, стареют, умирают
- Сложность масштабирования: нельзя просто купить «ещё одну планку нейронов»
- Отсутствие детерминизма: одни и те же входные данные могут дать разные результаты
- Проблемы обслуживания: требуется среда жизнеобеспечения (питательные растворы, температура, стерильность)
Вы не запустите PostgreSQL или веб-сервер на нейронах. И это нормально.
Реальный путь развития — гибридные вычислительные системы.
Гибридные системы: практичный компромисс

- CPU — управление, логика, оркестрация
- GPU/TPU — численные вычисления, матричные операции
- Bio-accelerator — обучение, адаптация, обработка шумных данных
Биоблок не заменяет кремний, а дополняет его в специфических задачах.
Аналогия: Как сейчас используют GPU для нейросетей, а CPU — для всего остального. Завтра появится третий элемент — биопроцессор.
Почему всё упирается в энергоэффективность
Энергия стала главным ограничителем роста вычислений.
| Тип устройства | Потребление | Производительность на ватт |
|---|---|---|
| CPU сервер | 50–150 Вт | Базовый уровень |
| GPU (AI) | 250–700 Вт | Высокая для матриц |
| TPU | 200–300 Вт | Оптимизирована для AI |
| Биокомпьютер | микроватты | В миллион раз лучше |
Конкретные цифры:
- Человеческий мозг: ~20 Вт для 86 миллиардов нейронов
- Эквивалентная искусственная нейросеть: мегаватты энергии
- FinalSpark Neuroplatform: 10 микроватт для 10 000 нейронов
Даже учитывая системы жизнеобеспечения, биологические вычисления на порядки экономичнее.
Источник расчётов: Energy-Efficient Neuromorphic Computing (Frontiers in Neuroscience)
Почему биология такая экономная
Причины низкого энергопотребления:
- Событийная модель: нейрон активируется только при необходимости, а не каждый такт
- Локальная передача сигналов: нет глобальной шины данных
- Отсутствие глобального такта: нет синхронизации — нет потерь
- Аналоговая передача: градиенты вместо дискретных битов
- Минимальные потери энергии: ионные каналы работают на квантовом уровне эффективности
По сути, это event-driven computing в чистом виде — именно то, к чему стремятся разработчики neuromorphic chips (Intel Loihi, IBM TrueNorth).
Где гибридные системы будут полезны
1. Edge-устройства
Дроны, автономные роботы, космические зонды, медицинские импланты — там, где каждый ватт критичен и нет возможности постоянной подзарядки.
Пример: Марсоход с биопроцессором мог бы адаптироваться к новым условиям без связи с Землёй.
2. Непрерывное обучение (Continual Learning)
Системы, которые должны адаптироваться в реальном времени, без переобучения на GPU в облаке:
- Персональные ассистенты, изучающие привычки пользователя
- Системы безопасности, адаптирующиеся к новым угрозам
- Роботы в динамичных средах
3. Анализ шумных и неполных данных
Биологические нейросети эволюционно заточены под работу с:
- Зашумлёнными сенсорными данными
- Неполной информацией
- Изменчивыми условиями
Применение: Медицинская диагностика, анализ биометрии, обработка данных с дефектных датчиков.
4. Нейроинтерфейсы
Для взаимодействия мозг-компьютер биологические компоненты — естественный мост между нейронами человека и цифровой техникой.
Компании-лидеры: Neuralink, Kernel, Blackrock Neurotech
Проблемы интеграции
Основные технические сложности:
1. Интерфейсы между биологией и цифрой
- Электроды деградируют в биологической среде
- Нужны сверхчувствительные АЦП для считывания микровольтных сигналов
- Задержки в преобразовании химических сигналов в электрические
2. Контроль состояния
Как проверить «здоровье» нейронной культуры?
- Нет метрик типа CPU usage или error rate
- Нужны биомаркеры, флуоресцентные индикаторы
- Continuous monitoring жизненных показателей
3. Воспроизводимость результатов
Биологические системы по природе вариативны:
- Разные культуры ведут себя по-разному
- Результаты зависят от «настроения» клеток
- Нет гарантии идентичности двух биочипов
DevOps здесь пока бессилен:
Нет логов, нет stack trace, нет rollback. Как откатиться к версии культуры трёхдневной давности?
4. Этические вопросы
- Являются ли нейронные культуры «разумными»?
- Можно ли их выключать и утилизировать?
- Где граница между органоидом и сознанием?
Научное сообщество активно обсуждает: The ethical challenges of brain organoids (Nature)
Почему дата-центры всё равно смотрят в эту сторону
Причина проста: деньги.
Расчёты Google:
Если даже 1–3% AI-вычислений вынести в биоблок и сократить энергопотребление, это экономит сотни миллионов долларов в год на электричестве и охлаждении.
Тренды:
- В 2024 году инвестиции в bio-computing превысили $500 млн
- Intel, IBM, Microsoft финансируют исследования
- Появляются стартапы вроде Koniku (биочипы для обоняния)
Для гигантов это не хайп, а стратегическая необходимость.
Практические шаги для тех, кто хочет попробовать
Для исследователей и энтузиастов:
- Удалённый доступ к биокомпьютерам:
FinalSpark предоставляет облачный доступ к живым нейронным культурам. Можно экспериментировать без собственной лаборатории. - Симуляторы биологических систем:
- Курсы и материалы:
Для инженеров и DevOps:
Пока биокомпьютеры в продакшене — это фантастика. Но можно готовиться:
- Изучать neuromorphic computing (Intel Loihi, IBM TrueNorth)
- Следить за проектами типа SpiNNaker
- Экспериментировать со spiking neural networks в TensorFlow/PyTorch
Где хостить эксперименты с AI:
Для тренировки нейросетей (пока классических):
- Lambda GPU Cloud — специализированные GPU-серверы для ML
- Vast.ai — дешёвая аренда GPU
- Google Colab Pro — если нужен быстрый старт
Российские альтернативы:
- Yandex Cloud — GPU для обучения моделей
- SberCloud — ML-платформа с готовыми инструментами
Юмор из будущей серверной
Диалог в Slack через 10 лет:
— Почему сервис недоступен?
— Он адаптируется.
— Какой uptime?
— Зависит от среды. И от настроения.
— Можно логи?
— Можно электроэнцефалограмму.
— А rollback?
— Культуру уже закоммитили в production. Откат невозможен.
— Мониторинг есть?
— Да, microscope + livestream.
— Кто on-call сегодня?
— Биолог.
Реальные проекты, за которыми стоит следить
Коммерческие:
- FinalSpark — первая коммерческая платформа биокомпьютинга
- Cortical Labs — DishBrain и биологические процессоры
- Koniku — биочипы для обоняния и химдетекции
Академические:
- Human Brain Project — европейская инициатива по моделированию мозга
- BRAIN Initiative (США) — национальная программа нейроисследований
- Blue Brain Project — цифровая реконструкция мозга грызуна
Open Source:
- Nengo — фреймворк для нейроморфных вычислений
- SNN Toolbox — конвертация ANN в SNN
Книги и статьи для глубокого погружения
Книги:
- \»The Future of the Brain\» by Gary Marcus and Jeremy Freeman
- \»How to Create a Mind\» by Ray Kurzweil
- \»Biological Computation\» by Ehud Lamm and Ron Unger
Научные статьи (бесплатно доступны):
- Biological neurons vs artificial neurons (Nature, 2023)
- Brain organoids as biological computers (arXiv)
Прогноз на 10 лет
Биокомпьютеры не станут массовыми.
Но:
- 2026–2028: Первые коммерческие bio-accelerators в лабораториях
- 2028–2030: Гибридные чипы (silicon + bio) в edge-устройствах
- 2030–2035: Био-блоки в специализированных дата-центрах для AI
- Энергоэффективность станет ключевым KPI наравне с производительностью

Будущее — их комбинация.
Чек-лист: что делать прямо сейчас
Если тема зацепила:
- Подпишитесь на новости FinalSpark — они публикуют результаты экспериментов
- Попробуйте симулятор NEST или Brian — поймёте, как работают spiking networks
- Почитайте статьи на Nature Neuroscience — там публикуют последние прорывы
- Следите за Intel Loihi — это мост между классическими чипами и биовычислениями
- Экспериментируйте с энергоэффективностью своих моделей — это навык будущего
Итог
Биокомпьютеры — это не фантастика, но и не замена серверам.
Это новый инструмент, который имеет смысл там, где энергия дороже частоты.
И пока одни деплоят контейнеры, другие выращивают вычислительные нейроны.
У каждого своя инфраструктура.
А как вы думаете: Дождёмся ли мы серверных с биореакторами вместо стоек? Или это останется уделом узких исследовательских ниш?
Пишите в комментариях — обсудим!


