{ "@context": "https://schema.org", "@type": "Organization", "address": { "@type": "PostalAddress", "addressLocality": "", "postalCode": "", "streetAddress": "Москва, Нижняя ул., д. 14" }, "email": "support@ontico.ru", "name": "OS DevConf 2025 - конференция для разработчиков системного и встраиваемого ПО", "description": "Посетите конференцию OS DevConf 2025 от организатора Ontico. Узнайте о современных подходах к разработке системного ПО, эффективных методах безопасной разработки ядра Linux, внедрении AI в разработку.", "telephone": "+7 (495) 646-07-68", "url": "http://teamleadconf.ru/" }
Доклады
Lustre FS internals and interesting features
Lustre — это распределенная файловая система для высокопроизводительных вычислений (HPC), используемая в более чем половине суперкомпьютеров из TOP500.
Доклад посвящен архитектуре Lustre, а также ее наиболее интересным подсистемам и функциям, таким как client-side data compression(CSDC), Hierarchical Storage Management(HSM), lustre quota aggregation(LQA) и multi-tenancy.
Алексей Журавлев
Михаил Першин
Сергей Череменцев
Защита политик межсетевого экрана на базе eBPF и LSM
Мы строим систему HBF (Host-based Firewall), в которой сетевые политики преобразуются в правила nftables на уровне хоста. При этом любой привилегированный процесс способен их изменить. В докладе рассказывается, как с помощью eBPF и LSM предотвратить несанкционированные изменения правил nftables.
Вадим Калашников
eBPF как платформа для кастомного управления памятью
Доклад представляет системный взгляд на эволюцию eBPF от инструмента для трассировки к универсальному фреймворку для кастомизации ядра. Мы выходим за рамки классических применений в сети и безопасности, чтобы исследовать, как eBPF позволяет безопасно и эффективно расширять фундаментальные подсистемы, такие как планировщик CPU и страничный кеш.
Александр Лошкарев
ATIC: контроль ядра Linux из TEE
Безопасности много не бывает... Особенно, если речь идет о противодействии Zero-Day-уязвимостям на уровне ядра операционной системы.
Расскажем о нашем опыте применения доверенной среды исполнения на базе Arm TrustZone для контроля целостности ядра Linux, подходах к реализации такой защиты, выборе защищаемых компонентов, поделимся планами на будущее.
Дмитрий Алехин
Увеличение производительности 10GbE-интерфейса в ядре Linux
При запуске ядра Linux на новом устройстве одно дело — убедиться в работоспособности интерфейсов, и совсем другая задача — добиться их требуемой производительности. В случае с высокоскоростным сетевым интерфейсом целый комплекс системных проблем может привести к существенной деградации скорости приема/передачи данных. Какие это проблемы и как они влияют на сетевую производительность в контексте наших чипов, вы узнаете из доклада.
Сергей Семин
Адаптивный mTHP для Linux Kernel
В настоящее время политики управления большими страницами (THP) применяются глобально для всей системы. Это приводит к фрагментации и увеличению потребляемой памяти. Размер оперативной памяти растет намного быстрее, чем размер кэша трансляций (TLB). Размер TLB ограничен, это будет представлять проблему для приложений с точки зрения производительности. Использование больших страниц — потенциальное решение, так как одна запись в TLB может соответствовать большому участку памяти. Тем не менее и в этом случае фрагментация памяти неизбежна. Сегодня большинство системных администраторов предпочитают выключать большие страницы, считая, что средний уровень производительности лучше чем нестабильный.

Мы расскажем про механизм hybrid page, с помощью которого приложения, для которых важна производительность, могут использовать большие страницы прозрачно, при этом не требуется включение поддержки больших страниц для всей системы.

Мы покажем, как у нас получилось уменьшить потребление больших страниц, и обсудим зависимость уровня потребления больших страниц и производительности приложений.
Михаил Иванов
QEMU: новые горизонты взаимодействия с гостевой системой
В докладе мы рассмотрим:
  • унифицированные интерфейсы доступа к периферии эмулируемого SoC: gpiodev, remote-i2c-master и CDC-ACM Host, их архитектуру и практическое применение;
  • организацию прозрачного взаимодействия с виртуальными устройствами через стандартные инструменты Linux (libgpiod, i2c-tools) и QMP;
  • практические результаты работы с полнофункциональной моделью GD32F30X в QEMU.
Никита Шубин
Linux Kernel
EBPF на страже Security
В рамках доклада мы рассмотрим, как создаются средства linux runtime protection y user-space-приложений, какие практические штуки можно использовать на практике без Tetragon и Falco — и как написать свой host base firewall в домашних условиях.
Лев Хакимов
SDS: а что, если client всегда прав?
В мире существует много хранилищ: блочные, объектные, файловые, локальные, распределённые, промежуточные и т. д. Но большинство из них заточены на определенную специфику.

А что, если вынести все основные задачи хранилища на клиента? Шифрование стараются унести на него в первую очередь, но как же сжатие, чексуммы, снашпоты, избыточность? Нужен ли ещё один дополнительный хоп в промежутке?

Поговорим про наши наработки получить универсальный (пока что) блочный сторадж для инфраструктуры github.com/rawstor и о том, что из этого может получиться.
Василий Степанов
Георгий Меликов
SPDK в продакшне реального облака
Диски для виртуальных машин — базовая функциональность для любого облака. Диски бывают разные, тем не менее их подключением хочется управлять единообразно. А еще очень хочется, чтобы подсистема хранения работала эффективно.
В нашем облаке для доставки пользовательского I/O из виртуальной машины до системы хранения мы используем SPDK.
В докладе мы расскажем, что такое SPDK и почему он такой эффективный.

Также мы поделимся нашим опытом эксплуатации SPDK в проде. Разберемся, чего в нем, на наш взгляд, не хватает и как мы реализовывали эту функциональность.
Василий Иванов
Platform V: опыт успешной миграции на RISC-V, секреты оптимизации и практические рекомендации
В докладе будут описаны некоторые особенности архитектуры RISC-V, как они проявились при переносе серверной операционной системы SberLinux, аспекты, типичные для адаптации ПО и сопутствующей среды сборки под RISC-V, а также примеры синхронизации и переупорядочивания в многопроцессорных системах, невыровненные доступы, различия в системных вызовах, в реализации поддержки плавающей точки, в доступе к таймерам и в карте адресного пространства.
Сергей Манюкевич
Развитие системного серверного ПО для RISC-V
В докладе будут рассмотрены изменения в компонентах системного ПО под RISC-V за последний год: состояние ядра Linux, а также поддержка аппаратной виртуализации, как одной из ключевых серверных технологий. Также будут затронуты сопутствующие аспекты, такие как компиляторы, состояние типичных компонент серверного микропрограммного ПО, развитие отраслевых стандартов и состояние поддержки RISC-V в известных дистрибутивах.
Андрей Варкентин
Zephyr на RISC-V: текущее состояние и опыт использования
В докладе будет представлено:

  • что такое Zephyr RTOS, архитектуры, функционал, поддерживаемые платформы Синтакор;
  • уровень поддержки архитектуры RISC-V, что поддерживаются в актуальном Zephyr v4.2;
  • доработки Синтакор: AIA, Crypto, SMP improvements, cache operations, SW Misaligned access handling, limited MMU and S-mode;
  • примеры применения Zephyr в Синтакор: основа подсистемы безопасности процессорных кластеров, средство тестирования процессорных кластеров и их периферии.
Александр Разинков
Управление энергопотреблением для процессорных ядер RISC-V в Linux
В докладе будут рассмотрены различные механизмы по управлению энергопотреблением: динамический перевод ядер в состояния сниженного энергопотребления (cpuidle); ручное отключение ядер (cpu hotplug); системный сон (system suspend). Также будет представлен имплементированный в ядра компании CloudBEAR вариант аппаратной поддержки данных механизмов, конфигурации Linux Kernel и необходимые компоненты в интерфейсе OpenSBI для включения перечисленных механизмов. Для cpuidle будут представлены результаты тестирования — ориентировочное время, проведенное в состоянии сниженного энергопотребления.
Данил Скребенков
Безопасность микроядра: труизмы и механизмы
Безопасность микроядра некоторыми воспринимается как труизм: микроядро маленькое, драйвера на user space — ну очевидно же, что сокращение поверхности атаки повышает безопасность. Однако кроме этого очевидного утверждения возникает много неочевидных решений, когда уменьшенное количество дает принципиально другое качество.

В докладе обсудим, почему ядерные харденинги лучше работают в микроядре, а не в монолите, как предельно закрутить гайки в передаче информации с user space и почему один heap хорошо, а два — лучше (и почему два heap’а для микроядра хорошо, а для монолита не очень).
Анна Мелехова
System Software
AI-компилятор для современного аппаратного обеспечения: использование инфраструктуры Executorch для периферийных устройств на базе архитектуры RISC-V
Современные модели машинного обучения развиваются по пути увеличения архитектурной сложности. Это повышает интерес к разработке специализированных аппаратных ускорителей (AI-ускорителей) для их эффективного выполнения. Использование всех доступных возможностей AI-ускорителей невозможно без наличия развитого программного инструментария существенной частью которого является AI-компилятор.

В данном докладе представлен анализ современных AI-ускорителей, выделены основные архитектурные особенности и принципы их проектирования. Особое внимание уделено практическим аспектам создания инструментария для компиляции и выполнения нейронных сетей на периферийных устройствах. В качестве конкретного примера в докладе будут рассмотрены основные этапы компиляции и выполнения PyTorch-модели средствами инфраструктуры Executorch для процессора на базе архитектуры RISC-V, обладающего векторным и матричным расширениями. Заключительная часть доклада будет посвящена перспективам развития AI-компиляторов, включая полиэдральные компиляторы и инфраструктуру MLIR.
Иван Кулагин
Современные ускорители ИИ
Доклад освещает текущее состояние и основные тенденции развития современных ускорителей ИИ. Рассматриваются основные архитектуры ускорителей, компании-производители, а также ряд их особенностей.
Владимир Горбацевич
Запуск нейросетей на автономном грузовике с помощью TensorRT
Расскажу о пути перевода обученной нейросети в высокопроизводительный inference-движок для бортового компьютера автономного грузовика.
Антон Рудоманенко
Ultra Ethernet (UE)- сеть для AI/ML?
Стремительное развитие HPC, AI/ML-вычислений выдвигает новые требования к дизайну сети ЦОД и используемым там технологиям. Доклад содержит обзор используемых сейчас сетевых технологий для HPC, а также описание новой, специализированной для таких задач, технологии Ultra Ethernet (UE), включая используемые в её спецификации уровни и их функционал.
Борис Хасанов
Почему мы задыхаемся от GPU, но NPU все еще не изменили мир?
Мы разберём эволюцию вычислительных архитектур для ИИ — от универсальных CPU к массово-параллельным GPU и специализированным NPU/TPU/ASIC — и объясним, почему именно так сложился ландшафт. Покажем архитектурные причины, по которым CPU и «обычная RAM» упираются в пропускную способность и локальность данных, а GPU выигрывают за счет параллелизма и быстрой HBM/VRAM. Обсудим, почему десятки попыток «сбежать с GPU» на профильные кристаллы упираются в экосистему, стоимость, доступность и зрелость софта — и что должно измениться, чтобы альтернатива стала реальной.
Эдгар Сипки
Будущее системного ПО в эпоху AI: компиляторы, рантаймы и наш путь к OxideRT на Rust
Большие языковые модели (LLM) захватили мир, но их эффективное внедрение в production упирается в «стеклянный потолок» экосистемы Python. Проблемы с GIL, управлением памятью и сложностью развертывания заставляют искать новые, более системные подходы.
В нашем докладе мы утверждаем, что будущее высокопроизводительной AI-инфраструктуры лежит в системных языках, и Rust — главный кандидат на эту роль. Мы не просто обсудим теорию, а пройдем практический путь проектирования OxideRT — нашего концептуального, легковесного рантайма для AI-моделей на Rust. Мы покажем, как с его помощью можно получить полный контроль над исполнением, безопасно работать с GPU через FFI и заложить архитектуру для будущих компиляторных оптимизаций. Этот доклад для тех, кто хочет заглянуть под капот современных AI-фреймворков и понять, как системное программирование решает их ключевые проблемы.
Андрей Носов
AI для архитектуры мобильных ОС — взгляд за горизонт
AI уже стал оказывать значительное влияние на пользовательский опыт владельцев мобильных устройств: AI-агенты помогают распознавать речь, искать информацию, служат голосовым интерфейсом для управления функциями. Разработчики также увеличивают свою эффективность через генерацию кода и документации. Но что дальше? Что будет, если AI будет в центре ОС, а не наложенным агентом? Какого вида будет AI-centered мобильная ОС следующего поколения?
Роман Аляутдин
AI Hardware In a Nutshell
Организатор
Есть вопросы — обращайтесь
Орг. комитет: org@ontico.ru
Партнерство: partners@ontico.ru
Программный комитет: speakers@ontico.ru
Инфопартнерство: marketing@ontico.ru
Поддержка:
+7 (495) 646-07-68, support@ontico.ru,
@ontico_support
125040, Москва, Нижняя ул., д. 14, стр. 7, подъезд 1, оф. 16
ООО «Конференции Олега Бунина»
ООО «Конференции Олега Бунина», ИНН 7733863233, КПП 771401001 , ОКВЭД 82.3, ОКПО 26117225, ОГРН 5137746153518, Банк получателя АО «АЛЬФА-БАНК», г. МОСКВА, БИК 044525593, корреспондентский счет 30101810200000000593, расчетный счет 40702810202720001072 , 125040, г. Москва, ул. Нижняя, д. 14, стр. 7, оф. 08.