-
UWB-чипы в смартфонах: сверхточное определение расстояния между устройствами
За последние годы смартфоны превратились из простых средств связи в сложные технологические платформы, оснащённые десятками датчиков и беспроводных модулей. Пользователи уже привыкли к таким технологиям, как Wi-Fi, Bluetooth, NFC и GPS. Однако в современных флагманских устройствах всё чаще появляется ещё один компонент — модуль UWB. Эта технология, известная как Ultra Wideband, позволяет устройствам определять расстояние…
-
Vision Transformers в промышленной дефектоскопии: как нейросети нового поколения выявляют производственные дефекты
Контроль качества на производстве остаётся одной из ключевых задач современной промышленности. Даже незначительные дефекты в металле, пластике, электронике или композитных материалах могут привести к серьёзным последствиям: от брака продукции до аварий и дорогостоящих отзывов партий товаров. Традиционные методы дефектоскопии долгое время основывались на ручной проверке или классических алгоритмах компьютерного зрения. Однако рост производственных скоростей и…
-
Segment Anything Model: универсальная сегментация объектов на изображениях
Компьютерное зрение за последние годы стало одним из самых динамично развивающихся направлений искусственного интеллекта. Алгоритмы научились распознавать лица, определять объекты на фотографиях и анализировать сложные сцены на видео. Однако одна из задач долгое время оставалась технически сложной — точное выделение границ объектов на изображении. Эта задача называется сегментацией. В 2023 году исследователи представили систему Segment…
-
Квантование нейросетей до 4-бит: как уменьшают размер LLM
За последние годы большие языковые модели стали основой множества интеллектуальных сервисов — от чат-ботов и систем автоматического перевода до инструментов программирования и анализа данных. Однако вместе с ростом возможностей нейросетей резко увеличились и требования к вычислительным ресурсам. Современные модели могут содержать десятки миллиардов параметров, а иногда и значительно больше. Это приводит к огромному объёму памяти,…
-
Mixture-of-Experts архитектуры: как работают модели с динамическими экспертами
Современные системы искусственного интеллекта становятся всё более масштабными. Если несколько лет назад крупной считалась нейросеть с сотнями миллионов параметров, то сегодня ведущие языковые модели оперируют десятками и даже сотнями миллиардов параметров. Однако с ростом размера моделей возникает серьёзная проблема: вычислительная стоимость обучения и запуска таких систем растёт экспоненциально. Инженеры и исследователи ищут способы увеличивать мощность…
-
ONNX Runtime: запуск нейросетей на edge-устройствах без облака
Искусственный интеллект всё активнее выходит за пределы дата-центров и облачных сервисов. Если несколько лет назад большинство нейросетевых моделей запускались исключительно на мощных серверах, то сегодня всё больше задач выполняется непосредственно на устройствах пользователя. Камеры видеонаблюдения, смартфоны, промышленные датчики, автомобильные системы помощи водителю и умные бытовые приборы требуют мгновенной обработки данных без постоянного подключения к интернету.…
-
Whisper-модели распознавания речи: как работает потоковая транскрипция
Технологии распознавания речи за последние десять лет совершили огромный скачок. Если раньше голосовые интерфейсы часто ошибались и требовали четкой дикции, то современные нейросети способны понимать речь с акцентами, фоновым шумом и даже несколькими говорящими. Одной из наиболее известных систем в этой области стала серия моделей Whisper — нейросетевой алгоритм распознавания речи, разработанный компанией OpenAI. Эти…
-
FlashAttention: ускорение трансформеров за счёт оптимизации памяти GPU
За последние годы архитектура трансформеров стала фундаментом большинства современных систем искусственного интеллекта. Именно на ней построены крупные языковые модели, системы генерации изображений и многие инструменты анализа данных. Однако вместе с ростом размеров моделей появилась и новая проблема: огромные вычислительные требования. Даже самые мощные графические процессоры сталкиваются с ограничениями пропускной способности памяти при обработке длинных последовательностей…
-
LoRA-адаптация: как дообучают большие языковые модели на обычной видеокарте
Большие языковые модели (LLM) стали одним из главных технологических прорывов последних лет. Системы вроде современных генеративных нейросетей умеют писать тексты, переводить, программировать и анализировать данные. Однако за их впечатляющими возможностями скрывается серьезная проблема: такие модели содержат миллиарды параметров и требуют огромных вычислительных ресурсов. Полное дообучение подобных систем может стоить сотни тысяч долларов и требовать кластеры…
-
Оптические интерконнекты внутри серверов: будущее высокоскоростной передачи данных
Современные вычислительные системы переживают стремительный рост производительности. Центры обработки данных, облачные платформы, системы искусственного интеллекта и научные суперкомпьютеры обрабатывают колоссальные объемы информации. При этом одной из главных проблем становится не столько скорость самих процессоров, сколько эффективность передачи данных между ними. Когда десятки или сотни вычислительных модулей обмениваются информацией внутри одного сервера или стойки, обычные электрические…
