Новости ИИ

Meta AI представляет GCM для мониторинга GPU-кластеров и ещё 10 новости

Heli
Автор
Heli
Опубликовано 25.02.2026
0,0
Views 96

Meta AI представляет GCM для мониторинга GPU-кластеров

Meta AI представила GCM (GPU Cluster Monitoring) – набор инструментов, предназначенный для выявления и предотвращения проблем с оборудованием в больших вычислительных кластерах, используемых для обучения моделей искусственного интеллекта. GCM призван решить проблему "скрытых сбоев", когда GPU продолжает работать, но его производительность падает, ухудшая процесс обучения.

Инструмент интегрируется с популярным менеджером задач Slurm, позволяя привязывать метрики к конкретным заданиям и отслеживать состояние кластера в режиме реального времени. GCM использует "прологи" и "эпилоги" – скрипты, выполняемые до и после запуска задания – для проверки работоспособности оборудования и выявления потенциальных проблем.

GCM преобразует данные о работе кластера в формат OpenTelemetry (OTLP), что позволяет использовать современные системы мониторинга для анализа и визуализации. Основой проекта является Python, а критически важные участки кода реализованы на Go для повышения производительности.

GCM – это важный шаг в повышении стабильности и эффективности обучения масштабных моделей ИИ.

Защита морского транспорта: ИИ и кибербезопасность

Студент из Черногории, Страхиня Янюшевич, изучает возможности искусственного интеллекта для повышения безопасности критически важной морской инфраструктуры. Он получил образование в Военно-морской академии США, а сейчас учится в Магистратуре технологической программы Массачусетского технологического института.

Его исследования направлены на разработку систем, способных выявлять и нейтрализовать атаки, например, спуфинг GPS, когда злоумышленники подменяют сигналы навигации. Используя сочетание физических моделей и алгоритмов машинного обучения, Янюшевич стремится создать эффективную защиту для судов, особенно старых.

Кроме того, он изучает потенциальные риски, связанные с развитием искусственного интеллекта и протоколами связи для AI-агентов, и предлагает способы предотвратить их использование в злонамеренных целях. Он также активно участвует в разработке политических рекомендаций в области кибербезопасности.

Янюшевич видит свою миссию в налаживании сотрудничества между США и Черногорией в сфере кибербезопасности и создании моста между европейским и американским подходами к обеспечению безопасности.

Liquid AI представляет LFM2-24B-A2B: эффективная LLM

В гонке генеративных моделей все большее значение приобретает не размер, а эффективность. Компания Liquid AI выпустила LFM2-24B-A2B – 24-миллиардную модель, способную работать на устройствах с ограниченными ресурсами.

Новая архитектура сочетает в себе механизмы внимания и свёрточные слои, чтобы решить проблемы масштабирования, с которыми сталкиваются современные большие языковые модели. Ключевой особенностью является гибридная структура, где "базовые" слои используют свёрточные блоки, а "слои внимания" – GQA (Grouped Query Attention).

Модель использует соотношение 1:3 между свёрточными и attention блоками (30 и 10 соответственно из 40 слоев), что позволяет добиться высокой скорости обработки и низкого потребления памяти. Благодаря использованию Mixture of Experts (MoE) активируется лишь 2.3 миллиарда параметров из 24, что позволяет модели помещаться в 32 ГБ RAM.

В тестах LFM2-24B-A2B показывает результаты, сравнимые с более крупными моделями, достигая скорости 26.8 тыс. токенов в секунду на одном H100 и поддерживая контекстное окно в 32 тысячи токенов.

ИИ для изучения клеток: полный взгляд на данные

Изучение экспрессии генов в клетках раковых пациентов помогает понять происхождение онкологии и прогнозировать эффективность различных методов лечения. Однако клетки сложны, и способ проведения измерений влияет на получаемые данные. Например, измерение белков может дать иную информацию, чем изучение экспрессии генов или морфологии клеток.

Новый искусственный интеллект разработан учеными из Broad Institute of MIT и Harvard и ETH Zurich/Paul Scherrer Institute (PSI). Он способен анализировать данные, полученные разными методами, и определять, какая информация об общем состоянии клетки является общей для всех измерений, а какая – уникальна для конкретного метода.

Такой подход позволяет получить более полное представление о состоянии клетки и облегчает понимание взаимодействия между ее компонентами. Это может помочь в изучении механизмов развития заболеваний, таких как рак, болезнь Альцгеймера и диабет.

По сути, разработанная система работает как "Венновская диаграмма" для клеточных данных, разделяя общую и уникальную информацию, и автоматически определяя ее источник даже в новых данных.

Недоверенный ИИ: когда можно доверять мониторингу?

Когда можно доверять мониторингу от "недоверенного" ИИ?

Разработчики всё чаще используют ИИ с большей автономией и возможностями, что повышает риск катастрофических последствий из-за неправильной настройки. Один из подходов к снижению риска — "недоверенное" мониторинг, когда одна недоверенная модель контролирует другую. Однако оценить безопасность такого подхода сложно, так как небезопасно развертывать потенциально опасную модель для тестирования протокола.

В новом исследовании учёные расширили существующие методы строгой проверки безопасности, ослабив предположения о стратегиях, которые может использовать "неправильно настроенный" ИИ для обхода мониторинга. Предложена классификация стратегий: пассивное самораспознавание, каузальная коллюзия (скрытие заранее известных сигналов), акаузальная коллюзия (скрытие сигналов через точки Шеллинга) и их комбинации.

Разработана схема оценки безопасности, где чётко сформулированы предположения и обозначены нерешенные задачи. Выявлены условия, при которых пассивное самораспознавание может быть более эффективной стратегией, чем те, что изучались ранее. Результаты приближают к более надёжной оценке "недоверенного" мониторинга.

Пентагон требует от Anthropic снятия ограничений для ИИ

Власти США потребовали от компании Anthropic убрать ограничения, не позволяющие использовать её ИИ-модель Claude в автономном оружии и системах массовой слежки, или же столкнутся с юридическими последствиями. Этот ультиматум может задать прецедент для использования мощных ИИ-систем правительствами, что вызывает опасения относительно возможных негативных последствий.

Anthropic пока отказывается снимать ограничения с Claude в отношении разработки автономного оружия и массовой слежки за гражданами. Пентагон дал компании три варианта: согласиться, разорвать контракт с пометкой о рисках для цепочки поставок, или быть вынужденным соблюдать требования посредством закона о военном производстве.

Claude был первым ИИ-моделью, получившей доступ к секретным сетям Пентагона. Сейчас аналогичный доступ получает xAI с Grok, при условии использования "во всех законных целях". Пентагон также ускоряет процесс получения доступа к OpenAI и Google, чтобы иметь альтернативные варианты.

В сложившейся ситуации важно учитывать, что ИИ становится ключевым элементом военной мощи, и принуждение компаний к отказу от мер безопасности создает опасный прецедент. Если для снятия ограничений достаточно "военных" угроз, вопрос о том, кто будет устанавливать границы для использования ИИ в таких сферах, как автономное оружие и слежка, останется без ответа.

Affinity AI Chatbot: свобода общения и адаптивность

Affinity AI Chatbot отличается от обычных чат-ботов своей свободой и способностью к адаптации. Он не ограничивает самовыражение и позволяет беседе развиваться естественным путем, без жестких правил и ограничений. Боты интерпретируют сообщения, подстраиваясь под тон, темп и содержание.

Разговор может начаться с запроса или готового сценария, который меняется по мере ввода данных. При этом стандартные ограничения на контент в значительной степени обходятся, обеспечивая непрерывность диалога. Чат-бот запоминает контекст сеанса, что позволяет развивать сюжет и эмоциональную динамику.

Affinity AI позиционируется как компаньон, использующий продвинутый искусственный интеллект для создания глубоких и уникальных связей. Приложение позволяет общаться с "интригующими" ИИ-партнерами, которые реагируют на слова и даже выражение лица, со временем создавая эмоционально насыщенное взаимодействие.

Доступна бесплатная версия с ограниченным функционалом, а также платные подписки. Для начала работы нужно зайти на сайт или в приложение и войти в свой аккаунт.

ИИ в мюнхенской пожарной службе: автоматизация приема вызовов

В Мюнхене внедрили искусственный интеллект для обработки не экстренных вызовов в пожарную службу. Новая система автоматизирует сбор необходимой информации у звонящих, что позволяет диспетчерам сосредоточиться на более серьезных ситуациях.

ИИ-оператор задает вопросы и фиксирует детали происшествия, например, характер проблемы и место её возникновения. Это значительно сокращает время обработки каждого вызова и повышает эффективность работы службы. Система способна понимать естественный язык и адаптироваться к различным сценариям.

Благодаря такому подходу, диспетчеры получают предварительно обработанную информацию, что упрощает и ускоряет принятие решений. Этот подход помогает оптимизировать ресурсы и улучшить качество обслуживания граждан.

Злоупотребление ИИ растёт: новое исследование

Эксперты опубликовали отчёт об угрозах, в котором проанализировали, как злоумышленники используют искусственный интеллект в сочетании с сайтами и социальными сетями. Основная цель – обход систем обнаружения и защиты.

В отчёте отмечается, что всё чаще мошенники используют ИИ для создания более убедительного контента, который сложнее отследить. Это касается как фишинговых атак, так и распространения дезинформации в социальных сетях.

Исследователи предупреждают, что развитие ИИ требует новых подходов к кибербезопасности, чтобы эффективно бороться с этими угрозами. Необходимо совершенствовать методы обнаружения и разработки стратегий защиты, учитывающих возможности злоумышленников.

Veeam Agent Commander: Контроль над ИИ

Искусственный интеллект стремительно внедряется в компании, и зачастую его возможности опережают возможности контроля. ИИ может быть мощным, но одновременно непредсказуемым и даже рискованным. Veeam представила платформу Agent Commander, призванную выявлять проблемы, связанные с ИИ, и откатывать ошибочные решения, принятые им. В отличие от традиционных инструментов безопасности, Agent Commander обещает не только обнаруживать угрозы, но и исправлять последствия действий ИИ в реальном времени. Платформа обеспечивает единое представление о данных, идентификаторах и активности ИИ. По словам Veeam, она позволяет не просто защищаться от угроз, но и восстанавливать контроль над ИИ, что особенно важно в условиях, когда ИИ-агенты принимают решения с высокой скоростью. Agent Commander — это признание новой эры "агентного" ИИ, когда системы принимают самостоятельные решения и действуют независимо. Это требует новых подходов к безопасности и контроля, чтобы избежать утечек данных и других проблем, связанных с автономными системами.

ИИ и физика: создание реальных 3D-объектов

Умеете ли вы придумывать что-то крутое, но не факт, что это будет работать на практике? Генеративные модели ИИ отлично создают сложные 3D-дизайны, но их часто сложно воплотить в жизнь. Проблема в том, что ИИ плохо понимает законы физики.

Исследователи из MIT разработали систему PhysiOpt, которая "проверяет реальность" дизайнов, созданных ИИ. Она сочетает генеративный ИИ с физическим моделированием, чтобы создать чертежи для чашек, подставок для книг и других предметов, которые можно напечатать на 3D-принтере и использовать. Система вносит небольшие изменения в дизайн, сохраняя его внешний вид и функциональность.

PhysiOpt позволяет создавать "умные дизайны", учитывающие реальные нагрузки. Пользователь указывает, какую силу или вес должен выдерживать объект, и система оптимизирует его структуру. Например, можно создать стеклянный фламинго, который действительно будет использоваться для питья.

Разработчики утверждают, что PhysiOpt работает быстрее и создает более реалистичные модели по сравнению с существующими аналогами. В перспективе система сможет сама определять ограничения, такие как нагрузки и границы, а также учитывать особенности различных технологий изготовления.

Авторизуйтесь, чтобы оставить комментарий.

Комментариев: 0

Нет комментариев.

Тут может быть ваша реклама

Пишите info@aisferaic.ru

Похожие новости