J-PAL запускает проект AI Evidence для проверки решений в борьбе с бедностью ...
J-PAL запускает проект AI Evidence для проверки решений в борьбе с бедностью
Массачусетский технологический институт начал новую инициативу Project AI Evidence — Project AI Evidence (PAIE). За первым этапом закреплено восемь исследований, которые изучат, как искусственный интеллект может эффективно применяться для решения социальных проблем: в образовании, здравоохранении, борьбе с бедностью и изменении климата.
Инициатива объединяет правительства, неправительственные организации, технологические компании и экономистов из MIT и глобальной сети J-PAL. Цель — не просто тестировать инструменты, а оценить, какие из них действительно работают, кому и при каких условиях, чтобы масштабировать только безопасные и справедливые решения.
Поддержку проекту оказали Google.org, Community Jameel, канадский IDRC, британское Министерство по международному развитию и Amazon Web Services. Отдельно отмечена поддержка Эрика и Уэнди Шмидтов по изучению генеративного AI в рабочих процессах стран с низким и средним уровнем дохода.
Как адаптировать LLM под человеческие предпочтения без reward model
В обучающем туториале показано, как выполнить прямую оптимизацию предпочтений (DPO) без использования reward-модели — заменяющего подхода на RLHF. Процесс объединяет DPOTrainer из библиотеки TRL, QLoRA и PEFT, чтобы обучение помещалось на один GPU в Google Colab.
Авторы обучают модель на бинаризованном датасете UltraFeedback: для каждого промпта в нём есть предпочтительный и отвергнутый ответы. Это позволяет формировать стиль и поведение модели, а не только воспроизведение фактов. Для эффективности применяется 4-битное квантование и LoRA-адаптеры — только 2,5–3 % параметров обучаются.
После обучения можно загрузить обновлённую модель и сравнить её ответы с оригинальной: между базовой и DPO-моделью в выборке из трёх примеров видна разница в качестве и стиле генераций.
Mydreamcompanion: пошаговое руководство по созданию ИИ-компаньона
Разработчики представили детальный гайд по использованию сервиса MyDreamCompanion — инструмента для генерации персонализированного виртуального партнёра на основе искусственного интеллекта. Процесс занимает 17 шагов и позволяет задать внешность, личность, интересы и сценарий взаимодействия.
Пользователь начинает с выбора режима создания: «Быстро и просто» или «Pro». Далее определяются пол, стиль (реалистичный или аниме), этническая принадлежность, телосложение, цвет глаз и волос, возраст, черты характера, увлечения, сюжетная ситуация и гардероб. На финальном этапе — проверка сводки и выбор голоса: есть 15 вариантов женского голоса с возможностью прослушивания.
Интерфейс поддерживает расширенный режим (Advanced Mode) для более тонкой настройки. Сервис позволяет легко возвращаться назад и менять любой параметр без перезапуска всей процедуры. Рекомендуется не перегружать персонажа чертами и интересами — лучше выбрать 3–6 ключевых черты и несколько увлечений, чтобы диалог оставался естественным.
Google DeepMind представила Aletheia — ИИ-агента для автономных научных открытий
Команда Google DeepMind анонсировала Aletheia — специализированный ИИ-агент, переходящий от решения олимпиадных задач к самостоятельной научной работе. Модель способна генерировать, проверять и дорабатывать математические доказательства на естественном языке, используя огромные объёмы литературы и сложные логические цепочки.
Архитектура Aletheia построена на расширенной версии Gemini Deep Think и включает три модуля: генератор решений, верификатор (проверка на ошибки и вымышленные факты) и ревизор (исправление недочётов). Эксперименты показали, что разделение этих этапов значительно повышает надёжность. Версия от января 2026 года сократила вычислительные затраты для олимпиадного уровня в 100 раз и достигла 95,1 % точности на тесте IMO-Proof Bench Advanced.
Aletheia уже продемонстрировал автономную научную деятельность: полностью сгенерировал статью по арифметической геометрии, помог сформулировать стратегию доказательства для задачи о независимых множествах и нашёл 63 корректных решения среди 700 открытых задач из гипотез Эрдёша, из них 4 полностью решил самостоятельно. DeepMind впервые ввёл шкалу автономности ИИ в математике, аналогичную уровням в автомобильной отрасли. Статья Feng26 получила classification Level A2 — полностью автономная и готовая к публикации.
Google обновил Deep Think: рекорды в математике и науке
Google представил обновлённую версию режима reasoning Deep Think в модели Gemini 3, которая показала впечатляющие результаты по нескольким ключевым тестам. Deep Think набрал 84,6 % в ARC-AGI-2 и 48,4 % в Humanity’s Last Exam — обошёл Opus 4.6 и GPT-5.2 почти на 30 пунктов. В соревнованиях по физике и химии он получил золотые медали, а в Codeforces достиг 3455 Elo — почти на тысячу очков выше конкурентов.
Также Google запустил математического агента Aletheia, способного самостоятельно решать открытые задачи, проверять доказательства и участвовать в специализированных бенчмарках. Обновление Deep Think уже доступно в приложении Gemini для подписчиков Google AI Ultra, а исследователи могут присоединиться к раннему доступу через API.
Кастомные ядра Linux от DeepInfra: оптимизированные под GPU и облака
Компания DeepInfra анонсировала запуск собственных ядер Linux для всех пользователей — без ограничений по лицензии. Решение доступно в открытом доступе под лицензией GPLv2 и адаптировано под серверное оборудование и облачные среды.
Ядра базируются на стабильных версиях upstream и проходят дополнительную оптимизацию под работу с GPU и ускорителями. В число изменений входят модифицированные драйверы, улучшенные политики планирования и урезанная сборка без ненужных модулей. Разработчики подчеркивают: проект ориентирован на пользователей, которым нужны предсказуемая производительность и контроль над стеком нижнего уровня.
Код доступен в репозитории на GitHub, собирается и тестируется регулярно. Установка возможна как вручную, так и через пакетные менеджеры.
Как OpenAI масштабировал доступ к Codex и Sora
Команда OpenAI запустила новую систему управления доступом к моделям Codex и Sora, которая заменила жёсткие лимиты на гибкий механизм. Она работает в реальном времени и сочетает три ключевых элемента: учёт текущего объёма использования, распределение кредитов и динамическое регулирование скорости запросов.
Теперь пользователи могут получать непрерывный доступ к моделям — без ожидания сброса ежедневных ограничений. Система сама отслеживает объём затраченных ресурсов и корректирует лимиты на лету, позволяя более эффективно использовать вычислительные мощности и сглаживать пиковые нагрузки.
Kyutai выпустила Hibiki-Zero — S2ST модель без выравнивания по словам
Kyutai анонсировала Hibiki-Zero — новую модель для одновременного перевода речи в речь (S2ST) и речи в текст (S2TT). Система работает в реальном времени, обрабатывая неравномерные зависимости между словами и не требуя при обучении данных с выравниванием на уровне отдельных слов. Это устраняет одно из главных препятствий при масштабировании переводческих систем на новые языки.
Архитектура модели основана на decoder-only дизайне с многостримовой обработкой: исходный аудиопоток, целевой аудиопоток и «внутренний монолог» — промежуточный текстовый поток, выровненный по времени с переводом. Для кодирования речи используется кольцевой аудиокодек Mimi (12,5 кадров/с), а в качестве языковой модели — RQ-Transformer. Всего в модели 3 млрд параметров, контекст — до 4 минут речи, 16 уровней кодирования для высокого качества.
Обучение проходит в два этапа: сначала модель тренируется на предложениях с выравниванием по предложениям, а затем оптимизируется методом GRPO (Group Relative Policy Optimization), минимизируя задержку перевода. При этом оценка качества происходит через BLEU-балл на промежуточных этапах. В качестве теста новый язык (итальянский) добавили всего за менее чем 1000 часов речевых данных, добившись качества, сравнимого с Meta’s Seamless, но при этом показатели по сходству голоса оказались на 30+ баллов выше.
OpenAI выпустила GABRIEL для анализа социальных исследований
OpenAI представила GABRIEL — открытый инструмент, который использует возможности GPT для превращения качественных текстов и изображений в количественные данные. Это облегчает работу социальных исследователей, позволяя анализировать большие объемы информации.
GABRIEL помогает автоматизировать процесс кодирования и интерпретации неструктурированных данных — от интервью и эссе до фотографий и документов. В основе — готовый к использованию набор методов, основанных на больших языковых моделях.
Инструмент распространяется с открытым исходным кодом и доступен для общего использования.
Полный конвейер CTGAN и SDV для генерации синтетических данных
В руководстве демонстрируется создание готового к продакшену пайплайна синтетических данных на базе CTGAN и экосистемы SDV. Процесс включает подготовку смешанных табличных данных, применение ограничений при генерации, условную выборку, статистическую валидацию и оценку практической полезности результатов.
Сначала обучается базовая модель CTGAN, затем — расширенный синтезатор CTGANSynthesizer из SDV с явным заданием метаданных и наложением ограничений (например, неравенства между числовыми полями или фиксированные комбинации категориальных значений). Дополнительно проверяется стабильность обучения через визуализацию потерь генератора и дискриминатора и демонстрируется условная генерация.
Оценка качества производится через официальные отчёты DiagnosticReport и QualityReport, а также через тест на перенос обучаемости: модель классификации обучается на синтетических данных и тестируется на реальных. Также реализовано сохранение и загрузка обученного синтезатора для повторного использования.
Авторизуйтесь, чтобы оставить комментарий.
Нет комментариев.
Тут может быть ваша реклама
Пишите info@aisferaic.ru