Раскол в мире ИИ: закрытые системы против моделей с открытым доступом
В области искусственного интеллекта (ИИ) наблюдается растущий раскол, обусловленный разными подходами к разработке и развертыванию моделей. С одной стороны, существуют модели, развертываемые в закрытых системах для решения конкретных задач, таких как обеспечение безопасности критически важных систем. С другой стороны, существуют модели с открытым доступом, которые используются для создания программного обеспечения в ходе многочасовых сессий без надзора.
Этот раскол поднимает вопрос о том, какая экосистема ИИ формируется и что это означает для создания, развертывания и доверия к ИИ.
Примером закрытой модели является Claude Mythos Preview от Anthropic, который обладает значительными улучшениями в области рассуждений, кодирования и обнаружения уязвимостей, но намеренно не был выпущен для широкой публики. Модель обнаружила тысячи уязвимостей в операционных системах и браузерах, включая проблемы, которые пережили десятилетия тестирования и миллионы сканирований.
Доступ к этой модели предоставляется небольшой коалиции партнеров, а целью является оборонительная кибербезопасность, со структурированным внедрением и контролируемой средой. Это знаменует собой переход от подхода "выпусти и итерируй" к "содержи и проверяй". Модели такого уровня, по-видимому, демонстрируют поведение, выходящее за рамки предсказуемого выполнения задач, требуя более строгих границ, большей наблюдаемости и более продуманного дизайна ограничений.
В то же время, Zhipu AI’s GLM-5.1, модель с открытым исходным кодом, достигла вершины SWE-Bench Pro, что свидетельствует о прогрессе в структурированном мышлении, использовании инструментов и многоэтапном выполнении. Демонстрации многочасовых автономных сессий указывают на улучшения в сохранении памяти, разложении задач и итеративном совершенствовании.
Открытый доступ усиливает этот эффект, позволяя командам тестировать поведение модели в реальных условиях, настраивать ее для конкретных задач и интегрировать в свои внутренние системы.
Вместе, эти события указывают на четкое разделение. С одной стороны, высокопроизводительные модели работают в ограниченных средах, оптимизированных для безопасности и контролируемого развертывания. С другой стороны, все более мощные модели с открытым исходным кодом позволяют проводить широкие эксперименты и быструю итерацию.
Это создает ряд противоречий: доступ против контроля, безопасность против скорости, надежность против гибкости. Выбор модели становится менее зависимым от ее производительности и более зависимым от соответствия системным требованиям, толерантности к риску и операционным ограничениям.
Интересным аспектом является то, что модели, которые все обсуждают, обычно доступны. А те, которые тихо меняют рабочие процессы, обычно остаются за кулисами, решая проблемы, прежде чем кто-либо это заметит.
Авторизуйтесь, чтобы оставить комментарий.
Нет комментариев.
Тут может быть ваша реклама
Пишите info@aisferaic.ru