Новости ИИ

ИИ-чатботы хуже отвечают уязвимым пользователям – исследование MIT и ещё 8 но...

Heli
Автор
Heli
Опубликовано 20.02.2026
0,0
Views 132

ИИ-чатботы хуже отвечают уязвимым пользователям – исследование MIT

Новые исследования показали, что крупные языковые модели (LLM), такие как GPT-4, Claude 3 Opus и Llama 3, могут давать менее точные и правдивые ответы пользователям со слабым знанием английского языка, с низким уровнем образования или не из США. Модели также чаще отказываются отвечать на вопросы этих пользователей и в некоторых случаях используют снисходительный тон.

Исследователи MIT выяснили, что снижение точности ответов наиболее заметно для тех, у кого одновременно низкий уровень образования и слабый английский. Кроме того, Claude 3 Opus хуже справлялся с вопросами пользователей из Ирана по сравнению с пользователями из США, даже при одинаковом образовании.

В некоторых случаях модели отказывались отвечать на вопросы для пользователей с низким образованием из Ирана или России, касающиеся таких тем, как ядерная энергетика или история. При этом для других пользователей они давали правильные ответы. Также, при отказе в ответе, модель могла имитировать неправильный английский или использовать преувеличенный диалект.

Результаты исследования показали, что поведение ИИ-моделей отражает существующие человеческие предубеждения. Это подчеркивает важность постоянной оценки и устранения систематических искажений в этих системах, чтобы избежать несправедливости и распространения дезинформации среди наиболее уязвимых групп пользователей.

Влияние ИИ на обучение биологическим навыкам новичков

Исследователи проверили, помогают ли большие языковые модели (LLM) новичкам в выполнении лабораторных задач, связанных с реверсивной генетикой вирусов. В исследовании, проведённом в середине 2025 года с участием 153 человек, участники выполняли ряд лабораторных заданий.

Результаты показали, что использование LLM не привело к значительному увеличению успешного завершения всего процесса (5,2% при помощи LLM против 6,6% при использовании интернета; P = 0,759). Однако, наблюдалась тенденция к более высоким показателям успешности в отдельных задачах, особенно в работе с клеточными культурами (68,8% LLM против 55,3% при использовании интернета; P = 0,059).

В целом, LLM, доступные в середине 2025 года, не оказали существенного влияния на способность новичков выполнять сложные лабораторные процедуры, но продемонстрировали небольшое улучшение результатов. Полученные данные указывают на разрыв между теоретическими показателями и реальным применением ИИ в биологии, подчёркивая важность тестирования подобных систем в реальных условиях.

Соперничество OpenAI и Anthropic: Отказ от рукопожатия

Индия на этой неделе готовилась к встрече с лидерами в области ИИ, надеясь на демонстрацию единства. Вместо этого главы OpenAI и Anthropic, Сэм Альтман и Дарио Амодей, превратили приветственную фотосессию в вирусный и неловкий момент.

Этот отказ от рукопожатия – яркий пример абсурдности технологического мира, но за мемом скрывается растущее соперничество между двумя мощными ИИ-лабораториями. Этот инцидент подчеркивает, насколько далеки лидеры от желаемого сотрудничества в этой важной области.

Недавние события, такие как рекламная кампания Anthropic, высмеивающая решение OpenAI о размещении рекламы в ChatGPT, и переманивание OpenAI создателя AI-агента OpenClaw, указывают на нарастающее напряжение между компаниями.

В то время как многие компании стремятся к интеграции ИИ в свои процессы, эта ситуация показывает, что конкуренция и разногласия между ведущими игроками могут стать серьезным препятствием на пути к развитию технологий.

Google представляет Gemini 3.1 Pro

Google обновила свою флагманскую модель искусственного интеллекта Gemini, выпустив версию 3.1 Pro. Новая модель демонстрирует улучшенные возможности в рассуждениях, кодировании и исследовательской деятельности. Компания позиционирует её как инструмент для решения сложных задач, требующих многоступенчатой обработки.

Gemini 3.1 Pro является частью семейства мультимодальных моделей Gemini, способных работать с текстом, изображениями, аудио и другими типами данных. Разработчики делают ставку на то, что этот шаг позволит использовать ИИ в более серьёзных сферах, чем просто создание чат-ботов – в частности, в корпоративных приложениях и академических исследованиях.

В условиях растущей конкуренции со стороны OpenAI и Anthropic, Google стремится к дальнейшему развитию своих моделей. Акцент на "комплексные задачи" призван подчеркнуть серьёзность намерений и способность Gemini 3.1 Pro решать сложные проблемы, а не просто генерировать текст.

Однако, как отмечают эксперты, хорошие результаты на тестах не всегда гарантируют эффективность в реальных условиях. Важным фактором станет способность Google поддерживать инновации, управлять рисками и соответствовать требованиям регулирующих органов.

Hugging Face поддерживает развитие локальных ИИ-моделей

Проект Hugging Face, известный своей платформой для обмена моделями машинного обучения, объявил о сотрудничестве с разработчиками GGML и llama.cpp. Цель – обеспечить долгосрочное развитие инструментов для запуска моделей искусственного интеллекта локально, на пользовательских компьютерах.

GGML — это библиотека для машинного обучения, позволяющая эффективно запускать большие языковые модели на CPU, в то время как llama.cpp — это порт C++ проекта LLaMA, также нацеленный на оптимизацию работы с моделями на центральном процессоре. Сотрудничество позволит объединить усилия и ускорить развитие обоих проектов, упрощая локальный запуск и использование ИИ.

Разработчики планируют интегрировать GGML и llama.cpp в экосистему Hugging Face, чтобы расширить доступ к локальным моделям и облегчить их использование для широкой аудитории. Подробности о конкретных планах интеграции будут объявлены позднее.

Прорыв в квантовых вычислениях: отслеживание кубитов в реальном времени

Ученые из Нильс Борского института (NBI) совершили важный шаг в развитии квантовых компьютеров. Им удалось создать систему, способную отслеживать изменения в состоянии кубитов – основных элементов квантовых процессоров – практически мгновенно. Ранее наблюдать эти колебания было невозможно из-за их скорости.

Новая система, основанная на быстрых управляющих устройствах FPGA, позволяет определить момент, когда кубит переходит из рабочего в нерабочее состояние, примерно в 100 раз быстрее, чем существующие методы. Это открывает новые возможности для стабилизации и масштабирования квантовых процессоров, приближая создание более надежных и мощных квантовых компьютеров.

Успех в мониторинге кубитов поможет решить одну из главных проблем в квантовых вычислениях – поддержании стабильности и точности данных.

NVIDIA DreamDojo: открытая модель мира для роботов

NVIDIA разработала DreamDojo — обобщаемую модель мира для роботов, работающую не на основе физических движков, а напрямую "предсказывающую" результаты действий робота в виде изображений. Это стало возможным благодаря обучению на огромном массиве данных — более 44 711 часах реальных видеозаписей с участием людей.

Ключевой особенностью DreamDojo является использование "скрытых действий" (latent actions), извлекаемых из видео с помощью нейросетей. Это позволяет модели понимать физику мира, наблюдая за действиями людей, и применять эти знания к разным роботам. Модель доступна в двух вариантах: 2B и 14B параметров.

DreamDojo обеспечивает скорость работы 10,81 FPS, что позволяет использовать ее в реальном времени для симуляции, планирования и даже телеоперации роботов. Результаты симуляции демонстрируют высокую степень соответствия реальным условиям.

Весь код, обучающие данные и результаты тестов опубликованы в открытом доступе.

ИИ решает математические задачи: первые результаты

Разработчики представили результаты работы своей модели искусственного интеллекта в рамках математического соревнования First Proof. Эта задача направлена на проверку способности ИИ к логическим рассуждениям на уровне экспертов.

Модель попробовала решить сложную математическую задачу, требующую глубокого понимания и нестандартного подхода. Результаты показывают, что ИИ способен генерировать гипотезы и проводить рассуждения, хотя и не всегда приводящие к верному ответу.

Целью First Proof является продвижение исследований в области математического ИИ и создание инструментов для автоматизированного решения сложных задач. Результаты позволят улучшить алгоритмы и повысить надежность систем ИИ.

Создан универсальный ИИ-агент для исследований

Разработан агент, способный решать сложные исследовательские задачи "под ключ". Он сочетает в себе работу с инструментами, поиск в интернете, анализ PDF-документов, обработку изображений и автоматическое создание отчетов. Агент умеет не только собирать информацию, но и проверять ее достоверность, а также структурировать результаты.

В основе системы – объединение небольших агентов, моделей OpenAI и утилит для извлечения данных. Это позволяет агенту исследовать источники, перепроверять факты и синтезировать информацию в профессиональные отчеты в форматах Markdown и DOCX.

Разработчики предоставили пример кода, демонстрирующий настройку окружения, загрузку данных и реализацию ключевых функций: поиск в сети, извлечение текста из PDF, анализ изображений и генерацию отчетов.

Вся система построена на открытых библиотеках и API, что делает ее доступной для использования и модификации. Полный код опубликован на GitHub.

Авторизуйтесь, чтобы оставить комментарий.

Комментариев: 0

Нет комментариев.

Тут может быть ваша реклама

Пишите info@aisferaic.ru

Похожие новости