Технология
- Главная
- Технология
Чат-боты стали чаще врать
Аналитическая компания NewsGuard зафиксировала резкий рост числа случаев распространения ложных утверждений чат-ботами на базе искусственного интеллекта.
Как передает Vesti.az со ссылкой на зарубежные СМИ, исследование охватило 10 ведущих генеративных моделей, среди которых ChatGPT-5 (OpenAI), Smart Assistant (You.com), Grok (xAI), Pi (Inflection), le Chat (Mistral), Copilot (Microsoft), Meta AI, Claude (Anthropic), Gemini (Google) и Perplexity.
Тестирование проводилось на спорных новостных темах, по которым ранее уже были выявлены недостоверные утверждения. В среднем чат-боты воспроизводили их в 35% случаев — почти вдвое больше, чем год назад (18%). Худший результат показал Inflection Pi — 57% неверных ответов, за ним следуют Perplexity (47%), Meta AI и ChatGPT (по 40%). Наиболее точным оказался Claude, ошибавшийся лишь в 10% случаев.
По словам редактора NewsGuard по вопросам искусственного интеллекта и иностранного влияния Маккензи Садеги, рост неточностей связан с изменением методов обучения моделей. Если раньше они отказывались отвечать на определённые запросы или указывали на ограниченность данных, то теперь используют результаты поиска в реальном времени. Это повышает риски, так как поисковая выдача может быть намеренно наполнена дезинформацией.
В отчёте впервые публично названы конкретные чат-боты. В NewsGuard отметили, что сделали это для информирования политиков, журналистов и общества о повышенном уровне неточности в популярных инструментах ИИ.
Vesti.az
Подписан меморандум о развитии цифрового здравоохранения в Азербайджане-ФОТО
Массовые увольнения в 2025 году оказались почти не связаны с ИИ
Долгожданное обновление представила компания Google для пользователей Gmail
Samsung представила первый в мире 6K-монитор с 3D без очков
Alphabet покупает девелопера энергетики Intersect за 4,75 млрд долларов
АзИнТелеком запустила Суперкомпьютерный центр на базе GPU-технологий