Технология
- Главная
- Технология
Чат-боты стали чаще врать
Аналитическая компания NewsGuard зафиксировала резкий рост числа случаев распространения ложных утверждений чат-ботами на базе искусственного интеллекта.
Как передает Vesti.az со ссылкой на зарубежные СМИ, исследование охватило 10 ведущих генеративных моделей, среди которых ChatGPT-5 (OpenAI), Smart Assistant (You.com), Grok (xAI), Pi (Inflection), le Chat (Mistral), Copilot (Microsoft), Meta AI, Claude (Anthropic), Gemini (Google) и Perplexity.
Тестирование проводилось на спорных новостных темах, по которым ранее уже были выявлены недостоверные утверждения. В среднем чат-боты воспроизводили их в 35% случаев — почти вдвое больше, чем год назад (18%). Худший результат показал Inflection Pi — 57% неверных ответов, за ним следуют Perplexity (47%), Meta AI и ChatGPT (по 40%). Наиболее точным оказался Claude, ошибавшийся лишь в 10% случаев.
По словам редактора NewsGuard по вопросам искусственного интеллекта и иностранного влияния Маккензи Садеги, рост неточностей связан с изменением методов обучения моделей. Если раньше они отказывались отвечать на определённые запросы или указывали на ограниченность данных, то теперь используют результаты поиска в реальном времени. Это повышает риски, так как поисковая выдача может быть намеренно наполнена дезинформацией.
В отчёте впервые публично названы конкретные чат-боты. В NewsGuard отметили, что сделали это для информирования политиков, журналистов и общества о повышенном уровне неточности в популярных инструментах ИИ.
Vesti.az
SpaceX откладывает Марс и делает ставку на Луну
Apple собирается представить новый бюджетный смартфон
Apple откажется от одного из своих приложений
Nikkei Asia: мировые бренды могут перейти на китайские чипы памяти
Nvidia и Dassault создают «мировые модели» для промышленности
ИИ от Google обрушил акции игровых гигантов