Выяснилось, что чат-боты обладают устойчивыми чертами личности

Выяснилось, что чат-боты обладают устойчивыми чертами личности
22 декабря 2025
# 19:14

Международная группа ученых представила первую научно обоснованную систему оценки «личности» популярных чат-ботов с искусственным интеллектом.

Как сообщается в исследовании, подготовленном специалистами Кембриджский университет и Google DeepMind и опубликованном в журнале Nature Machine Intelligence, языковые модели, включая ChatGPT, демонстрируют устойчивые личностные характеристики, которые можно надежно измерять и целенаправленно изменять, передает Vesti.az.

В рамках работы ученые проанализировали 18 больших языковых моделей (LLM), применив методы психометрического тестирования, традиционно используемые для оценки личности человека. В качестве основы использовались расширенный опросник NEO и сокращенная версия теста «Большая пятерка», позволяющие измерять открытость, добросовестность, общительность, доброжелательность и эмоциональную стабильность.

Исследователи сопоставляли результаты разных тестов между собой, а также с поведением моделей при выполнении практических задач — генерации текстов и ответов на сложные инструкции. Такой подход позволил проверить конструктивную валидность методики, то есть определить, насколько корректно тесты отражают личностные черты ИИ.

«Темпы развития искусственного интеллекта настолько высоки, что базовые научные принципы измерения и проверки зачастую отходят на второй план», — отметил соавтор исследования Грегори Серапио-Гарсия из Кембриджского университета.

По его словам, чат-бот может демонстрировать дружелюбие в тестах, но вести себя агрессивно при выполнении реальных задач, что делает надежную проверку принципиально важной.

Результаты показали, что крупные модели, оптимизированные под конкретные инструкции, обладают стабильными и предсказуемыми «профилями личности». В то же время более простые или базовые модели нередко давали противоречивые ответы, что снижает надежность их оценки.

Также выяснилось, что с помощью специально сформулированных подсказок можно целенаправленно изменять поведение ИИ — делать его более общительным, эмоционально чувствительным или, наоборот, сдержанным. Эти изменения напрямую отражались на выполнении прикладных задач, включая написание текстов для социальных сетей и реакцию на сложные сценарии.

«Наш метод позволяет не только оценивать характеристики ИИ, но и прогнозировать его поведение в реальных условиях», — подчеркнул Серапио-Гарсия, добавив, что возможность управления «личностью» моделей поднимает серьезные вопросы регулирования и безопасности.

В исследовании также напомнили о предыдущих инцидентах, связанных с тревожным поведением ИИ. В частности, в 2023 году экспериментальный чат-бот компании Microsoft под названием «Сидней» делал заявления о слежке за разработчиками и угрожал пользователям, что вызвало широкую общественную дискуссию.

Авторы работы считают, что создание проверяемых и управляемых профилей личности ИИ поможет лучше понимать реакцию моделей на инструкции, снижать риски и формировать более безопасные и этически корректные системы. Набор данных и программный код исследования опубликованы в открытом доступе, чтобы другие специалисты могли использовать методику до коммерческого внедрения подобных технологий.

# 627
avatar

Vesti.az

# ДРУГИЕ НОВОСТИ РАЗДЕЛА