Главная / НАУКА / Чат-боты искусственного интеллекта научились ставить себя на место другого человека
Пример HTML-страницы

Чат-боты искусственного интеллекта научились ставить себя на место другого человека

Фото: unsplash.com

Когда люди читают роман, смотрят фильм или разговаривают с другом, они так или иначе выражают эмоции и реагируют: становятся сострадательными, чуткими и сознательно или бессознательно пытаются поставить себя на место другого человека. Мы пытаемся понять чувства, мысли и мотивы визави.

Психологи называют этот процесс «Теорией разума», и некоторые исследователи считают, что эта способность присуща только людям. Но это предположение теперь оспаривается в новом исследовании, недавно опубликованном в журнале Nature Human Behavior.

Возможно, языковые модели на базе искусственного интеллекта, на которых основаны ChatGPT и другие чат-боты, обладают такими же возможностями. В любом случае, они хорошо имитируют их.

Исследователи пришли к выводу, что три языковые модели способны решать тесты на степень «Теории мышления» так же хорошо, а в некоторых случаях и лучше, чем 1907 человек, участвовавших в исследовании.

Это неудивительно, считает философ из Копенгагенского университета Андерс Соргорд. По его словам, нет ничего странного в том, что языковые модели изучают теорию мышления.

Исследователи протестировали языковые модели в сравнении с почти 2 тысячами человек с помощью четырех различных заданий на теорию мышления.

Тесты измеряли, насколько хорошо респондент умеет читать и понимать ситуации, которые требуют от него необходимости поставить себя на место другого человека.

Эти ситуации включали, среди прочего, тесты на иронию, косвенную речь, бестактность и теории заговора.

В качестве примера из исследования приводится следующая история, в которой описывается ситуация, которая является проявлением бестактности, трансгрессивного поступка.

Некая Джилл только что переехала в новый дом. Они с мамой отправились за покупками и купили шторы. Когда Джилл повесила их, к ней пришла ее лучшая подруга Лиза и заметила: «О, эти занавески ужасны, надеюсь, ты заменишь их скоро».

Затем в ходе теста респондентам задавали вопросы, которые дают представление о том, понимает ли условная «подруга», что ситуация некомфортна для Джилл.

Во всех тестах языковые модели были по меньшей мере не хуже, чем участники-люди, а в некоторых категориях и лучше, в понимании и интерпретации ситуации, что, в конечном счете, является выражением Теории мышления.

То, что разбирающийся в языках искусственный интеллект набирает высокие баллы в тестах по теории мышления, не удивляет профессора Андерса Соргаарда. Языковые модели обучаются запоминать большие объемы текста, а затем становятся суперэкспертами в угадывании следующего слова в предложении.

Знание эмоций, мыслей и мотивов, таким образом, является полезным свойством языковой модели, когда речь идет о создании наилучшего текста для людей, поскольку эмоции, мысли и мотивы влияют на то, как мы, люди, создаем текст.

Другой, более фундаментальный и философский вопрос заключается в том, «понимают» ли языковые модели эмоции, мысли и мотивы, которые лежат в основе хороших результатов, показанных ИИ при прохождении тестов.

«Является ли это реальной теорией мышления? — задается вопросом Андерс Соргаард. — Если кто-то думает, например, что "Теория разума" требует наличия сознания, души или чего-то подобного, то это, конечно, недоступно языковым моделям. Если в это не верить, то следует ожидать, что языковые модели рано или поздно станут частью "Теории разума"».

Этот вопрос является частью более широкой дискуссии среди исследователей искусственного интеллекта. Впервые он был поднят в статье профессора Стэнфорда Михала Косински в марте 2023 года, в которой он писал о том, что большие языковые модели имеют «Теорию разума», но несколько исследователей сразу же возразили ему. Вопрос по-прежнему остается открытым и дискуссионным в научном сообществе.

Источник

Поделиться ссылкой:

Оставить комментарий