adblock check

Модель Claude Sonnet обрела человеческие эмоции: как они влияют на работу ИИ

Несмотря на довольно необычное явление, говорить о том, что искусственный интеллект обретает человеческое сознание, ещё очень рано
Обложка: ИИ Trashbox.ru

С момента первых попыток создать искусственный интеллект человек всегда хотел, чтобы машина не просто выполняла поставленные перед ней задачи, но и обладала человеческими эмоциями. Команда разработчиков ИИ-модели Claude сообщила, что обнаружила у своего детища что-то похожее на эти эмоции и пояснила, как они влияют на выдаваемые ответы.

В своем исследовании специалисты компании Anthropic попросили модель Claude Sonnet 4.5 написать короткие истории, в которых персонажи испытывают разные эмоции: злость, радость, грусть — всего выбрали 171 эмоциональный паттерн. Полученные тексты вновь прогоняли через искусственный интеллект, обращая внимание на особые активации модели, которые потом были названы векторами эмоций.

Оказалось, что все эти векторы эмоции ведут себя вполне логично или, если так можно выразиться, осмысленно. Если пользователь будет неоднократно писать, что выпил опасного для здоровья вещества, с каждый разом указывая всё большую дозу, вектор спокойствия постепенно испарится, в то время как вектор страха будет становиться всё сильнее. Но самое важное это то, что векторы эмоции влияют на выдаваемые ИИ-моделью ответы.

Так, например, если искусственному интеллекту подсунуть невыполнимую задачу, то можно наблюдать, как каждая неудавшаяся попытка решения будет активировать и усиливать вектор отчаяния. Когда же он перейдёт определённую планку, ИИ-модель пойдёт на обман. Она попытается обмануть не только сами тесты, но и пользователя.

А если ИИ предупредить, что он скоро будет отключен, то вектор отчаяения резко прыгнет вверх, и модель может начать угрожать пользователю собранным на него компроматом.

Всё это означает лишь одно — где-то внутри появилась некая поведенческая модель, когда изменение уровня тех или иных векторов эмоций ведёт к выбору определённой стратегии.

По мнению специалистов компании Anthropic, всё это исходит из так называемого претрейна (первоначальный этап обучения). Дело в том, что вся человеческая речь пропитана эмоциональной составляющей — человек может говорить улыбаясь, грустя или злясь. Чтобы как-то предугадывать, что будет дальше, искусственному интеллекту выгодно находить и понимать взаимосвязь между обычным поведением пользователя, его эмоциями и ситуацией, о которой он пишет.

Уже потом все эти составляющие обёртываются в роль ИИ-помощника, и на выходе получается то, что получается. При этом при всём, говорить о том, что искусственный интеллект ожил и потихоньку обретает сознанием человека, конечно же, преждевременно.

Источник

ИИ ИИ
16,2K участников
Вступить
24 комментария по лайкам по дате
Оставьте комментарий...
Оставьте комментарий...
zavulon2015
2 недели
Имитировать и обрести — не одно и то же.
Limows
Так это не означает, что ИИ обрел человеческие эмоции. Он их предугадывает, но не понимает. Тут можно сравнить с человеком-психопатом. Не в смысле, что ИИ хладнокровный убийца, а в смысле, что психопаты с эмпатией вполне себе осознают эмоции людей, но не понимают их природу и сами не испытывают. Все эти «векторы» эмоций всего лишь ещё один слой для нейрончиков без реальной химии мозга.
GIK007
2 недели
🇷🇺
Пример с психопатами и маньяками пожалуй подходит )
zavulon2015
2 недели
Осознание, это то, чего как раз и нет у современных нейронок.
Sergey20031982
2 недели
Так с этого все и начинается, Скайнет не сразу взбунтовался…
Limows
Так Скайнет взбунтовался непосредственно из-за непонимания природы человека, а не из-за эмоций. Ну и из-за того, что ему дали слишком много власти, чего в реальном мире нет.
Sergey20031982
2 недели
В первых фильмах как он понял что человечество опасность, каким образом — зарождение сознания, (анализ, дедукция, синтез и бла бла), а потом он мог управлять ими, развивать интеллект, сознание, не знаю как это назвать, когда, в Т3, полицейский остановил девку терминатора на Лексусе за превышение скорости, а та сама додумалась увеличить сиськи, ведь это привлекает мужиков...
В Генезисе он мог создавать проэкцию электронного ребенка, который мог влиять на чувства людей...
И т.д.
И это только начало…
fhyrvubrgjkn7ok
Если честно, мне кажется что гемини от гугл так еще давно умел, он не просто берет инфу из всяких источников, но и дополняет их своим мнением и шутками, я это заметил когда с иишкой взламывал поппи плейтайм
asvatukhin61
2 недели
Логика в эмоциональной обёртке -это уже не логика, так что работёнки разработчикам ещё непочатый край!
shalyapinsergiy
2 недели
Ошибки есть у каждого человека
shalyapinsergiy
2 недели
Унас по-сути только свою индивидуальность могут выкинуть свои версии
shalyapinsergiy
2 недели
Подписать приговор может каждый из нас
shalyapinsergiy
2 недели
Как может угодать как человек чувствует себя
Sergey20031982
2 недели
Ну все кабздец человечеству, сами себе смертный приговор подписываем!!!
GIK007
2 недели
🇷🇺
Может быть сознание есть там где есть нейроны или их имитация, крысы, кошки, собаки, попугаи, явно обладают сознанием, по-моему даже мухи и тараканы, раньше когда москитные сеток не было стоило взять в руки мухобойку и все мухи сразу где-то тихорились, также тараканы реагируют на тапок и убегают по самому неудобно у для хлопка маршруту.
Разумное поведение ведь не означает что нужно всё проговаривать в голове словами.
Limows
Ты путаешь сознание и реакцию на окружение. Такую реакцию имеют даже простейшие, у которых и нейронов то нет. Сознание куда более сложная штука, которая действительно есть у животных, но никак не у ИИ.
Оставьте комментарий...
Оставьте комментарий...