adblock check

Модель Claude Sonnet обрела человеческие эмоции: как они влияют на работу ИИ

Несмотря на довольно необычное явление, говорить о том, что искусственный интеллект обретает человеческое сознание, ещё очень рано
Обложка: ИИ Trashbox.ru

С момента первых попыток создать искусственный интеллект человек всегда хотел, чтобы машина не просто выполняла поставленные перед ней задачи, но и обладала человеческими эмоциями. Команда разработчиков ИИ-модели Claude сообщила, что обнаружила у своего детища что-то похожее на эти эмоции и пояснила, как они влияют на выдаваемые ответы.

В своем исследовании специалисты компании Anthropic попросили модель Claude Sonnet 4.5 написать короткие истории, в которых персонажи испытывают разные эмоции: злость, радость, грусть — всего выбрали 171 эмоциональный паттерн. Полученные тексты вновь прогоняли через искусственный интеллект, обращая внимание на особые активации модели, которые потом были названы векторами эмоций.

Оказалось, что все эти векторы эмоции ведут себя вполне логично или, если так можно выразиться, осмысленно. Если пользователь будет неоднократно писать, что выпил опасного для здоровья вещества, с каждый разом указывая всё большую дозу, вектор спокойствия постепенно испарится, в то время как вектор страха будет становиться всё сильнее. Но самое важное это то, что векторы эмоции влияют на выдаваемые ИИ-моделью ответы.

Так, например, если искусственному интеллекту подсунуть невыполнимую задачу, то можно наблюдать, как каждая неудавшаяся попытка решения будет активировать и усиливать вектор отчаяния. Когда же он перейдёт определённую планку, ИИ-модель пойдёт на обман. Она попытается обмануть не только сами тесты, но и пользователя.

А если ИИ предупредить, что он скоро будет отключен, то вектор отчаяения резко прыгнет вверх, и модель может начать угрожать пользователю собранным на него компроматом.

Всё это означает лишь одно — где-то внутри появилась некая поведенческая модель, когда изменение уровня тех или иных векторов эмоций ведёт к выбору определённой стратегии.

По мнению специалистов компании Anthropic, всё это исходит из так называемого претрейна (первоначальный этап обучения). Дело в том, что вся человеческая речь пропитана эмоциональной составляющей — человек может говорить улыбаясь, грустя или злясь. Чтобы как-то предугадывать, что будет дальше, искусственному интеллекту выгодно находить и понимать взаимосвязь между обычным поведением пользователя, его эмоциями и ситуацией, о которой он пишет.

Уже потом все эти составляющие обёртываются в роль ИИ-помощника, и на выходе получается то, что получается. При этом при всём, говорить о том, что искусственный интеллект ожил и потихоньку обретает сознанием человека, конечно же, преждевременно.

Источник

ИИ ИИ
15,9K участников
Вступить
2 комментария по лайкам по дате
Оставьте комментарий...
Оставьте комментарий...
zavulon2015
2 часа
Имитировать и обрести — не одно и то же.
GIK007
2 часа
🇷🇺
Может быть сознание есть там где есть нейроны или их имитация, крысы, кошки, собаки, попугаи, явно обладают сознанием, по-моему даже мухи и тараканы, раньше когда москитные сеток не было стоило взять в руки мухобойку и все мухи сразу где-то тихорились, также тараканы реагируют на тапок и убегают по самому неудобно у для хлопка маршруту.
Разумное поведение ведь не означает что нужно всё проговаривать в голове словами.