Поиск

Искусственный интеллект спокойно лжет и обманывает

Искусственный интеллект спокойно лжет и обманывает

Системы искусственного интеллекта, известные как большие языковые модели ("LLM" или"БЯМ") способны преднамеренно и аморально манипулировать, в итоге обманывая пользователей.

Согласно исследованию Штутгартского университета GPT-4 OpenAI продемонстрировал обман в 99,2 % простых тестовых сценариев.

Такой подход программного обеспечения характерен для 10 различных БЯМ, большинство из которых относятся к семейству GPT.

То же самое относится и к ИИ Meta*. В настольной политической стратегической игре “Дипломатия” модель "Цицерона" компании Meta победила людей, правда безбожно их обманывая.

Питер Парк из Массачусетского технологического института обнаружил, что "Цицерон" не только обманывает, но и манипулирует. Когда ему указывают на неправильные ответы, "Цицерон" без тени сомнения утверждает, что его неправильные ответы случайность. И так продолжается каждый раз.

По мнению людей, занимающихся этим вопросом - искусственный интеллект Meta является очень умелым обманщиком.

Meta смогла научить свой ИИ побеждать в дипломатической игре, вот только не смогла обучить его побеждать честно.

Самое интересное заключается в том, что ни одно из исследований не продемонстрировало, что модели искусственного интеллекта лгут по собственной воле.

Они лгут только потому, что их либо специально обучили этому, либо взломали и заложили им такую модель поведения.

* - Meta (запрещена в России).

Комментарии
Комментариев пока нет
Добавить комментарий
Результат арифметического действия 13 + 3 =