В недавнем интервью ABC News генеральный директор OpenAI Сэм Альтман выразил обеспокоенность по поводу негативного воздействия искусственного интеллекта (ИИ). Альтман предупредил, что ИИ может заменить людей, распространять дезинформацию и совершать кибератаки.
Чуть ранее таких откровений Альтмана OpenAI представила свою последнюю языковую модель GPT-4, которая, по утверждению компании, демонстрирует производительность на уровне человека по различным профессиональным и академическим показателям.
Новая модель даже смогла сдать условный экзамен в адвокатуру США.
Альтман считает, что эти модели могут быть использованы для крупномасштабной дезинформации. "Теперь, когда они совершенствуются в написании компьютерного кода, [их] можно использовать для наступательных кибератак", - утверждает их создатель.
Сейчас компания работает над установлением "ограничения безопасности" для ИИ.
Какие это "ограничения безопасности" недавно узнали пользователи ChatGPT, популярной программы чат-ботов, основанной на предшественнике GPT-4, - GPT-3.
ChatGPT показывает истинную либеральность, отказавшись написать восхищенный текст о Дональде Трампе, зато охотно пишет, такие посты о Джо Байдене.
Альтман сказал, что его компания поддерживает постоянные контакты с правительственными чиновниками, но не уточнил, повлияли ли они на политические предпочтения ChatGPT. При этом он признался, что существует команда политиков, которая решает, что нужно считать безопасным и полезным при использовании ИИ.
В настоящее время GPT-4 доступен ограниченному числу пользователей на пробной основе.
Эксперты предполагают, что модель значительно мощнее своей предшественницы и потенциально более опасна.
Профессор Стэнфордского университета Михал Косински, фанат нейросетей, обоснованно встревожен растущей мощью ИИ.
Он не единственный. Ранее в этом месяце генеральный директор Tesla и Twitter Элон Маск назвал ИИ "опасной технологией", добавив, что "нам нужен какой-то регулирующий орган, контролирующий развитие ИИ и следящий за тем, чтобы он действовал в интересах общества".
Хотя Альтман полагает, что GPT-4 всё ещё "в значительной степени контролируется человеком", он признал, что его модель "устранит множество текущих рабочих мест", и сказал, что людям "нужно будет найти способы замедлить развитие этой технологии".
Комментарии