adblock check

В OpenAI создали комитет по безопасности: он сформирует рекомендации для защиты будущих проектов компании

В процессе выполнения поставленных задач компания будет привлекать внештатных специалистов из различных областей

Сегодня, 28 мая, на официальном сайте OpenAI появилась новость о том, что совет директоров компании-лидера в области ИИ-технологий сформировал новый комитет безопасности, в состав которого вошли директоры Брет Тейлор, Адам Д'Анджело, Николь Селигман и генеральный директор Сэм Альтман. Данный комитет, судя по пресс-релизу, будет отвечать за формирование рекомендаций для совета директоров в вопросах критических решений в области безопасности проектов и операций компании OpenAI.

Также в публикации сказано, что компания недавно приступила к процессу обучения новой большой языковой модели, которая позволит вывести OpenAI на совершенно новый уровень возможностей на пути к созданию AGI (Artificial general intelligence или «Общий искусственный интеллект» — это тип ИИ, который способен превзойти возможности человека в достаточно широком перечне когнитивных задач).

«Мы гордимся тем, что создаём и выпускаем модели, лидирующие в отрасли как по возможностям, так и по безопасности, но также мы приветствуем активные дискуссии в этот ответственный момент», — цитата из новости на официальном сайте.

Ещё представители компании заявили, что первой задачей нового комитета по безопасности и защите является оценка и дальнейшее развитие процессов и защитных механизмов OpenAI в течение следующих 90 дней. По истечению данного срока представители комитета предоставят свои рекомендации совету директоров, а после того, как члены совета его рассмотрят в полном составе, OpenAI публично предоставит всю информацию о принятых рекомендациях в соответствии со своими требованиями безопасности. Стоит отметить, что в процессе выполнения данной задачи компания будет консультироваться с внештатными экспертами из различных областей.

Источник

ИИ ИИ
Сообщество
Вступить
Комментариев пока нет
Оставьте комментарий...
Оставьте комментарий...